Software Factories
Si Henry Ford fait figure de pionnier, c’est qu’il fut l’un des premiers à construire une chaîne de production au coeur de son « usine » au début du XXe siècle. Cette approche de la production signifiait augmentation des taux de production pour les travailleurs et baisse du prix des produits pour les consommateurs. Près d’un siècle plus tard, pour nombre de raisons identiques, le terme de Factories et le concept d’industrialisation qu’il recouvre ont fait leur entrée dans le vocabulaire quotidien de l’industrie informatique.
L’un des premiers ouvrages à vulgariser cette approche dans notre domaine fut Software Factories : Assembling Applications with Patterns, Models, Frameworks, and Tools (Fabriques logicielles : assembler des applications à l’aide de schémas, de modèles, de structures et d’outils) de Jack Greenfield, et al. (Wiley 2004). Pour développer les idées exprimées dans ce livre, nous avons la chance d’accueillir dans nos colonnes ses auteurs, Jack Greenfield et Steve Cook.
Dans son article, « Langages vides », Jack Greenfield explique comment intégrer les DSL (Domain-Specific Language) à la méthodologie des Software Factories et présente certains des écueils classiques à éviter lorsqu’on adopte cette approche. Nous avons profité de cette occasion pour inaugurer un nouveau rendez-vous. Car vous êtes nombreux à avoir exprimé le souhait d’en savoir plus sur les carrières d’architectes connus et respectés. Après avoir écrit notre papier d’ouverture, Jack a donc accepté de nous recevoir pour nous raconter son parcours. Pour en connaître les détails, découvrez notre nouvelle rubrique « Portrait d’un architecte ».
L’article de Steve Cook étudie à la loupe comment l’utilisation des DSL permet de subdiviser les grands problèmes en problèmes plus petits, et en quoi le principe est applicable à une plateforme de Software Factories. Marcel de Vries reprend à son tour le thème des Software Factories, mais en se concentrant sur les capacités de reporting et de stockage de données (toujours dans l’idée d’améliorer le développement de produit).
Contributeur régulier de The Architecture Journal, Tom Fuller s’intéresse pour sa part aux quatre piliers des Software Factories, afin de promouvoir la réutilisabilité et d’autres processus stratégiques. Steve Eadie, d’EDS, fait suite à l’article de Tom en nous parlant des Software Factories vues par un GSI (Global System Integrator). Il étudie notamment le cas où l’équipe de développement est disséminée dans le monde entier.
Enfin, Lewis Curtis et George Cerbone livrent leur point de vue sur une méthode d’architecture basée sur la perspective. Ce mode d’analyse des besoins est une technique que les architectes peuvent utiliser pour « poser les bonnes questions » sur les projets dans lesquels ils sont engagés.
http://download.microsoft.com/download/3/1/2/312fbee5-8302-4d15-9bcf-9c4fc74ed96b/AJ09_FR.zip
Petit à petit, le green IT fait son chemin dans l’esprit des DSI
Le concept de green IT prend forme dans les esprits des DSI, mais il reste un sujet de doute et d’inquiétude. Pourtant, analystes et fournisseurs le chantent en choeur : il faut se lancer à petits pas. Pour eux, comme pour les défenseurs de l’environnement, les entreprises du secteur IT ont les moyens de rendre leur fonctionnement plus écologique en réduisant leurs besoins en énergie. Qui plus est, non seulement ils diminueront leur empreinte carbone mais ils économiseront de l’argent sonnant et trébuchant.
Les responsables IT qui ont répondu à l’enquête annuelle de notre confrère ComputerWorld expriment leur réticence vis à vis du green IT. Près de la moitié (42%) affirment que leur département n’a aucun projet de réduction de la consommation d’énergie ni des émissions de CO2 de l’infrastructure. Et presque les trois quarts n’ont même aucune intention de mettre sur pied des comités pour piloter de telles initiatives.
Génération workflow
Pour introduire le thème, nous commencerons par un article de Dave Green, architecte de notre produit Windows Workflow Foundation (WF). Dave exposera les décisions et les raisonnements auxquels son équipe a été confrontée pendant la conception d’une plateforme de workflow qui a fini par façonner le produit développé.
Nous poursuivrons par un article de Vignesh Swaminathan, chef de produit chez Cordys R&D, qui vous emmènera dans une « Amazing Race » et analysera les similitudes entre les matrices de décision relatives au workflow en entreprise et un programme de télé-réalité. Pour ajouter de la chaleur humaine au Journal, Jesus Rodriguez et Javier Mariscal aborderont les composantes principales d’un système de workflow humain et décriront les modèles pouvant être utilisés pour modéliser les tâches impliquant l’homme.
Pour relier ces différents thèmes, Kevin Francis traitera de l’intégration d’applications à l’aide du workflow dans son article intitulé « Le workflow dans l’intégration d’applications ». Et pour compléter l’ensemble des articles traitant du workflow dans ce numéro, Andrew Needleman présentera la technique dite en « points et lignes » qu’il utilise pour simplifier le processus de communication des workflows complexes auprès des experts métier.
À la suite des articles sur le workflow, nous aurons le plaisir de vous proposer l’article de William Oellermann sur le modèle de maturité d’orientation des services de l’entreprise (ESOMM), modèle qui appréhende la gestion des services dans l’entreprise. Enfin, pour conclure ce numéro, nous avons choisi de solliciter à nouveau Arvindra qui reviendra avec Beat Schwegler pour nous proposer la Partie 1 d’un excellent papier sur la « Modélisation de services pour systèmes connectés ».
Les clients tendent vers des projets avec retour sur investissement rapide
« 2009, une année marquée par une visibilité limitée ». Les déclarations prudentes de Leo Apotheker, co-président du directoire de SAP, à propos des perspectives montrent bien l’embarras du groupe d’édition de logiciels pour les entreprises (progiciel de gestion intégré, business intelligence, gestion de la relation clientèle…).
L’année 2008 est en demi-teinte : vent favorable au premier semestre, avis de tempête au second. Le chiffre d’affaires de SAP s’élève à 11,5 milliards d’euros, en hausse de 13% par rapport à l’année précédente. La moitié de son CA est réalisé dans la zone Europe-Moyen Orient – Afrique (6,2 milliards d’euros). Le reste étant partagé entre le continent américain (3,8 milliards) et l’Asie (1,4 milliards). Son résultat d’exploitation a progressé de 4% (2,8 milliards d’euros) et son résultat net faiblit (1,8 milliard d’euros contre 1,9 milliard l’an passé).
SAP n’échappe au cycle des suppressions de postes même si le groupe allemand adopte une solution plus souple de départs volontaires portant sur 3300 collaborateurs. L’objectif étant de faire revenir la masse salariale en dessous de la barre des 50 000 employés (48 500 fin 2009 contre 51 800 aujourd’hui).
Quid du marché français ? Vnunet.fr a interviewé Pascal Rialland, Directeur général de la branche hexagonale de SAP qui dresse un panorama des activités.
Conception des données
Selon moi, les architectes que nous sommes sous évaluent fréquemment l’omniprésence des données dans la profession, notamment si l’on considère leur utilisation dans les applications et les systèmes déployés sur plusieurs zones géographiques, fuseaux horaires et entreprises.
Pour évoquer la disponibilité des données dans un système d’information, j’ai souvent recours à l’analogie de l’eau circulant dans les canalisations d’une maison. Lorsque l’on ouvre un robinet, on s’attend à obtenir sur-le-champ une eau filtrée et propre ainsi que, la plupart du temps, une pression satisfaisante. Dans cette analogie, les canalisations constituent l’infrastructure et l’eau les données. Pour ce qui est de ces dernières et de leur rôle dans l’architecture, c’est la même approche qui me vient à l’esprit : les données fournies aux utilisateurs doivent être propres, filtrées et livrées dans les délais convenus, qu’il s’agisse d’un simple courrier électronique, d’une fiche d’abonné ou d’un ensemble de données financières mensuelles.
Bien que ce numéro n’aborde pas toutes les techniques existantes, il contient plusieurs articles intéressants traitant de l’importance des données, qui ont été rédigés par des auteurs de renom.
Nous commencerons par celui de Roger Wolter, architecte solutions chez Microsoft et auteur de nombreux articles et livres sur SQL Server et SQL Server Service Broker (SSB). Il y évoque l’importance de la fiabilité des données, notamment dans le contexte de la conception des systèmes connectés.
Suivent Tim Ewald et Kimberly Wolk avec un article qui décrit quelques-uns des modèles qu’ils ont créés pour l’intégration des données dans le système XML nouvelle génération MTPS (MSDN TechNet Publishing System), à l’origine de MSDN2. Udi Dahan nous expliquera ensuite comment utiliser les principes d’agrégation d’entités pour obtenir une vue globale de nos données et apporter ainsi des réponses concrètes aux exigences premières de l’entreprise.
Puis, nous partagerons l’expérience de deux autres auteurs, Tom Fuller et Shawn Morgan, qui ont compris que la réplication de données pouvait se révéler un «antipattern » de l’architecture orientée services (SOA), notamment à la lumière des services et applications autonomes. Dion Hinchcliffe, CTO de Sphere of Influence, nous livrera quelques modèles de composition et de consommation des données, en particulier dans le domaine des « mashups » et des applications Web 2.0.
Paul Nielsen terminera notre série d’articles sur les données par un aperçu de « Nordic », un nouveau modèle hybride objet/relationnel qui augmente la flexibilité et les performances des bases de données par rapport aux modèles relationnels traditionnels.
Pour conclure ce numéro du Journal, Andrew Filev nous fera part de sa tentative de combiner une méthodologie souple avec un modèle de développement Offshore, avant qu’Arvindra Sehmi et Beat Schwegler ne nous livrent la seconde partie de leur série intitulée « Modélisation de services pour systèmes connectés ».
Les DSI se mettent scène
Les DSI sont à l’honneur d’une pièce de théâtre dont la première a eu lieu en décembre dernier, à Paris. Leur quotidien y est décrit avec beaucoup de réalisme.
L’idée a été lancée par Intrinsec, en lien avec la société de formation Ingénieur Humain. La première a été présentée le 15 décembre 2008 au Théâtre de la Grande Comédie devant un parterre de DSI.
Ecrite en collaboration avec Patrick Hernandez, auteur de nombreux épisodes de la série télévisée Caméra Café, la pièce revêt un style aussi léger que décalé. Elle n’en aborde pas moins de front les grandes problématiques quotidiennes du DSI.
Etat & perspectives de la dématérialisation des documents sortants
Traçabilité des envois, réduction des coûts, amélioration des relations clients… sont autant d’éléments majeurs qui incitent les organisations à dématérialiser leurs documents sortants qu’ils soient adressés à leurs clients, fournisseurs ou salariés. Un nombre croissant d’entreprises et d’organisations publiques choisissent de traiter de façon automatique les données issues de leur système d’information ou de leurs applications métiers et de transmettre ainsi, sous forme de flux numériques, leurs commandes fournisseurs, demandes d’achat, factures clients, bons de livraison, documents d’appels d’offres ou de relance clients.
Ce livre blanc fait un point sur la dématérialisation des documents sortants en France et ses perspectives de développement à deux ans. Il détaille les principaux documents sortants dématérialisés en 2008 et ceux qui le seront en priorité d’ici 2010. Il identifie aussi les enjeux associés, les bénéfices et gains obtenus, les solutions et prestations privilégiées, les services de confiance à déployer en regard et les processus de re-matérialisation éventuels engagés pour certains documents.
L’analyse sous-tendant ce Livre Blanc s’appuie sur 150 entretiens de responsables au sein d’entreprises privées et d’organisations publiques, ainsi que sur la compilation des différentes études et recherches publiées par MARKESS International sur le sujet de la dématérialisation (factures, services de confiance, bulletins de paie, etc.).
http://wp.itnewsinfo.com/wp/esker2/
Plastigray : grande satisfaction de sa GED Open-Source
Une interview vidéo (de 4mn 31) du DSI de Plastigray concernant la mise à place de son application de GED Open-source Freedom Anakeen.
http://www.lemondeinformatique.fr/videos/entretiens-page-1.html
L’offshore, un réducteur de coûts très variable
Les retours d’expériences montrent des cas de figure très divers et des économies variables. Un taux de réduction des coûts de 20 % paraît souvent atteignable. L’offshore est désormais employé par des entreprises de toutes les tailles et dans tous les secteurs d’activité.
Le cabinet d’analyse Pierre Audoin Consultants (PAC) trace le portrait de l’offshore français. Géographiquement, c’est plutôt du nearshore. Il se dirige à 33% vers l’Europe de l’Est, à 23% en Inde, 17 % en Espagne, 13 % vers le Maghreb et 9 % pour les autres pays. L’Inde est la destination des grandes SSII françaises.
« Tous les projets ne sont pas éligibles à l’offshore. Les grands projets vont en Inde, les petites TMA et les projets moins importants dans les pays francophones proches par la langue et la géographie » précise Elisabeth de Maulde, présidente de PAC.
http://www.cio-online.com/telechargement.php?id=2#sommaire
Maintenance des logiciels : comment échapper à ce piège si doux
En augmentant fortement le tarif de sa maintenance en juillet dernier, SAP a attiré de nouveau l’attention sur une prestation dont la justification en elle-même pose question. Elle constitue un sujet de discorde récurrent entre les éditeurs de logiciels et leurs clients DSI.
Après Microsoft et sa Software Assurance, puis diverses bisbilles assez complexes chez Oracle, SAP mécontente donc ses clients en supprimant son offre de maintenance à 17% pour un tarif unique à 22%, le pourcentage s’appliquant au montant des licences achetées.
http://www.cio-online.com/telechargement.php?id=2#sommaire