Systèmes d'information 

 

Les cinq étapes de la consolidation informatique et
de la virtualisation informatique

La plupart des entreprises d’aujourd’hui sont confrontées à des difficultés et à des objectifs contradictoires. Leur force de travail est répartie sur plusieurs sites. Le siège social, les centres de données, les bureaux distants et les travailleurs mobiles sont largement dispersés. Tous ont besoin d’accéder à leur messagerie électronique, aux fichiers partagés et aux applications stratégiques, et la vitesse de cet accès est directement liée à la productivité de l’employé. Ainsi, les ressources informatiques ont été largement déployées sur plusieurs sites pour offrir aux employés locaux le meilleur service possible. Désormais, cette approche est considérée comme peu économique en raison du matériel et des logiciels supplémentaires à acheter et à entretenir sur de nombreux sites, souvent avec peu de personnel informatique. Avec le rétrécissement des budgets, les entreprises cherchent des solutions pour gérer ce problème. La consolidation informatique est la première approche considérée aujourd’hui, l’idée étant d’éliminer l’infrastructure informatique des bureaux distants et de la regrouper dans le centre de données principal afin de réduire les coûts et de renforcer la productivité. Le souci est d’arriver à regrouper l’informatique sans influer sur les performances des applications pour les utilisateurs finaux.

La virtualisation est considérée comme une technologie fondamentale pour la consolidation, car elle permet d’utiliser les serveurs de manière beaucoup plus efficace et offre davantage de souplesse à l’infrastructure. Les entreprises, qui cherchent à regrouper davantage l’informatique et à réduire le poids du matériel dans leur environnement informatique, évaluent et implémentent rapidement la virtualisation. On dit que le consolidation combiné à la virtualisation offrent ces avantages avec un faible investissement en temps et argent, mais pouvez-vous vraiment y croire ?

http://wp.itnewsinfo.com/wp/riverbed12/

 

Quand le Saas génère de nouveaux relais de
croissance

Véritable révolution comportementale et technologique, le SaaS est une tendance de fond qui devrait à court et long terme profondément modifier le mode de consommation de logiciels informatiques. En effet, après le règne incontesté de la commercialisation traditionnelle de logiciels, le marché connaît aujourd’hui une profonde mutation dictée par une recherche de consommation au plus juste et une volonté de se dégager de contraintes techniques : support, mises à jour, renouvellement de licences…

http://www.journaldunet.com/solutions/expert/39093/quand-le-saas-genere

 

Sauvegardes locales et distantes : osez les « box »
prêtes à l'emploi

Lorsqu'il s'agit de mettre à l'abri les données de l'entreprise, l'approche traditionnelle impose le déploiement d'un serveur dédié, d'un outil de sauvegarde, ainsi que d'une baie de stockage sur disques ou d'une librairie de cartouches à bandes. Il faut également installer des agents sur la plupart des serveurs à sauvegarder. Enfin, il s'agit de transférer les données sur un site distant, par exemple en transportant les cartouches - une solution qui ne fonctionne plus avec les solutions de sauvegarde sur disques, qui tendent à se généraliser. L'alternative consiste alors à répliquer les données, mais le coût et la complexité de mise en œuvre sont souvent rédhibitoires pour une PME. Quant aux services de sauvegarde en ligne, ils souffrent de contraintes de débits.

http://www.indexel.net/securite/sauvegardes-locales-et-distantes-osez-les-box-pretes

 

L'intranet s'ouvre aux applications métiers

La mise en place d'un intranet répond aujourd'hui à un double objectif de communication transversale (76% des répondants) mais également de collaboration (70%). Au-delà de ces missions figure également en bonne place la gestion des connaissances (63%).

La 10ème édition de l'enquête de l'Observatoire intranet fait apparaître la montée en puissance de l'intelligence collective parmi les principales missions de l'intranet (59% des répondants), devant l'objectif d'information (43%) qui constitue un enjeu moins saillant qu'auparavant. 

http://www.journaldunet.com/solutions/intranet-extranet/actualite/l-intranet-s-ouvre

 

Les applications métiers partent à l'assaut des
smartphones

La percée des nouvelles générations de smartphones sous Windows Mobile, Symbian, RIM, iPhone, Palm ou encore Android aiguise les appétits des concepteurs d'applications métiers. Les usages sont variés tout comme les bénéfices.

http://www.journaldunet.com/solutions/intranet-extranet/dossier/les-applications

 

Le cloud computing permet de faire plus avec moins

Le SaaS vise à fournir des solutions informatiques sous forme de service. Il se décline aujourd'hui sur 2 axes : les applicatifs et les plateformes de développement. Salesforce.com propose les 2 : une suite applicative SaaS de CRM et une plateforme de développement SaaS qui s'appelle Force.com et sur laquelle nos solutions applicatives s'appuient.

Le cloud computing se compose de l'ensemble des solutions de type SaaS et représente le nuage sur lequel les entreprises s'appuient désormais pour architecturer leur système d'information. Salesforce.com est le premier acteur du marché du cloud computing à dépasser le milliard de dollars de chiffre d'affaires. Pour nous, Cloud = SaaS + PaaS.

http://www.journaldunet.com/solutions/intranet-extranet/chat/pierre-soria-le-cloud

 

La programmation pour le cloud computing

Dans notre précédent dossier, nous avons vu que la programmation parallèle permettait aux logiciels de monter en charge en exploitant l’augmentation du nombre de cœurs des architectures multicœurs. Le parallélisme adresse plus particulièrement les applications qui nécessitent de la puissance de calcul, du traitement lourd en local.

En revanche pour les applications de nature collaborative, transactionnelle et d’une manière générale pour les applications en ligne, la problématique de montée en charge se traduit par : comment gérer une augmentation du nombre d’accès simultanés, comment stocker une masse d’information de plus en plus importante ? Pour répondre à la demande, on peut bien sûr augmenter le nombre de serveurs et de disques durs du data center, élargir la bande passante du réseau avec pour corollaire tous les problèmes d’administration, de consommation énergétique, de place physique…

On peut également déporter toute cette infrastructure matérielle et logicielle chez un hébergeur et ne plus se préoccuper que des aspects applicatifs. C’est là tout l’intérêt du Cloud Computing.

http://www.presence-pc.com/tests/cloud-computing-programmation-23126/

 

12 outils de gestion de contenu Open Source

Au fil des années, les solutions de gestion de contenu Open Source ont gagné en maturité. A tel point de constituer désormais des alternatives crédibles face aux offres propriétaires.

http://www.journaldunet.com/solutions/intranet-extranet/selection/12-outils-de-gestion

 

Eurosport, virtualisation et décisionnel pour une
économie à moindre effort

« En regroupant nos plates-formes d’intégration et de secours en une seule et même plate-forme avec les technologies Hyper-V et SQL Server 2008, nous avons divisé par cinq leur coûts », explique Stéphane Gaudé, responsable infrastructure informatique pour Eurosport.

Chaîne sportive pan européenne, Eurosport est une référence. Elle est diffusée dans 46 pays, traduite en 20 langues et touche aujourd’hui près de 116 millions d’abonnés. Le climat économique actuel a engagé la chaîne dans une politique de réduction de ses coûts informatiques. Aussi, il est décidé de refondre les plates-formes d’intégration et de secours pour n’en faire qu’une seule.

http://www.microsoft.com/France/Temoignages/Fiche-Temoignage-avec

 

Processeurs multicœurs pour serveurs : le logiciel
suivra-t-il ?

Depuis 2005, année qui a marqué la fin de la course aux GHz, les constructeurs prétendent fournir plus de puissance en augmentant le nombre de cœurs de leurs processeurs. Intel s'en tient aujourd'hui aux quadricœurs avec la famille Xeon 5500 (alias Nehalem) mais on attend un octocœurs pour fin 2009. AMD lance pour sa part un Opteron à six cœurs et évoque des versions 12 et 16 cœurs pour 2011. Avec ses processeurs Power 6, IBM est pour l'instant resté à deux cœurs mais en 2010, Power 7 atteindra 8 cœurs. La palme revient toutefois à Sun, dont l'UltraSparc T2 intègre depuis longtemps 8 cœurs et une version à 16 cœurs sera disponible dès l'automne.

Tout semble donc aller pour le mieux. Sauf qu'une récente étude du cabinet Gartner a mis le doigt sur un sujet presque tabou, montrant que la multiplication des cœurs, si elle permet aux constructeurs d'afficher des performances brutes en hausse constante, aboutit à une sous-utilisation de plus en plus importante de la puissance réellement disponible. La principale exception concerne le calcul haute performance, domaine dans lequel les algorithmes se prêtent à une parallélisation massive.

http://www.indexel.net/infrastructure/processeurs-multic-urs-pour-serveurs-le-logiciel

 

Sur le site du Café
Sur le Web
Par stephanegoze , le lundi 15 juin 2009.

Partenaires

Nos annonces