La sécurité des réseaux informatiques
Ces dernières années, la mondialisation, notamment sous ses aspects économiques et financiers, a engendré des projets informatiques de dimension mondiale. On notera en particulier le passage informatique à l’an 2000 (Y2K), qui a nécessité la vérification et la conversion de 300 à 600 milliards de lignes de programmes potentiellement affectées dans le monde. En Europe, le chantier du passage à l’euro a représenté un coût sensiblement identique à celui du passage à l’an 2000 sur le périmètre européen. Or, si ces modifications ont eu au premier plan pour but de maintenir le fonctionnement des logiciels ou des systèmes d’exploitation, on ne peut écarter de ces objectifs le premier, celui de la protection des données.
Dans le cadre d’une concurrence exacerbée, l’intelligence économique est devenue une arme redoutable avec pour support tout désigné l’informatique.
Comment protéger efficacement ces données volatiles qui sont devenues si précieuses ? La réponse paraît simple au regard des nombreuses solutions de protection proposées aux entreprises. Toutefois, l’inépuisable inventivité des hackers (pirates informatiques), la protection des libertés individuelles ou encore l’évolution fulgurante des technologies sont autant de murs qui se dressent face aux chefs d’entreprise.
http://www.creg.ac-versailles.fr/spip.php?article272
83 % des entreprises françaises considèrent la ToIP comme une évolution inéluctable
Selon l’enquête réalisée par le cabinet Solucom sur la ToIP, 83 % des entreprises françaises interrogées cette année, considèrent la ToIP comme une évolution inéluctable ; 30 % ont déjà déployé des projets, soit 10 % de plus qu’en 2007. Mais 25 % des sociétés interrogées n’envisagent toujours pas de s’équiper. L’ampleur des projets et l’importance des investissements restent cette année encore les principaux obstacles au lancement de projet.
Selon cette étude, les économies demeurent au 1er rang des bénéfices attendus. Comme les années précédentes, les entreprises attendent des réductions de coût au niveau des communications et des abonnements. Elles sont en moyenne 46 % à espérer plus de 20 % d’économies. Les grandes entreprises sont plus nuancées dans leurs attentes, puisque l’optimisation de la téléphonie d’entreprise (47 % contre 36 % en moyenne) et l’amélioration de l’efficacité des collaborateurs (41 % contre 28 % en moyenne) sont considérées comme des bénéfices importants.
Les entreprises n’acceptent toujours aucun compromis sur le rapport qualité/prix. En 2008, cette tendance s’intensifie : désormais 93 % des entreprises interrogées n’accepteraient aucune baisse de qualité et de performance pour réaliser des économies.
Le premier référentiel européen des compétences informatiques est arrivé
Syntec informatique a présenté, dans le cadre d’un séminaire organisé par l’association Pasc@line, un référentiel de compétences informatiques qui sera commun à la France et à l’ensemble des pays européens. Ce tout premier référentiel européen concerne essentiellement les métiers et missions que l’on peut trouver chez les fournisseurs d’informatique, SSII et éditeurs de logiciels. L’outil vise à fournir une base d’informations normalisée et commune aux sociétés pour faciliter la construction de leur propre référentiel métier et leur gestion de compétences.
Quand le SaaS démocratise l’accès aux logiciels
Révolution technologique et économique, l’approche SaaS semble plus que jamais répondre aux attentes opérationnelles des PME qui, soucieuses de se « battre à armes égales » avec les grands comptes, souhaitent s’appuyer sur des outils informatiques performants pouvant largement améliorer leurs performances en dépit de leur différence de taille (ressources humaines et moyens).
http://www.cfo-news.com/Quand-le-SaaS-democratise-l-acces-aux-logiciels_a7597.html
L’export, opportunité de développement pour les PME françaises éditrices de logiciels ?
Julien Victor, directeur associé d’Effisoft, s’intéresse aux perspectives de développement à l’étranger des PME françaises éditrices de logiciels. Il dresse la liste des principaux écueils à éviter et insiste sur les bénéfices d’une stratégie à l’international dynamique.
L’industrie française du logiciel est-elle bien représentée au niveau international ? Est-elle réellement compétitive et reconnue ? Quelles sont ses capacités à s’imposer sur un marché mondial toujours plus compétitif où les fusions et acquisitions contribuent à imposer quelques grands groupes aux dépens de sociétés indépendantes ?
Le débat est ouvert et plus que jamais d’actualité. Pour aborder ce point stratégique, nous pouvons tout d’abord nous référer à une étude de l’AFDEL sur le marché européen des logiciels. Ainsi, selon l’indice PAC / AFDEL : – la France arrive en 3ème position des nations européennes avec 4% de parts de marché, derrière l’Allemagne (12%) et le Royaume-Uni (5%). -9 éditeurs français se positionnent dans le Top 100 en Europe. – les 2 premiers éditeurs français du classement réalisent 90% de leur chiffre d’affaires à l’international contre 20% en moyenne pour les autres éditeurs français. Devant de tels résultats, on comprend que l’export des technologies françaises doit être amélioré pour peser sur la scène internationale.
La virtualisation : planifier une infrastructure virtuelle
Encore récemment, la virtualisation était principalement utilisée dans les projets de consolidation de serveurs au niveau des entreprises. Mais les temps changent, et la virtualisation est de plus en plus reconnue comme une technologie pouvant offrir des avantages non négligeables à des organisations de toutes tailles.
La virtualisation reçoit la large adhésion de l’industrie des technologies de l’information, et des organisations de petite taille s’intéressent à présent à utiliser cette technologie. Ceci a pour conséquence un nombre accru d’offres de produits abordables, les vendeurs se faisant concurrence pour prendre une part du marché émergeant des petites et moyennes entreprises (PME). Ceci réduit considérablement un obstacle majeur au déploiement de la virtualisation au niveau des PME : le coût.
Les PME sont maintenant parfaitement positionnées pour retirer le maximum de bénéfices de la virtualisation. Dans les grandes entreprises, une infrastructure complexe peut représenter un véritable défi, y compris pour le plus astucieux des responsables informatiques intéressé par la mise en pratique de la virtualisation. Une mise en oeuvre réussie, qui migre des serveurs de l’état physique à l’état virtuel, peut faire de la gestion de data centers une tâche moins onéreuse. Les PME, avec des infrastructures plus petites et plus simples, sont beaucoup moins susceptibles de rencontrer des obstacles à la migration d’une plus grande proportion — ou même de l’ensemble — de leur infrastructure physique vers un environnement virtuel.
http://wp.itnewsinfo.com/wp/acronis/
Datacenters : vers une consommation électrique maîtrisée
Certains chiffres donnent le vertige : en 2005 l’utilisateur moyen d’un réseau informatique utilisait 3 mégaoctets de bande passante par mois ; en 2007, ce même utilisateur moyen utilise toujours 3 mégaoctets de bande passante, mais par jour et non plus par mois ! Le constat est simple : le besoin en capacité de calcul des datacenters, depuis les petites salles informatiques jusqu’aux grands datacenters, a été multiplié par 30 en deux ans. Et tout laisse à penser que cette montée en puissance va encore s’accélérer.
Pourquoi ? Tout d’abord parce que les processeurs sont chaque jour plus puissants, et donc plus gourmands en électricité : la loi de Moore établit que le nombre de transistors que l’on peut placer sur une puce double environ tous les deux ans et elle reste d’actualité. Parallèlement, là où, il y a cinq ans, on pouvait utiliser cinq serveurs consommant un total de 1 kilowatt, on peut aujourd’hui loger quarante serveurs en lame consommant un total de 20 kilowatts. En toute logique, le niveau de consommation électrique des salles informatiques, mesuré en kilowatts par mètre carré, connaît une progression géométrique.
Il va sans dire qu’à ce surcroît de consommation correspond une augmentation au moins proportionnelle du dégagement de chaleur des datacenters. Dans cette perspective, le fait d’optimiser la consommation électrique des datacenters apparaît comme un enjeu d’autant plus incontournable que les technologies qui permettent de réaliser des économies substantielles existent.
Pour mémoire, la consommation électrique des serveurs à l’échelle mondiale est aujourd’hui estimée à 123 milliards de kilowatts/heure par an. Cela représente l’équivalent de la production de quinze centrales nucléaires et près de 1% de la consommation totale d’électricité. À eux seuls, les principaux datacenters représentent une consommation de 45 milliards de kilowatts/heure, soit une dépense d’environ 7,2 milliards de dollars.
La première certitude est que ces chiffres sont appelés à être à nouveau multipliés par dix ou plus au cours des prochaines années. La seconde est qu’il est possible, dès aujourd’hui, de réduire la consommation électrique des datacenters d’au moins 50 %.
http://wp.itnewsinfo.com/wp/CaThCIO_APC/
La virtualisation partenaire incontesté de l’écologie
Plus qu’un phénomène de mode ou un concept abstrait, l’écologie se positionne désormais comme une priorité stratégique pour les entreprises. En effet, pour se conformer à la réglementation en vigueur mais également améliorer leur avantage concurrentiel en adoptant une attitude citoyenne, les entreprises déploient depuis peu de nombreux « chantiers verts » au sein de leur organisation. Ainsi, à beaucoup de niveaux, des actions plus ou moins visibles sont entreprises pour préserver l’environnement.
Wi-Fi : la spécification 802.11r ratifiée par l’IEEE
La technologie Voice over Wireless Lan (VoWLAN) devrait bénéficier de certaines améliorations suite à la ratification par l’IEEE de la norme 802.11r qui a été publiée en juillet en toute discrétion.
Les entreprises qui ne sont pas satisfaites de la téléphonie IP sans fil devraient y songer à deux fois puisque, selon l’IEEE, la spécification 802.11r permettra aux kits Wi-Fi de passer d’un point d’accès à un autre bien plus rapidement que ne le permettent les spécifications 802.11a/b/g/n actuelle.
http://www.vnunet.fr/news/wi_fi_la_specification_802_11r_ratifiee_par_l_ieee-2028527
L’avènement de l’archivage actif
Force est de constater que désormais les besoins de stockage et d’archivage convergent. La demande des entreprises est désormais d’accéder en ligne à la fois aux données actives et aux archives, sur un espace évolutif qui grandit en fonction des besoins et qui intègre la gestion du cycle de vie des données.