mardi 31 janvier 2012

5 tips to develop an effective tablet strategy

By
January 31, 2012
Krishna Subramanian is chief marketing officer of Velti
By Krishna Subramanian
From the continued popularity of the iPad to the more recent release of the Kindle Fire, there is no denying that the tablet is more than a passing fad.
In fact, according to a recent eMarketer report, an estimated one in three online consumers will use a tablet by 2014.
As consumers are now opting to use the tablet as the preferred way to surf the Web, read books and shop online, brands are beginning to recognize the opportunity that the device presents to them for marketing.
However, before a brand begins to create a tablet strategy, it is crucial to keep the below tips in mind to ensure success.
Creating a tablet friendly site
Last year was pivotal for the tablet.
The skepticism behind the staying power of tablets has faded as consumers continue adopt the device in droves. In some regards, it has already outshined the smartphone as the mobile marketing weapon of choice for brands.
For example, the tablet is outpacing smartphones with an add-to-cart rate of 10.8 percent compared to the mobile device at 5.9 percent on Black Friday and Cyber Monday, according to research by ecommerce services company Monetate.
Considering this, a mobile strategy that is specifically tailored for the tablet is transforming from a nice-to-have to a need-to-have for brands.
However, simply offering a smartphone optimized site on a tablet will not be sufficient. Brands must go the extra mile to create a tailored and unique tablet site or application.
Additionally, with the number of brands of tablets increasing, it is smart to use a technology such as HTML5 to create a universal mobile site.
All about the customer
Since the tablet is a new channel, it is crucial to create an experience that will delight users from the beginning and encourage them to come back.
Marketers should take advantage of the exceptional software and hardware capabilities that tablets offer to showcase their products.
For example, video and multimedia components should be embraced as a way to engage consumers.
Additionally, tablets allow for crisp images, which users can easily pinch to zoom to help with their shopping experience.
Indeed, even offering elements as simple as an attractive and engaging user interface and tablet-specific specials goes a long way in winning a user’s heart and loyalty.
Continuing the conversation and keep the customer coming back for more
While acquiring new customer is important, it is only half the battle.
It is up to the brand to establish creative ways to continue the conversation with its users.
Push notifications and tablet-optimized emails are strong ways to continue a brand’s conversation with customers online and offline to help drive sales.
Additionally, a brand can choose to offer specific content and features exclusively for the tablet such as a video component, and drive customer to the tablet site or application through other channels including editorial content in a magazine.
Data is still the king
To increase the likelihood that a tablet strategy is a success, a brand must first look at the data to understand its customers and how they are engaging with its product or service.
By analyzing the data, reviewing the engagement funnel and identifying key areas with high bounce and exit rates, brands can establish which methods its customers are using to engage and which cause the most positive response rate.
From there, a brand can tailor its tablet strategy to cater to its customers’ preferences to enhance its growth.
Preparing for what is next
In early 2011, Cisco predicted that mobile traffic originating from tablet devices will grow 205-fold from 2010 to 2015.
As of October 2011, smartphones and tablets drove just about 7 percent of digital traffic nationwide, according to comScore.
Considering this, it is fair to assume that tablet traffic will skyrocket over the next few years.
It is crucial for brand to prepare for this substantial increase in traffic by ensuring scalability to support this growth.
Brands must have a system, network or process in line to accommodate this growth and uphold exceptional performance.
THIS YEAR, the tablet will be more relevant than ever as it continues to get in the hands of more consumers.
Brands should undoubtedly take advantage of the opportunity that tablets offer as a new marketing channel to better engage and interact with customers, but should consider the above tips before implementing a new strategy.
Krishna Subramanian is San Francisco-based chief marketing officer of Velti, a global provider of mobile marketing and advertising services for brands, advertising agencies, wireless carriers and media. Reach him at ksub@velti.com.

http://www.mobilecommercedaily.com/2012/01/31/5-tips-to-develop-an-effective-tablet-strategy

N°114: Gérer les risques

Les risques renvoient aux conditions ou circonstances futures, qui se situent en dehors du contrôle de l’équipe de projet, et qui auront un impact défavorable sur celui-ci si elles se produisent. En d'autres termes, alors qu'un problème majeur est un gros problème qui survient et qui doit être traité, un risque est un futur problème potentiel qui ne s’est pas encore produit.
Un chef de projet réactif tente de résoudre les problèmes au fur et à mesure qu’ils se produisent. Un chef de projet proactif tente de résoudre les problèmes potentiels avant qu'ils ne se produisent. C'est tout l’art de la gestion des risques.
Tous les problèmes majeurs ne peuvent être détectés à l’avance, et certains problèmes potentiels peu susceptibles de se produire, peuvent en fait se produire. Cependant, beaucoup de problèmes peuvent être détectés à l’avance, et devraient être gérés par un processus proactif de gestion des risques.
Beschreibung: Beschreibung: C:\Users\Grazi\Dropbox\TREKSOR\Eigene Webs\TSDdG_V10.0_Design5\images_content\7.0RiskProcessFlow.png
Tout dans la vie présente un certain degré de risque. Marcher dans la rue peut être risqué. Vos projets aussi présentent des risques. Le chef de projet devra réaliser une évaluation des risques avec l’équipe de projet et le client pour identifier les niveaux de risques : élevé, moyen et faible. Si vous avez de la chance, vous constaterez que vous avez seulement des risques minimes. Cet exercice préparera le client et l’équipe de projet à l’éventualité de n'importe quel risque (qu’il soit moyen ou élevé), susceptible de poser des problèmes à l’avenir.
Identifier les risques qui menacent votre projet n’est pas nécessairement mauvais, puisque les risques sont communs à tous les projets. En effet, tous les projets ont un certain degré de risque. D’une manière générale, les projets ayant un haut niveau de risque exigent plus de rigueur au niveau de la gestion des risques, et doivent accorder l’intérêt le plus fort à leur gestion générale. Bien qu'on ne puisse pas éliminer entièrement tous les risques, beaucoup peuvent être prévus et gérés à l’avance.
Le but du management des risques est d'identifier quels risques peuvent survenir au cours d’un projet, puis d’établir un plan de gestion de ces risques, afin de réduire le tort au projet. Dans la méthodologie TenStep, la première évaluation des risques se fait lors du processus 1.0 Définir le travail. D’autres tours complémentaires d’identification de risques devront se poursuivre tout au long du projet, de manière planifiée (ces évaluations des risques peuvent être mensuelles ou trimestrielles, ou chaque fois qu’un jalon important est atteint).
Terminologie de management de projet
Diffuser les informations. Processus qui consiste à mettre les informations pertinentes à la disposition des parties prenantes du projet, comme planifié.
Documents d'approvisionnement. Documents utilisés dans les activités relatives aux offres et aux propositions, qui comprennent pour l'acheteur : l'appel d'offres, l'appel à la négociation, la demande d'information, la demande de prix, l'appel à proposition et les réponses des fournisseurs.
Abréviations courantes
FFP (anglais) : Firm-Fixed-Price
       (français) : Contrat à prix forfaitaire
Liens intéressants
Logiciel: Green Building Certification Institut
·   Société: Green Building Certification Institute, Washington, D.C., États-Unis d'Amérique
·   URL: www.gbci.org
·   Catégorie: Gestion de certification
·   Fonctionnalités:
o    Explique et affiche toutes les étapes du processus d'examen LEED et de certification
o    Permet aux utilisateurs de trier, de visualiser et de grouper des projets en fonction de traits, tels que l'emplacement, la conception et la gestion
o    Avise les utilisateurs lorsque les données nécessaires sont manquantes dans la demande

Les équipes de TenStep Francophone
TenStep Francophone

« Intégrer du social business est un bon moyen d'innover »

Par Renato Martinelli 30 janvier 2012 Deux mains
S'associer à une entreprise sociale permet de s'ouvrir et d'innover plus facilement. Mais pour que cela soit véritablement efficace, il faut que les différentes parties arrivent à dépasser toute logique concurrentielle.
Entretien avec Anne-Laure Buisson, avocate, ex-partner chez Bird and Bird.
L’Atelier : Les entreprises se tournent de plus en plus vers le social business. Quelles sont les raisons de cette tendance ?
 
Anne-Laure Buisson : Les enjeux sont multiples. Il s’agit d’abord d’innover et l’entreprise a besoin d’innover pour vivre. L’entreprise se sent de plus en plus citoyenne. Même en restant sur son métier, elle fait évoluer ses façons de travailler pour répondre à des besoins sociaux. Développer le social business est donc un accélérateur et de prise en compte de problématiques plus larges que l’entreprise classique. Cela lui permet par ailleurs d’intégrer plus largement son écosystème, et d’interagir avec celui dans lequel elle se développe afin d’élargir la prise en compte des parties prenantes, d’en intégrer de nouvelles. Enfin, le social business a un impact sur ses performances sociales et environnementales. D’ailleurs, l’entreprise à des obligations en la matière, par exemple vis-à-vis de la RSE. 
 
Comment rendre leur action efficace ?
 
Une entreprise a plusieurs possibilités pour intégrer du social business à son activité. Schématiquement, j’ai observé deux méthodes : Soit un développement en interne, en travaillant sur les métiers et l’identité de l’entreprise. C’est le cas de DDB Share par exemple. L’autre possibilité est de se rapprocher d’un social business existant, de construire une joint-venture.C’est le cas par exemple de la joint venture entre Danone et la Grameen Bank au Bangladesh ou encore d’Ares et Norbert Dentressangle. Dans les deux cas, le rapprochement est plus efficace lorsqu’il est en rapport avec son métier.
 
Ce qui est vraiment important, c’est de collaborer, de sortir de la logique classique du rapport de force. Ces partenariats se font entre des acteurs de taille, de poids économique différents, avec des histoires et des valeurs différentes. Mais pour que ce soit plus efficace, il est important que les acteurs entrent en discussion et se parlent comme des alter-égos. Je conçois d’ailleurs mon rôle d’avocat comme celui d’un avocat commun, d’un médiateur, et non comme le défenseur des intérêts d’une seule partie. Plus il y a de parties prenantes qui co-construisent, plus on peut aller loin. Des acteurs concurrents dans la vie économique classique peuvent se retrouver pour construire des activités qui vont avoir un impact sur la collectivité. Une piste pourrait donc être de dépasser la logique concurrentielle, de changer de paradigme.
 
Comment intégrer les salariés à ce processus ?
 
Quand l’entreprise développe du social business en rapport avec son métier, les équipes sont plus motivées et leurs compétences mieux mobilisables. C’est donc plus naturel, je dirais même plus empathique. Il ne faut pas oublier que l’entreprise intègre du social business dans ses activités aussi parce que ses salariés ont besoin d’être motivés, de travailler pour des projets qui ont du sens. Sur des problématiques sociales et sociétales, j’ai pu observer, par exemple, que les gens sont heureux d’apporter leurs compétences, d’exercer leur métier, leur talent au profit de projets qui ont du sens pour la collectivité.

http://www.atelier.net/trends/articles/integrer-social-business-un-moyen-dinnover

lundi 30 janvier 2012

Les DSI doivent maîtriser la valeur du patrimoine applicatif Par Clément David, Manager SterWen

vendredi 27 janvier 2012
Les systèmes d'information occupent une place de premier plan dans la stratégie et les budgets des entreprises, pourtant les Directions Générales éprouvent encore des difficultés pour planifier et contrôler les budgets informatiques.

Dans un contexte économique agité avec une forte volatilité des marchés et une concurrence se faisant plus rude, l’équipe dirigeante doit faire bloc et s’assurer encore d’avantage de l’alignement des dépenses avec les besoins de l’entreprise.

Dans le secteur bancassurance, le SI est au cœur de l’outil de production. La DG attend désormais de la DSI une capacité décisionnelle sur les dépenses relatives au patrimoine applicatif et à l’investissement :
- Anticiper et challenger les demandes du métier selon la valeur des investissements SI pour l’entreprise, décaler ou stopper certains projets, à ROI faible ou trop long,
- Connaître la valeur du patrimoine SI et pouvoir le réévaluer suite à un changement d’axe stratégique,

Le pilotage de l’investissement SI, ce qui rentre dans le portefeuille des projets à mener, est critique. Le constat général est que les ROI de beaucoup de projets de grandes entreprises, notamment dans le secteur financier, sont mal ou insuffisamment évalués avant leur lancement et très rarement actualisés. Les bilans post-projets ne sont presque jamais réalisés.
La DSI doit aussi être en mesure de faire progresser en continue la valeur du patrimoine applicatif (les applications en production) pour l’entreprise avec un budget restreint voire en contraction.

Pour l’année 2012, je suggère deux bonnes résolutions pour la DSI :
- Piloter les Investissements
- Evaluer en permanence le patrimoine applicatif

La mise en œuvre de ces « bonnes résolutions » est la clé pour maximiser en continu la valeur du SI pour l’entreprise et conforter le positionnement de la DSI en tant que véritable partenaire dans les décisions de l’entreprise.

Pilotage des investissements SI 
Il s’agit de formaliser le dispositif d’évaluation de la valeur des projets ou de ses composants. Le dispositif comprend des rôles et des outils adaptés à la taille de l’entreprise et des projets ainsi qu’aux nombre de projets à évaluer pour :
- Estimer les gains financiers et non financiers,
- Estimer les coûts du projet et les coûts récurrents, qui perdureront à l’issue du projet.

Durant la vie du projet, son évaluation est révisée à chaque variation majeure des éléments structurants du bilan économique du projet :
- Fonctionnalités ou Périmètre du projet ou de ses composants majeurs
- Coûts
- Délais
Ceci pour prendre la décision éventuelle de :
- Repousser ou d’arrêter le projet si la dérive est trop importante et que le bilan économique est remis en cause,
- Supprimer un composant  dont la valeur a trop diminué.

Peu après la clôture du projet les premiers gains sont mesurés pour profiter d’une boucle d’amélioration des estimations de gains et s’assurer de la valeur réelle des composants produits.

Une fois le projet  terminé, l’application ou l’infrastructure créée entre en phase de maintenance et intègre le patrimoine de l’entreprise. La valeur d’une application peut varier en fonction de l’évolution des coûts induits et des gains générés (financiers et non financiers).

Evaluation permanente du patrimoine applicatif par domaine fonctionnel
Il s’agit de mettre en place un dispositif d’évaluation permanent de chaque application pour connaître l’évolution de sa valeur et de la valeur d’ensemble du patrimoine. De cette façon, la DSI est en mesure de prendre la bonne décision pour chaque application ou composants majeurs :
- Réévaluer : décision à affiner ou pas d’action à mener,
- Rafraîchir techniquement ou fonctionnellement : projet ou évolution à prévoir,
- Remplacer par une autre application moins chère et / ou apportant des gains supérieurs : projet majeur à prévoir,
- Retirer du patrimoine une application que les collaborateurs / clients n’utilisent plus par exemple. Il faut prévoir son décommissionnement.

La DSI garantit ainsi la croissance continue de la valeur du patrimoine applicatif  de l’entreprise et peut construire/ajuster son plan d’actions en complément du portefeuille de projets.

 http://www.infodsi.com/articles/128188/dsi-doivent-maitriser-valeur-patrimoine-applicatif-clement-david-manager-sterwen.html?key=

jeudi 26 janvier 2012

Tendances 2012 : le cloud computing

2010, le Cloud Computing pointe son nez… 2011, il s’impose dans le discours des acteurs des IT et dans les projets des organisations… 2012 sera – enfin ! – l’année du déploiement des projets… Sous quelles conditions et avec quelles technologies ?
Le cloud est partout, dans les discours, dans les intentions, dans les analyses et dans les catalogues. Les études se multiplient pour démontrer sa présence devenue incontournable dans les projets. Sauf que jusqu’à présent ces derniers se sont peu montrés. Passée la phase du SaaS (Software as a Service) – un modèle finalement peu original puisque les services partagés, on demand, ou quel que soit le nom qu’on leur donne existent depuis longtemps -, il est temps de rentrer dans le vif du sujet, le cloud privé, le PaaS (Platform as a Service), l’IaaS (Infrastructure as a Service), le stockage cloud, etc. En 2012.

Les applicatifs dans le nuage

Tous les acteurs des IT ont leur projet et y travaillent, en particulier les éditeurs pour lesquels, après la difficile période de digestion du changement radical de modèle économique (de la licence à la location aux ressources réellement consommées), la solution cloud/SaaS s’impose dans tout catalogue qui se respecte. Soit les applicatifs sont déjà portés sur le cloud et n’attendent que les clients, soit les outils et plateformes de développement vont de plus en plus intégrer le cloud et rendre le changement de modèle de consommation accessible.

Le cloud analytique

C’est l’une des plus fortes demandes actuelles en terme d’usage applicatif : l’analyse. Cette demande se place au delà de la BI (Business Intelligence), généralement associée à l’analyse des données structurées issues des outils de gestion de l’entreprise. La multiplication des données non structurées demande aujourd’hui de disposer d’une infrastructure adaptée, évolutive et économique (dans le cloud, voir ci après), et d’outils d’analyse puissants, comme Hadoop sur le Big Data. Des expressions qui couvrent des technologies dont nous reparlerons durant toute l’année 2012 et au delà.

Cloud privé et sécurité

Et si l’on résumait le cloud à l’accès en ligne à des applications et des données administrées et alimentées par une infrastructure contrôlée et sécurisée par et dans l’entreprise ? C’est en raccourci la description du cloud privé, et ce sera certainement la principale orientation retenue par les grandes entreprises en 2012. A contrario, ne rien savoir de l’infrastructure et louer des services en ligne devrait être le lot des PME.

Stockage et sécurité

La donnée est au cœur des problématiques cloud. Qui doit la stocker, où, qui peut la sauvegarder, et comment ? Le stockage dans le cloud fait beaucoup parler de lui, mais à y regarder de plus près, peu d’entreprises se disent réellement prêtes à confier à d’autres leurs données. Question de sécurité. Sauf que dans le même temps le volume des données traitées et/ou conservées par les entreprises ne cesse d’augmenter. Il faudra bien trouver une solution souple et économique… dans le cloud, en location à la ressource consommée, sans Capex.

Sécurité par le cloud

Un usage particulier du cloud émerge dans la vision des entreprises : louer un espace dans le nuage et y répliquer son infrastructure. Sous réserve de disposer de la part de ses prestataires, en particulier de l’hébergeur, d’un SLA (Service Level Agreement) de qualité, le cloud pourrait bien s’imposer comme un élément clé de la stratégie de sauvegarde (backup) et de reprise d’activité (DR, Disaster Recovery).
Crédit photo © Fotogestoeber – Fotolia 


http://www.silicon.fr/tendances-2012-le-cloud-computing-69773.html


mercredi 25 janvier 2012

L'AFAI promeut le référentiel Risk IT


Edition du 23/01/2012 - par Bertrand Lemaire
L'AFAI promeut le référentiel Risk IT


Ce référentiel est depuis peu disponible en Français et gère l'ensemble des risques autour des systèmes d'information.
La gestion des risques IT va bien au delà de la seule sécurité technique. Pourtant, jusqu'à il y a peu de temps, les référentiels de bonnes pratiques se concentraient quasi-exclusivement sur la seule sécurité. L'Isaca, dont le chapitre français est l'Afai (Association française de l'audit et du conseil informatique), a publié un référentiel inspiré de Cobit en 2009, Risk IT. L'AFAI a récemment publié ce référentiel en version française (une centaine de pages) et propose désormais des livrets (comme « Le guide utilisateur Risk IT », 140 pages) et des certifications dans la langue de Molière.

Les normes et référentiels de gestion des risques au sens large sont, de toutes les façons, très récentes : le référntiel de la Fédération Européenne des Associations de Risk Managers (FERMA 2003) ou le COSO ERM (Entreprise Risk Management, 2004) par exemples, suivis des normes ISO 31000 (principes du management du risque) et ISO 31010 (techniques d'évaluation du management du risque). En matière de TIC, la norme de référence, ISO 27000, est centrée sur la seule sécurité.

Risk IT se veut être un référentiel complet intégrant non seulement la sécurité mais aussi le risque projet et le risque d'exploitation. Il repose sur trois piliers : la gouvernance, l'évaluation et le traitement des risques. Chaque pilier se divise en 150 activités.


En savoir plus
La description de Risk IT sur le site de l'AFAI

http://www.cio-online.com/actualites/lire-l-afai-promeut-le-referentiel-risk-it-4097.html?utm_source=mail&utm_medium=email&utm_campaign=Newsletter

La modernisation du système financier de l'Etat

Jacques Marzin

Directeur de l'Agence pour l'informatique financière de l'Etat (AIFE)

par Bertrand Lemaire


« La modernisation du système financier de l'Etat, c'est pour beaucoup de gens le développement et le déploiement de Chorus » admet Jacques Marzin, directeur de l'Agence pour l'informatique financière de l'Etat (AIFE)


(23/01/2012) - L'Agence pour l'informatique financière de l'Etat (AIFE) est un service de 200 personnes (dont un tiers d'experts métiers) dépendant du Ministère du Budget. Son rôle est de moderniser l'informatique financière de l'Etat, de l'administration et la maintenance du système Accord « Palier LOLF » ou « 1bis » au développement et au déploiement du nouveau progiciel de gestion intégré des administrations d'Etat, Chorus, basé sur SAP. Elle a aussi en charge l'urbanisation des 250 applications métier gravitant autour de ces systèmes.

Chorus, outil de la LOLF (Loi Organique sur les Lois de Finances), s'accompagne de la refonte de tous les processus comptables et financiers de l'Etat. Trois principes gouvernent Chorus : conformité totale à la LOLF, PGI unique pour toutes les administrations de l'Etat (pour l'ensemble des ministères malgré leurs différences) et mutualisation de la gestion comptable et financière. Chorus achève en ce moment son déploiement. Même s'il y a eu des incidents et difficultés dans le passé, Chorus est aujourd'hui opérationnel.

L'Etat rencontre les mêmes problèmes que toutes les organisations ayant refondu toutes leurs procédures à l'occasion de l'implémentation d'un PGI comme SAP.

L'AIFE a commencé par mettre en place les outils techniques mais, aujourd'hui, accompagne les métiers surtout sur le plan des processus. Les difficultés ne sont plus du tout techniques mais bien organisationnelles. Il faut au minimum un an de pratique de Chorus pour que les métiers retrouvent leur efficacité antérieure, avec déjà quelques progrès qui vont aller croissant dans le temps. Comme le souligne Jacques Marzin, cela n'a rien d'exceptionnel dans toutes les organisations ayant mis en oeuvre SAP. Par contre, ce qui est nouveau pour l'Etat, c'est la démarche d'amélioration continue et de mutualisation des bonnes pratiques liées à l'implémentation d'un PGI.

En janvier 2012, tous les comptes de l'Etat seront basculés dans Chorus et les anciens outils seront alors tous abandonnés. Le vrai bilan ne pourra donc être tiré qu'en 2013 ou 2014.

« Un projet de cette ampleur n'est pas un projet IT mais bien un projet de transformation, de systèmé d'information dans toutes ses composantes systèmes et métiers » insiste Jacques Marzin, directeur de l'Agence pour l'informatique financière de l'Etat (AIFE).

L'interview de Jacques Marzin en vidéo

 http://www.cio-online.com/entretiens/lire-refondre-tous-les-processus-et-systemes-financiers-de-l-etat-425.html?utm_source=mail&utm_medium=email&utm_campaign=Newsletter

Dossier Cloud - La révolution Cloud Computing

Un dossier de 16 articles, avec 8 interviews d'acteurs référents, pour comprendre les technologies et décrypter les évolutions, les faux-semblants et les vraies tendances.
Pourquoi une entreprise qui fabrique des fromages, des chaussures, des emballages… ou qui propose des services devrait-elle s’équiper de serveurs, y installer des systèmes d’exploitation et des applications, et se charger de leur maintenance ? Au départ, elle souhaite surtout s’équiper d’une messagerie, d’une solution de comptabilité, voire d’un progiciel lié à ses activités.
Son besoin attend un service informatique et non un prestataire, mais bien un flux applicatif. Devra-t-elle forer pour trouver une source si elle souhaite s’équiper en eau ? Recruter un mécanicien pour entretenir ses véhicules de société ?…
Adieu aux serveurs à la maison
En proposant l’accès à des applications et à des ressources en ligne, le cloud computing pourrait bien incarner la solution tant attendue par des entreprises lasses de “faire de l’informatique”. En outre, ce principe leur permet d’accéder à des compétences et à des technologies auxquelles elles ne pourraient accéder autrement.
Un simple navigateur Web et une connexion Internet suffisent pour accéder à tous ces services informatiques. Mieux encore, plutôt que d’investir du capital dans des équipements informatiques dont elles n’ont que faire, ces entreprises utilisent ces services en ligne sécurisés contre quelques dizaines d’euros par mois (en frais de fonctionnement) ! Et leurs données sécurisées et prises en charge par des professionnels sont systématiquement sauvegardées et préservées.
Cette révolution en marche s’amplifie et les sociétés informatiques doivent adapter leurs modèles et leurs pratiques. Des transformations qui bousculent également leur écosystème (revendeurs, partenaires, prestataires…).
Un panel très représentatif
Dans le cadre de ce dossier, huit entreprises informatiques ont été interrogées. Les pionniers du cloud sont représentés par salesforce.com, Google, qui partagent leur expérience de terrain et leur vision de l’évolution de ce marché. Ces deux acteurs proposent des solutions en ligne sur leur plate-forme dont elles conservent la maîtrise et l’exclusivité. Autre pionnier intéressant bien que moins connu, Joyent œuvre sur le cloud depuis cinq ans (et compte Intel parmi ses investisseurs), mais a choisi de vendre son infrastructure aux fournisseurs de cloud et aux entreprises, à travers un modèle inédit. De même, Parallels fournit les hébergeurs depuis des années et propose une approche emblématique, car différente du cloud, mais intéressante.
Présents sur tous les fronts du cloud et revendant de l’infrastructure pour les hébergeurs de cloud, les géants ont pris le train en marche et accélèrent fortement aujourd’hui. HP et IBM s’installent sur tous les segments : SaaS, IaaS, PaaS, infrastructures matérielles et logicielles pour entreprises et fournisseurs cloud… de cette industrie. Quant à Microsoft et CA Technologies, ils se cantonnent logiquement à la partie logicielle.

 http://dsi.silicon.fr/dossiers/dossier-cloud-la-revolution-cloud-computing-938

Six tendances technologiques prioritaires pour les DSI

Mardi 24 Janvier 2012
Les entreprises attendent de plus en plus des responsables informatiques qu’ils les aident à accroître leur chiffre d’affaires à travers la mise en place de « services contextualisés ». Les possibilités de convergence du monde réel et des données numériques permettent en effet aujourd’hui de mieux cerner les consommateurs, « qui ils sont, où ils sont et ce qu’ils font », et de leur offrir ainsi une « expérience enrichie », plus proche de leurs attentes. Comme le révèle l’édition 2012 de son rapport sur l’évolution des technologies de l’information, Accenture identifie ces « services contextualisés » comme l’une des six tendances technologiques prioritaires pour les DSI. « Ce rapport 2012 sur l’évolution des technologies informatiques est plus qu’un simple aperçu du proche avenir », précise Vincent Delaporte. « Nous pensons que les tendances qui y sont identifiées sont potentiellement de nature à changer profondément la face de l’informatique en entreprise et que les responsables informatiques qui suivront ces tendances s’octroieront un avantage stratégique. »



L’essor des «services contextualisés» :
Il est favorisé par la convergence et la facilité d’accès à de nombreuses sources d’informations contextuelles, notamment en raison du succès croissant des smartphones, de l’expansion du cloud, de l’explosion de l’affluence sur les médias sociaux et du développement de puissants outils d’agrégation et d’analyse de multiples formes de données, structurées ou non structurées.

« Les DSI et les autres responsables informatiques qui ont commencé à mettre à profit les données contextuelles pour élaborer une connaissance plus approfondie des préférences et habitudes de leurs consommateurs s’affirment comme des acteurs stratégiques au sein de leur entreprise », souligne Vincent Delaporte, responsable de l’activité Technologies d’Accenture France. « Ils coopèrent plus efficacement avec des fonctions telles que la vente et le marketing, et s’appuyent sur des services contextualisés pour générer de nouvelles recettes et davantage de valeur pour leur entreprise. »

Un voyagiste peut par exemple analyser les allusions à de prochains voyages faits sur des réseaux sociaux et informer les hôtels situés dans les destinations citées. L’hôtel pourra ainsi proposer au voyageur (via les réseaux sociaux) des remises intéressantes. L’établissement y gagnera pour sa part un nouveau client potentiel.

Selon l’étude, cette technologie permet désormais d’agréger rapidement des données provenant de sources multiples et de fournir des indications qui offriront aux utilisateurs une expérience plus concrète et plus riche.


Parmi les autres tendances relevées dans l’étude Vision technologique 2012 d’Accenture figurent :

La convergence des architectures de données :

A mesure que les données s’imposent comme un précieux actif pour la plupart des entreprises, leurs architectures vont devoir évoluer et faire le lien entre les bases de données et les systèmes d’ancienne et de nouvelle génération afin d’en dégager toute la valeur attendue. Les prévisions sont légion quant à l’accroissement probable du volume et de l’importance des données ; l’un des thèmes à la mode est d’ailleurs celui des « big data », les données volumineuses. Toutefois, l’étude Accenture révèle que ce n’est pas la croissance du volume des données qui va poser problème aux entreprises, mais plutôt le développement de nouvelles architectures de données permettant de gérer avec la même efficacité des informations structurées comme d’autres non structurées. La mise en place d’architectures appropriées constitue d’ailleurs un pré-requis pour répondre à une autre tendance liée aux données, à savoir la nécessité de partager celles-ci plus librement et facilement.

L’étude prévoit un rééquilibrage de l’ensemble des bases de données pour permettre la gestion des informations non structurées, et les architectes devont intégrer le fait que les systèmes de gestion de base de données relationnels ne sont plus le seul outil qu’ils devront maîtriser.


L'industrialisation des services de données :
En rapport avec la tendance précédente, l’étude indique que la véritable valeur des données – provenant tant de l’intérieur que de l’extérieur de l’entreprise – est réalisée lorsque celles-ci sont partagées librement. À cette fin, les données seront de plus en plus découplées des applications et n’appartiendront plus à une seule entité. L’étude anticipe l’apparition de nouvelles approches dans la gestion des données.

Pour les prochaines années, Accenture voit les entreprises les plus performantes maîtriser les modes de gestion de données nécessaires pour atteindre un juste équilibre entre contraintes et liberté, l’idée étant d’obtenir une vision claire de la valeur réelle de ces données. Ces entreprises commenceront ainsi à penser en termes d’industrialisation du partage des données.


L'informatique « sociale » :
L’étude note que les médias sociaux ne sont plus simplement un canal marketing « de plus » pour les entreprises. Ils deviennent de puissants catalyseurs qui font évoluer la façon dont les clients, collaborateurs et partenaires de l’entreprise utilisent la technologie pour interagir avec le monde qui les entoure. L’étude note également que la majorité des entreprises doivent encore prendre conscience de cette réalité et rares sont celles qui en tirent pleinement parti.


L'agilité grâce au modèle PaaS :
Les responsables informatiques qui ne recherchent que des sources d’économies au travers du choix d’une architecture PaaS (Platform as a Service) ou de modèles « as a Service », risquent de passer à côté d’une partie de la question. L’étude met plutôt l’accent sur l’importance de l’agilité de la plate-forme ainsi que sur la viabilité du marché et la complémentarité de l’ensemble des services métier proposés par un même prestataire.

L’étude prévoit que les prestataires PaaS offriront de plus en plus trois composantes supplémentaires : des services métier réutilisables, des capacités d’intégration et des capacités d’extension. Elle note également que chaque plate-forme devra apporter des capacités riches et solides de gestion et d’infrastructure.


L'orchestration de la sécurité analytique :
Les entreprises sont plus « connectées » que jamais, non seulement via le Web et les mobiles mais aussi par d’autres voies non classiques, notamment dans le monde physique. Pensez à la façon dont les véhicules automobiles et les systèmes de contrôles industriels se connectent à d’autres systèmes... En conséquence, les risques s’accentuent et les entreprises ne peuvent plus les évaluer de la même manière. Une vision de la sécurité axée sur les données – accompagnée de la mise en œuvre d’une sécurité analytique – devra aider à combattre ces risques.



Méthodologie
Depuis sept ans, Accenture Technologie Labs publie une étude annuelle sur l’évolution des technologies. Pour l’édition 2012, les chercheurs et les scientifiques d’Accenture ont élaboré des hypothèses sur les tendances informatiques dont l’impact sera sensible sur les entreprises au cours des cinq prochaines années. De nombreuses sources ont été mises à contribution : examen des flux de capital-risque, tendances mises en lumière par les analystes du secteur, thèmes des conférences spécialisées, publications universitaires ou encore des experts des secteurs et technologies chez Accenture. Les travaux originaux d’Accenture sur les caractéristiques des Directions des Systèmes d’Information les plus performantes ont également été exploités.

Pour de plus amples informations sur l’étude Vision technologique 2012 d’Accenture, vous pouvez consulter le site www.accenture.com/technologievision

http://www.itchannel.info/articles/128004/six-tendances-technologiques-prioritaires-dsi.html?key=862d53eea2c1d2fe

mardi 24 janvier 2012

N°113: Gérer le contenu

Tout le monde en convient : la seule constante dans le monde, c’est le « Changement ». Vous pouvez concevoir des plans parfaits, mais ils ne représentent rien face à n’importe quel changement potentiel qui pourrait survenir. Plus la durée de votre projet est longue, plus vous aurez probablement affaire à des changements. C’est la raison pour laquelle le processus TenStep conçoit très bien que les processus de définition initiale et de planification ne soient pas parfaits. Votre équipe et vous-même devez accomplir le meilleur travail que vous pouvez, étant donné l’état de vos connaissances au moment où vous l’effectuez. Et c’est déjà bien ainsi. Par la suite, vous devez gérer le contenu.
Modifications du contenu
« Contenu »  est le terme utilisé pour désigner la totalité du travail ainsi que les limites du projet. Le contenu est utilisé pour définir ce que le projet livrera et ce qu'il ne livrera pas. Pour les plus grands projets, la définition du contenu peut inclure les livrables importants qui sont créées, les organisations concernées, les transactions affectées, les types de données incluses, etc.
Si vous examinez les raisons pour lesquelles les projets échouent, vous vous trouvez habituellement confronté à deux problèmes : soit que l'équipe n'a pas passé assez de temps à définir le travail, soit qu’il y avait un manque de management du contenu du projet. Même si le chef de projet a réalisé un bon travail au niveau de la définition du contenu, la partie difficile est de gérer le projet à l’intérieur de ce contenu, tel qu’il a été convenu au départ.
Le but du management du contenu du projet est de protéger la viabilité de la charte du projet approuvée et celle des exigences commerciales, elles aussi approuvées. En d’autres termes, la charte du projet définit le contenu global du projet, alors que les exigences commerciales définissent les livrables dans le détail. L’équipe du projet s’est engagée pour une date limite et un budget, sur la base de cette définition, à la fois générale et détaillée, du contenu du projet. Si un changement des livrables est effectué pendant le projet (et habituellement cela signifie que le client réclame des éléments supplémentaires), les estimations initiales du coût, de l'effort de travail, et de la durée peuvent ne plus être valides. Si le commanditaire accepte d'inclure le nouveau travail dans le contenu du projet, le chef de projet a le droit d’exiger que les coûts, l'effort de travail et/ou la durée soient modifiés (habituellement, ils s’accroissent) pour justifier ce travail supplémentaire. Ces nouvelles estimations de coût, d'effort de travail et de durée deviennent alors le nouvel objectif approuvé.
Parfois, le chef de projet pense que la gestion du contenu revient à dire « non » au client. Cela peut rendre le chef de projet nerveux et le mettre mal à l’aise.
Ce qu’il faut garder à l’esprit, c’est qu’une gestion efficace du contenu n’a d’autre intérêt que d’amener le commanditaire à prendre des décisions qui entraîneront des modifications du contenu.
Cela est très important. Peu de clients peuvent voir et exprimer chaque spécification à l'avance. Par conséquent, il y a habituellement des changements qui doivent être introduits dans le projet. Ces changements peuvent s’avérer tout à fait nécessaires pour la solution, et il peut y avoir des raisons commerciales valides pour lesquelles ils devront être pris en compte. Le chef de projet et l’équipe de projet doivent savoir quand ces changements deviennent incontournables. Ils doivent alors suivre un processus prédéfini de modification du contenu. Ce processus fournit, en fin de compte, les informations appropriées au commanditaire du projet et lui permet de décider si la modification doit être approuvée en se basant sur la valeur marchande ainsi que sur l'impact pour le projet, en termes de coûts et de délais.
Terminologie de management de projet
Dictionnaire de la structure de découpage du projet. Document qui décrit chaque composant de la structure de découpage du projet (SDP). Pour chaque composant de la SDP, le dictionnaire comprend une brève définition du contenu ou de l'énoncé des travaux, le(s) livrable(s) défini(s), la liste des activités associées et la liste des jalons. On peut y trouver également : l'organisation responsable, les dates de début et de fin, les ressources nécessaires, une estimation du coût, un numéro d'imputation, les informations sur le contrat, les exigences de qualité et des références techniques destinées à faciliter la réalisation du travail.
Divergence des chemins. Extension ou apparition de chemins de réseau parallèles à partir d'un nœud dans un diagramme de réseau du projet. Cette divergence se caractérise par une activité de l'échéancier ayant plus d'une activité successeur.
Abréviations courantes
EVT (anglais) : Earned Value Technique
       (français) : Technique de la valeur acquise
Liens intéressants
Logiciel: Huddle.net
·   Société: Huddle.net, London, Royaume-Uni
·   URL: www.huddle.net
·   Catégorie: Réseau social et collaboratif
·   Fonctionnalités:
o    Permet à l'Équipe de projet de collaborer en ligne
o    Permet aux utilisateurs de contrôler qui rejoint et travaille à leur «huddle» ou espace de travail de groupe
o    Permet aux utilisateurs de contrôler qui rejoint et travaille à leur «huddle» ou espace de travail de groupe
o    Assigne une page de profil à chaque membre de l'équipe pour aider les utilisateurs à identifier qui est le mieux adapté à un projet

Les équipes de TenStep Francophone
TenStep Francophone

De l'impact des performances des applications sur l'activité de l'entreprise

Lundi 23 Janvier 2012
L’utilisation d’Internet comme vecteur des activités commerciales stratégiques a explosé et s’accompagne de nouvelles exigences, comme l’optimisation de la gestion de la performance des applications Web. Les responsables informatiques sont bien sûr concernés, mais pas seulement.

Les décideurs chargés de développer l’activité doivent par exemple disposer d’informations détaillées sur la performance, la disponibilité et la santé des services proposés.
En effet, de la performance de ces services qui s'appuient sur Internet, dépendent la fidélité des clients, la productivité des effectifs et le rendement économique.
Avec la généralisation des terminaux mobiles, les utilisateurs ne se contentent plus de leur ordinateur de bureau ou portable. Il en résulte un environnement d’exploitation plus complexe, donc des risques plus importants pour l’activité des entreprises.

Compuware a demandé à IDC de réaliser une enquête auprès de décideurs informatiques et commerciaux dans le monde entier. Les 474 personnes interrogées ont détaillé leurs besoins pour un fonctionnement efficace de leurs activités commerciales sur Internet.


En voici les conclusions :
• La majorité des entreprises interrogées utilisent Internet pour des activités aussi variées que le marketing et la publicité, le recrutement, le service clients, la gestion des ressources humaines, la gestion de la relation client, la collaboration et la facturation en ligne.
• Les informations sur le ressenti des utilisateurs et la performance des services commerciaux, depuis le centre de données (« First Mile ») jusqu'aux utilisateurs finaux (« Last Mile »), sont d’une importance stratégique. Malheureusement, les rapports sur la performance ne sont généralement pas assez précis sur le contexte de l’activité.
• Selon 31 % des décideurs, leur service informatique n’est pas suffisamment bien équipé pour permettre au service commercial de cerner les impacts, risques et opportunités liés à l’utilisation accrue d’Internet et des terminaux mobiles.
• Les décideurs se sont fixé comme priorité immédiate de disposer de meilleures informations en temps réel sur la performance de bout en bout des activités reposant sur Internet.


Comme l’indiquent les résultats de l’enquête, les équipes informatiques doivent s’attacher à fournir aux décideurs commerciaux des informations exploitables pour cerner les problèmes de performance. En quoi consistent ces problèmes et quelles sont leurs conséquences sur l’activité ? Pour répondre à cette question, il faut appréhender la performance et le ressenti de l’utilisateur final du début (« First Mile ») jusqu’à la fin (« Last Mile »). De fait, il ne suffit pas d’observer ce qui se passe dans le centre de données, mais bien le cheminement jusqu'aux utilisateurs eux-mêmes, aux confins d’Internet. Il faut également veiller à mettre les contrats de niveaux de service en adéquation avec les objectifs de l’entreprise, à la fois en termes d’exploitation informatique et commerciale. Enfin, la direction informatique doit comprendre les effets sur la performance d’un environnement où se multiplient terminaux et navigateurs, pour se préparer à relever ces nouveaux défis.


Impact de la performance des applications sur l'activité de l'entreprise
Dans le cadre d’une étude, Microsoft et Google ont eu recours à des tests pour ralentir volontairement des pages Web et vérifier l’impact sur le comportement des utilisateurs finaux et sur l’activité. La pertinence des résultats ne fait aucun doute : performance et chiffre d’affaires sont étroitement liés. L’un des tests a montré qu'un ralentissement de deux secondes des résultats de Bing se traduisait par une perte de 4,3 % du chiffre d'affaires par utilisateur. Autre exemple : il suffit d’un retard de 400 millisecondes des résultats de Google pour que le nombre de recherches par utilisateur chute vertigineusement. Quelles sont les conséquences pour votre activité ?

Pour élargir le champ, Compuware a observé 500 millions d’interactions d’utilisateurs finaux avec quelques centaines de sites Web différents, dans les secteurs de la distribution, des médias et des services financiers. Les résultats ont montré une corrélation directe entre la performance des pages individuelles et la désaffection immédiate des utilisateurs finaux, que ces derniers cliquent sur le bouton Arrêter de leur navigateur ou qu’ils quittent le site sans poursuivre jusqu’à la prochaine page logique du déroulement ou de la séquence. Cette corrélation a été mise en évidence immédiatement, sur l’ensemble des secteurs testés. La réduction de deux secondes du chargement d’une page ferait baisser le taux d’abandon de 8 %. En conditions réelles, un gain de huit secondes se traduirait par une diminution du taux d'abandon de 38 %. Avec de tels résultats, vous pourriez rendre vos clients totalement fans de votre site et doper littéralement votre chiffre d’affaires.
Pour vous permettre de savoir si votre entreprise est prête à affronter de tels défis, nous examinons dans ce livre blanc cinq meilleures pratiques incontournables. Grâce à elles, vous saurez gérer la performance de vos applications tout au long de leur chaîne de distribution : depuis le navigateur du terminal mobile ou de l’ordinateur de l'utilisateur, via Internet ou le réseau étendu de l’entreprise ou des fournisseurs tiers et de cloud computing, jusqu’à l’infrastructure complexe des centres de données.


Pratique N°1 : voir au-delà du pare-feu
En matière de distribution d’applications, de nombreuses entreprises se contentent d’intervenir au niveau du centre de données. Elles considèrent qu’appliquer une gestion et une surveillance classiques des systèmes à l’infrastructure de l’ensemble des serveurs suffit pour s’assurer du bon fonctionnement des systèmes, des serveurs et du réseau local, et pour en conclure que les utilisateurs finaux sont satisfaits. Pourtant, dans le monde réel de la distribution des applications Web, même si vos outils de gestion des systèmes indiquent un fonctionnement optimal, le ressenti des utilisateurs peut se révéler bien différent.

En effet, il se peut que le chargement des applications soit long ou qu’en fonction de la zone géographique des internautes, la durée du chargement varie (ou pire, que des pages soient indisponibles). Certaines transactions pourraient s’exécuter parfaitement sur un navigateur et échouer sur un autre. De tels problèmes pourraient échapper aux outils internes de gestion (c’est-à-dire aux outils classiques) qui continueraient d’indiquer le bon fonctionnement et la disponibilité du système.

Dans certains cas, les transactions ne s’affichent pas dans leur intégralité sur l’ensemble des navigateurs. Le ressenti des utilisateurs finaux serait ainsi différent selon que leur point de consommation est un poste de travail, un ordinateur portable ou un smartphone. Quelle en est la raison ? Le simple fait que de nombreux événements se produisent entre le centre de données, le pare-feu et l'utilisateur final. Des problèmes peuvent survenir tout au long de la chaîne de distribution, ainsi que des échecs. La chaîne de distribution des applications Web est constituée du centre de données, des FAI nationaux, des services de cloud computing ou encore d’une multitude d’éléments tiers permettant l'envoi direct de contenu aux navigateurs des utilisateurs finaux. Les composants de cette chaîne — du centre de données (« First Mile ») à l’utilisateur final (« Last Mile ») — doivent fonctionner parfaitement à l’unisson pour garantir la qualité de ressenti à laquelle s'attendent à tout moment les internautes.

Et il suffit qu’un de ces éléments tiers soit défaillant pour que votre marque et votre image en pâtissent. Peu importe que votre page soit ralentie à cause d’un fournisseur publicitaire, d'un réseau CDN ou encore d'un outil d’analyse Web. Aux yeux des utilisateurs finaux, la faute en incombe à votre marque.
De plus, comme le navigateur se mue rapidement en plate-forme d’intégration qui récupère et exécute quantité de contenu et de code (avec la généralisation d’Ajax et JavaScript), il est d'autant plus essentiel de mesurer les temps de disponibilité et de réponse du point de vue de l'utilisateur final, et pas uniquement de celui de votre infrastructure. En effet, le taux de disponibilité et de réussite des transactions peut varier du tout au tout selon le point de vue retenu pour effectuer les mesures.

La seule façon d’appréhender véritablement le ressenti des utilisateurs finaux consiste à envisager la gestion de la performance en fonction de leur point de vue. Pour atteindre cet objectif, il est essentiel d’identifier une solution capable de mesurer les temps de réponse des transactions clés de l’extérieur vers l’intérieur, c’est-à-dire de l’utilisateur final vers le centre de données, ainsi que depuis différents endroits couvrant l’ensemble des zones géographiques depuis lesquelles les internautes accèdent à votre site. Il faut en outre disposer de fonctionnalités de surveillance suffisamment précises pour déterminer l’origine des problèmes survenant à l’extérieur du parefeu, ainsi que le composant de la chaîne de distribution responsable (Internet, FAI, réseau CDN tiers, prestataire de cloud computing ou navigateur/terminal).


Pratique n°2 : fournir des informations exploitables à l'entreprise
Lorsque vous envisagez un problème du point de vue de l'utilisateur final, vous devez déterminer son origine, sa portée et l'urgence à le résoudre. Il peut résider dans le centre de données interne ou plus généralement sur Internet, être causé par des prestataires de services de cloud computing ou autres, ou encore provenir d’un navigateur en particulier. Il se peut, par exemple, que les utilisateurs d'Internet Explorer 8 ou de Firefox rencontrent des difficultés, et pas ceux d’Internet Explorer 7. Il faut dans ce cas établir le plus rapidement possible la cause du problème avant d’envisager un recours quelconque et de savoir à qui il revient de trouver la solution.

La solution Gomez de Compuware surveille la performance Web de plus de 4 000 entreprises dans le monde. En mesurant leurs données de performance, Compuware a mis en évidence qu'une transaction moyenne faisait appel à plus de 10 hôtes différents, lesquels fournissaient du contenu directement aux navigateurs des utilisateurs finaux. Ainsi, dans le cadre d’une transaction type sur Internet, un navigateur communique avec huit domaines entièrement qualifiés et huit serveurs différents, dont un nombre très réduit réside à l’intérieur du pare-feu. Quel est le rôle de ces hôtes dans le temps de réponse global ? Dans quelle mesure ralentissent-ils votre site et influencent-ils le ressenti des utilisateurs finaux ?

L’étape suivante consiste à fournir des informations exploitables en réponse à diverses questions. Quelles sont les conséquences du problème en termes d’activité ? Le taux de conversion en pâtit-il ? Combien d’internautes et de pages Web sont concernés ? À quel niveau situer ce problème sur l’échelle des priorités ? Grâce à ces informations, vous saurez prendre les mesures correctives adaptées. Il est essentiel de toujours tenir vos clients informés des problèmes et de mesurer l’impact de ceux-ci. Un tableau de bord convivial indiquant l’état des performances de façon homogène sur l’ensemble de la chaîne de distribution permet de traduire facilement les informations techniques en données exploitables pour l'activité. En outre, l’identification rapide des problèmes permet de déterminer les responsabilités et de mettre en œuvre une solution sans attendre.


Pratique n°3 : tout miser sur le ressenti de l'utilisateur final
Pendant un mois, Compuware a collecté 360 millions de vues de pages différentes sur quelques centaines de sites Web — il s’agissait d’internautes du monde entier accédant à Internet via une connexion haut débit — pour savoir précisément ce que les utilisateurs finaux voyaient sur leur écran. L’étude des ressentis a révélé des variations importantes selon les navigateurs : d'à peine deux secondes sur Google Chrome 4 jusqu’à presque dix secondes sur Internet Explorer 6. À n’en pas douter, l’impact du navigateur de l’internaute est déterminant sur la performance globale.

Pourtant, on ne peut pas se contenter de connaître le temps que le navigateur met à afficher le contenu. Cerner la performance Web est véritablement un enjeu de perception. Il s’agit de déterminer le temps écoulé avant que la page semble chargée. La différence est de taille entre la durée réelle du chargement des pages (le temps nécessaire pour que le contenu soit livré ou chargé) et la durée du rendu telle qu’elle est perçue (le temps écoulé avant que la page semble chargée). Il faut pour cela faire la distinction entre ce que les internautes voient et ce qu’ils perçoivent. Sans modifier l’infrastructure ni remanier l'architecture, il est possible d’intervenir au niveau de la présentation et de la conception pour optimiser l'apparence même de la performance, simplement en faisant se charger les éléments les plus importants en premier. S’appuyer sur le ressenti de l’utilisateur final favorise une approche plus collaborative pour résoudre les problèmes, à l’opposé des méthodes verticales et cloisonnées résultant généralement des réunions de crise et autres pratiques accusatoires.

Cette visibilité du ressenti vous permet d’identifier les problèmes et leur origine, et de les prioriser. Autre avantage : elle vous donne les moyens d’optimiser la distribution des applications Web. Vous pouvez collecter des informations sur le ressenti de l’utilisateur final de différentes manières :
• Surveillance des transactions synthétiques : vous identifiez les transactions essentielles et créez des scripts de réexécution répétitive par un utilisateur « synthétique ». De cette façon, vous anticipez l’identification des problèmes avant même que les utilisateurs réels y soient confrontés. Ces transactions synthétiques doivent être exécutées depuis deux points :
1.) Dorsale Internet : pour éviter toute variation due à la zone géographique, au FAI local, etc.
2.) Last Mile : pour connaître la performance telle qu’elle est ressentie depuis n'importe où, sur les terminaux réels.
• Surveillance des utilisateurs réels : vous accédez au véritable ressenti des utilisateurs réels. De cette façon, vous identifiez les problèmes et en cernez l’impact sur l’activité (par exemple, la population des utilisateurs concernés selon la zone géographique). Il est possible d'opérer cette surveillance selon deux approches différentes :
– Surveillance de l'utilisateur final à travers la navigation : pour collecter les données sur la performance en temps réel à mesure que l'utilisateur navigue sur votre site. Cela vous permet de cerner les aspects techniques dans différentes configurations (navigateur, localisation et terminal) et les temps de rendu tels qu’ils sont perçus.
– Surveillance de l'utilisateur final à travers le centre de données : les transactions réelles sont observées lorsqu’elles parcourent le réseau. Cela permet d’identifier les goulets d’étranglement au sein même du centre de données et de quantifier leur impact sur l’activité.


Pratique n°4 : planifier un environnement multinavigateur et multiterminal
Le smartphone est un autre élément essentiel de la chaîne de distribution. Les entreprises doivent donc s’assurer que le ressenti sera le même sur ce type d’appareil que sur les ordinateurs de bureau ou portables. À quelle performance les internautes sont-ils confrontés lorsqu’ils utilisent un smartphone ou tout autre terminal mobile, comme le BlackBerry, l’iPad ou l’iPhone ou encore un netbook ?

Certes, vous ne pouvez pas inciter les utilisateurs à se connecter en WiFi ou sur un réseau d’opérateur mobile, mais vous pouvez tout à fait influencer leur perception globale de la performance. Et pour cela, vous devez savoir précisément ce qu’ils voient. C’est à cette condition que vous pourrez exercer une action et procéder à des optimisations. Les études révèlent que la plupart des utilisateurs nomades s'attendent à ce que les sites s’affichent aussi rapidement sur leur terminal mobile que sur leur ordinateur à la maison ou au bureau.

C’est pourquoi il est essentiel que vous testiez toujours vos applications Web sur différents navigateurs et terminaux avant leur lancement. En effet, certains sites se chargent parfaitement dans un navigateur, sur un système d’exploitation ou un terminal particulier, mais les résultats sont parfois moins satisfaisants, voire catastrophiques, avec d’autres navigateurs ou terminaux. Il existe une telle variété de configurations des points de consommation que vous devez impérativement savoir comment votre application se présentera, quel que soit le terminal ou le navigateur de l’utilisateur final.


Pratique N°5 : définir et contrôler les contrats de niveaux de service des fournisseurs tiers en fonction des objectifs
La dernière meilleure pratique consiste à définir et contrôler les contrats de niveaux de service des prestataires, à la fois en interne et en externe. Tout d’abord, vous devez cerner avec précision les objectifs de votre entreprise. Il faut savoir que pour être efficace, les contrats de niveaux de service doivent reposer sur le service et la performance, et non sur les mesures techniques. Ainsi, vous vous assurerez que le taux de réussite des transactions est correct. Cela revient à déterminer la vitesse à laquelle les internautes exécutent les transactions courantes sur votre site Web, qu’il s’agisse d'une réservation, d’une recherche ou d’un achat.

Les utilisateurs détestent rencontrer des difficultés. C’est la raison pour laquelle vous devez définir des objectifs de performance. Vous devez vous poser différentes questions. Quel est le taux de transaction et de performance acceptable pour mon activité ? Est-ce que les objectifs sont atteints ou pas ? Si mon entreprise est d’envergure internationale, est elle principalement axée sur les consommateurs de ma zone géographique, étendue ou pas à mon continent, ou véritablement tournée vers le reste du monde ? Vous devez vous assurer que vous mesurez bien le ressenti concernant les transactions stratégiques de bout en bout, depuis toutes les zones géographiques du pays ou du monde. C’est essentiel car la performance globale dépend d’Internet et de la latence sur le réseau.

Par exemple, le temps de réponse d’une transaction de deux ou trois étapes pourra être inférieur à une seconde sur la côte Est des États-Unis, alors qu'il sera de dix, voire douze, secondes sur la côte Ouest. Vous devez donc savoir combien d’utilisateurs ont renoncé au bout d’un certain temps. Le facteur géographique est également déterminant. Ainsi, il vous faudra prévoir une capacité supplémentaire pour gérer les pics pendant les fêtes. Vos prestataires sauront ils vous garantir cette capacité ou feront-ils défaut dès que la charge augmentera sur leurs systèmes ? Que vous ayez choisi d’externaliser la totalité de votre site ou de recourir à l’un de ces services pour dimensionner vos fonctionnalités en fonction des besoins (publicité, panier, évaluations et critiques), une mise en œuvre défaillante pourra ralentir ou faire échouer le chargement de votre site.

La question est donc de savoir si vos prestataires externes sont capables de fournir la capacité nécessaire en période de trafic intense. Il est vital que vous obteniez cette garantie de performance si vous voulez atteindre vos objectifs. Et il est essentiel que vous cerniez vos objectifs car ils peuvent être de nature différente selon que vous visez la performance, la modulation de la capacité, la souplesse ou la stabilité, par exemple. Une fois ces objectifs connus, vous veillerez à mettre en place la surveillance de la performance et les contrats de niveaux de service nécessaires pour les atteindre. Le suivi de la performance permet de poser les bases des objectifs fixés et d’anticiper les besoins. Vous devez donc collaborer étroitement avec vos fournisseurs pour vous assurer qu’ils sont capables de répondre à vos exigences actuelles mais aussi de s'adapter à leur évolution future.


Compuware se propose, avec la solution Gomez, de fournir des données exploitables permettant d’identifier rapidement l'origine des problèmes et leur impact sur l'activité et les utilisateurs finaux. Au-delà du pare-feu, la société garantit une vue de bout en bout depuis le centre de données jusqu'à l'utilisateur final, où qu’il se trouve. Le décideur peut ainsi axer son action sur le ressenti de l’utilisateur final en surveillant la performance et la disponibilité des transactions clés du point de vue de ce dernier. Compuware met à disposition plus de 150 sites dorsaux dans des centres de données de niveau 1 à travers le monde, ainsi que son réseau exclusif Gomez Last Mile, dont les agents répartis sur pas moins de 150 000 sites
dans 168 pays font appel à 2 500 FAI.
Les solutions Gomez Browser et Mobile RUM mesurent la performance directement depuis les navigateurs et les terminaux mobiles des utilisateurs, permettant ainsi d'effectuer des analyses en fonction de la zone géographique, du navigateur, du FAI et du terminal. Ce qui permet de savoir immédiatement si l’origine d’un problème réside à l'intérieur ou à l’extérieur du centre de données. Le banc de test virtuel permet dans un environnement de cloud computing, de tester automatiquement les applications pour le Web et les terminaux mobiles sur plus de 500 combinaisons de navigateurs et systèmes d’exploitation et plus de 5 000 terminaux mobiles.

http://www.itchannel.info/articles/127924/impact-performances-applications-activite-entreprise.html?key=862d53eea2c1d2fe