jeudi 29 mars 2012

Gartner Says Hybrid IT is Transforming the Role of IT

A lire sur:  http://www.gartner.com/it/page.jsp?id=1940715&M=b5f2c65c-0c65-45a9-bbe3-4d6c710704af


Special Report Shows Hybrid IT Challenges Longstanding Practices of IT Organizations and Business Models of Traditional IT Vendors
STAMFORD, Conn., March 5, 2012—
Hybrid IT is transforming IT architectures and the role of IT itself, according to Gartner, Inc. Hybrid IT is the result of combining internal and external services, usually from a combination of internal and public clouds, in support of a business outcome.

In the Gartner Special Report, "Hybrid IT: How Internal and External Cloud Services are Transforming IT" (http://www.gartner.com/technology/research/technical-professionals/hybrid-cloud.jsp), analysts explained that hybrid IT relies on new technologies to connect clouds, sophisticated approaches to data classification and identity, and service-oriented architecture, and heralds significant change for IT practitioners.

"Many organizations have now passed the definitional stage of cloud computing and are testing cloud architectures inside and outside the enterprise and over time, the cloud will simply become one of the ways that we 'do' computing, and workloads will move around in hybrid internal/external IT environments," said Chris Howard, managing vice president at Gartner. "As a result, the traditional role of the enterprise IT professional is changing and becoming multifaceted. A hybrid IT model requires internal and external IT professionals to support the business capabilities of the enterprise."

Cloud computing's business model — the ability to rapidly provision IT services without large capital expenditures — is appealing to budget-minded executives. CEOs and CIOs are pressuring IT organizations to lower overhead by offloading services to cloud providers. However, when IT organizations investigate potential cloud services, the market's volatility reveals that not all cloud services are created equal.

"IT organizations are taking an 'adopt and go' strategy to satisfy internal customer IT consumerization and democratization requirements," Mr. Howard said. "Many IT organizations are adopting public cloud computing for noncritical IT services such as development and test applications, or for turnkey software as a service (SaaS) applications such as Web analytics and CRM that can holistically replace internal applications and enable access for a mobile workforce."

For critical applications and data, IT organizations have not adopted public cloud computing as quickly. Many IT organizations discover that public cloud service providers (CSPs) cannot meet the security requirements, integrate with enterprise management, or guarantee availability necessary to host critical applications. Therefore, organizations continue to own and operate internal IT services that house critical applications and data.

However, the public cloud has affected internal customers. Because of the pervasive growth of public clouds, many business units and internal customers have used and grown accustomed to IT as a service and have built business processes and budget plans with cloud computing in mind. Now these internal customers are demanding that IT organizations build internal private clouds that not only house critical applications, but also provide a self-service, quickly provisioned, showback-based IT consumption model.

"IT organizations that do not match the request for IT as a service run the risk of internal customers bypassing the IT organization and consuming IT services from the external cloud, thereby placing the company at greater risk," said Mr. Howard. "IT organizations realize that they not only need to compete with the public cloud consumption model, but also must serve as the intermediary between their internal customers and all IT services — whether internal or external."

IT organizations are becoming the broker to a set of IT services that are hosted partially internally and partially externally — hybrid IT architecture. By being the intermediary of IT services, IT organizations can offer internal customers the price, capacity and speed of provisioning of the external cloud while maintaining the security and governance the company requires, and reducing IT service costs.

This model of service delivery challenges both the longstanding practices of IT organizations and the business models of traditional IT vendors. Gartner expects that most organizations will maintain a core set of primary service providers (cloud and noncloud) extended by an ecosystem of edge providers who fulfill specific solution requirements.

"Hybrid IT is the new IT and it is here to stay. While the cloud market matures, IT organizations must adopt a hybrid IT strategy that not only builds internal clouds to house critical IT services and compete with public CSPs, but also utilizes the external cloud to house noncritical IT services and data, augment internal capacity, and increase IT agility," said Mr. Howard. "Hybrid IT creates symmetry between internal and external IT services that will force an IT and business paradigm shift for years to come."

Additional information is available in the Gartner Special Report "Hybrid IT: How Internal and External Cloud Services are Transforming IT" at
 http://www.gartner.com/technology/research/technical-professionals/hybrid-cloud.jsp. The Special Report includes video commentary of more than a dozen reports examining the various elements of Hybrid IT.

Cloud Expo: au delà de la techno, de nombreuses questions pour les DSI

A lire sur:  http://www.zdnet.fr/blogs/green-si/cloud-expo-au-dela-de-la-techno-de-nombreuses-questions-pour-les-dsi-39769976.htm#xtor=EPR-100

Cette semaine le Cloud Computing World Expo le 28 et le 29 Mars à La Défense est un prétexte pour faire le point sur toutes les dimensions du Cloud.

Car au-delà du SaaS, son produit phare qui a une croissance de l'ordre de 18% selon Gartner, le Cloud revisite la productivité des infrastructures et du développement informatique, chamboule les modèles économiques et questionne le positionnement de la DSI.
Et dans ses sous-produits non prévus au départ mais bien pratique depuis l'explosion de l'iPad, il s'avère une réponse efficace pour le déploiement d’applications professionnelles sur les tablettes mobiles et les smartphones, et même le BI.
Côté infrastructure la grande leçon du Cloud c'est la productivité.
Provisionner des centaines d'instances de postes de travail en quelques minutes, gérer des milliers de serveurs dans des datacenters automatisés... Une leçon de productivité qui met la pression sur les DSI qui n"ont pas une grande visibilité de leurs coûts internes ou qui ont des coûts très au-elà de ce que l'on peut maintenant acheter sur le marché. Surtout qu'après les offres des ténors (IBM, HP, Microsoft, Google, Amazon...) qui veulent nous rassurer par leur maîtrise des infrastructures, commencent a venir le temps des start-up et de produits "dérivés" de plus en plus innovants et sans aucun repère dans le monde précédent. Par exemple on peut faire appel à un "brocker" pour acheter sa capacité au meilleur prix sur plusieurs plateformes, ou suivre sa facturation journalièrement.
Mais cette productivité n'a d'intérêt que si les offres deviennent plus professionnelles. Or les derniers incidents du début de l'année sont là pour nous rappeler toute la fragilité de plateformes qui se mettent en place. Sinon comment expliquer la panne de plusieurs heures d'Azure (lire Pierre Col sur ZDNet) ou certainement moins grave celle d'un fournisseur SaaS qui a oublié de facturer le 29 février. La première année bissextile a eu raison de certains services "pas secs".
Pas très rassurant d'ailleurs si on se fie aux prévisions de croissance annoncées sur le Cloud, car ces infrastructures vont devoir monter en charge sur le plan technique... mais aussi sur celui des ressources humaines. Les prévisions de recrutement du Cloud sont impressionnantes: 14 millions d'emplois dont 190.000 en France selon IDC pour Microsoft (lire Pierrick Aubert sur ZDNet). Certainement de nombreux déplacement de postes des intégrateurs (moins nécessaires avec le SaaS) et des services informatiques des entreprises vers les entreprises du Cloud. Chamboulement en perspective sur l'industrie des services informatiques.
Et quand GreenSI vous rappelle qu'une étude récente de Forrester Research (Etats-Unis, Europe, Asie-Pacifique) pour BMC Software, indique que près de trois DSI sur quatre (72%) se disent d’accord ou tout à fait d’accord avec la crainte que leurs directions considèrent le Cloud comme un moyen de se passer de leurs services, cela ne vous surprend pas. Le cloud pose de nombreuses questions aux DSI. Et les réponses sont loin d'être identiques en fonction:
  • du positionnement actuel de la DSI dans l'organisation,
  • de la qualité de ses relations avec les métiers
  • et de son degré actuel d'outsourcing ou tout au moins de coût de ses services.
Le Cloud, c'est la fin de la DSI?
Tout d'abord les points de retour d'expérience que je partage lors de mon intervention à la table ronde des DSI du Cloud Computing World Expo, montrent qu'il y a de vrais besoins pour le Cloud qui peuvent être mis à profit par la DSI pour gagner ses galons de maréchal dans ce nouveau paradigme, réussir des projets rapidement et en innovant, et se mettre à égalité avec les démarcheurs qui courtisent les directions métiers. Les résultats seront toujours plus appréciés par les DG que les promesses, et cela vaut aussi pour nos fournisseurs!
On peut notamment citer :
  • Toutes les applications collaboratives qui se payent à l'usage et dont la vitesse d'évolution est peu compatible avec des projets successifs de mise en oeuvre interne. Combien d'entreprises sont bloquées sur Sharepoint 2007, alors que Microsoft a introduit la partie "Social" avec la version 2010, et surtout la prochaine? Alors que des offres SaaS sur ce sujet sont légions et surtout immédiatement activables. Et puis quoi de plus naturel pour la collaboration que la démarrer dans le Cloud et de n'avoir aucune contraintes pour la poursuivre avec ses clients ou ses fournisseurs
  • En ce qui concerne le CRM et compte tenu de la richesse des offres actuelles (les premières sont apparues dans le Cloud en 2004), il faut vraiement avoir des processus clients spécifiques pour ne pas trouver chaussure à son pied. L'offre RH aussi présente de vrais atouts surtout sur les développements récents des RH autour de la gestion des compétences par exemple.
  • Enfin le décisionnel qui demande beaucoup de ressources et qui peut mettre à profit la capacité de scalabité en mémoire des infrastructures Cloud et ainsi avoir une machine toujours adaptée a chaque phase du projet décisionnel et aux volumes croissants... sans compter trop large dès le départ.
De plus la DSI a une carte maîtresse avec la gestion de l’infrastructure réseau et la gestion des accès sécurisés aux services délivrés via Internet. Certains ont mis en place un portail de lancement des applications avec une fédération des identités. Ainsi pas besoin de gérer l'utilisateur sur plusieurs plateformes, en plus de la gestion dans les applications internes de l'entreprise. Et ça change tout... surtout pour l'utilisateur !
Et puis tout ne sera pas Cloud, car tout n'est pas miscible dans le Cloud. Donc les infrastructures hybrides sont un impératif. Et pour les concevoir cela revient à considérer les Cloud (comme les tablettes d'ailleurs) comme une donnée en entrée et l'équilibre entre Cloud et interne se fera sur la base de l'intérêt technico-économique en intégrant aussi le réglementaire et la sécurité. Bref ne nous laissons pas enfermer dans le datacenter alors que l'avenir sera réparti entre plusieurs moyens de production.
Mais ne nous y trompons pas, ces mutations dépassent le simple cadre du datacenter et concernent à présent toute l’entreprise car le SaaS demande aussi de nouvelles compétences aux Directions Fonctionnelles, dans la gestion budgétaire devenue une dépense récurrente qu'il faut suivre de près. Et GreenSI ne peut s'empécher de penser que c'est une opportunité pour les DSI qui sauront être claires dans leur positionnement d'accompagnement des métiers. Et ne vous inquiétez pas, les premières Directions Fonctionnelles parties toutes seules vont bientôt s’essouffler, car après les projets, le "run" de tous les jours cela ne les motive pas toutes, et ça débouche rarement sur l'objectif de leur Directeur... un poste à la DG.
Ce salon tombe donc à pic pour prendre la mesure de cette transformation devant nous, non ?

Green IT : les entreprises y viennent

A lire sur:  http://www.itchannel.info/articles/130719/green-it-entreprises-viennent.html?key=862d53eea2c1d2fe

Mercredi 28 Mars 2012
Quelle est la place du Green IT dans les entreprises ? Devoteam a mené l'enquête. La troisième du genre qui révèle une différence d'approche en fonction de la typologie des entreprises. « Le succès de cette troisième enquête européenne confirme une prise de conscience bien réelle et témoigne des progrès effectués par le Green IT au sein des organisations de toute taille, souligne Thomas de Lacharrière, coordinateur de l’enquête et Associate Partner chez Devoteam ». Voici les enseignements à tirer pour 2012 en matière de Green IT.

Cette enquête a notamment permis de savoir que 78% des entreprises envisagent le Green IT comme un investissement important pour le développement durable. 63% ont d'ailleurs mis en place un programme dédié, essentiellement des grands groupes (82%), les PME étant moins sensibles à ce sujet. Il reste d'ailleurs un gros travail d'éducation à faire dans les PME, car 77% des salariés de ces entreprises disent ne pas connaître le Green IT, alors qu'ils sont seulement 4% dans les grands groupes.

Logique si l'on note que la facture électrique reste majoritairement du ressort des services généraux. Ce sont les DSI (Directions du Système d’Information) qui prennent majoritairement en charge les programmes de Green IT. Pour Claire Alain, consultante chez Devoteam, il s’agit d’une démarche qui doit s’appuyer sur la direction : « Le Green IT s’installe dans les grandes organisations, le défi est de lui donner de l’envergure, de l’ambition et de l’intégrer aux projets et aux objectifs des collaborateurs. Pour cela, on constate chez nos clients l’importance d’un sponsorship fort de la démarche par le management, et de son intégration dans une démarche développement durable à l’échelle de l’entreprise. »
Devoteam note par ailleurs un véritable pas en avant vers une meilleure gestion de l'énergie, notamment pour les datacenters. On observe ainsi une progression de la virtualisation des serveurs (de 7 points à 55%) et du monitoring de la consommation électrique (+9 points à 28%). Notons également que 19% des entreprises françaises ont mis en place des solutins de monitoring énergétique des postes de travail. C'est beaucoup moins qu'en Allemagne (43%) ou en Angleterre (41%).
Les salariés des entreprises, en revanche, sont de plus en plus sensibilisés aux bonnes pratiques permettant de réduire leur empreinte écologique. Certains ont ainsi mis en place le tri sélectif (+9 points à 42%) et utilisent du papier recyclé pour l'impression (+9 points à 36%). En revanche, près de 40% des entreprises n'ont aucune initiative concernant la gestion des DEEE.
Les déplacements professionnels, eux, tendent à se réduire, remplacés peu à peu par les solutions de réunion à distance. En effet, 64% des entreprises sondées ont déjà mis en place des outils d'audioconférence et 53% des solutions de visioconférence. Le télétravail est aussi vue comme une bonne alternative. En travaillant chez soi 2 jours par semaine, un employé peut réduire son empreinte carbone d'environ 10%.
La prise de conscience est bien réelle souligne Thomas de Lacharrière, coordinateur de l'enquête et Associate Partner chez Devoteam. « Cela dit, certaines problématiques telles que les DEEE restent préoccupantes de même que les datacenters avec le cloud computing qui se doit d'être mutualisé pour en tirer les vrais bénéfices ».  
Skyscraper-ad
OKI France


Le Green IT n’est plus uniquement perçu comme une démarche de réduction des coûts mais il doit plus que jamais témoigner de la responsabilité sociétale et environnementale de l’entreprise et faire partie intégrante de sa stratégie de développement.

“The best analytics comes out from a combination of an art and a science”

A lire sur:  http://www.atelier.net/node/404104

Par L'Atelier - San Francisco 29 mars 2012  
risk ahead sign on cloudy sky
In a world of Big Data, many firms are turning to predictive analytics. However, data analytics cannot be fully substituted to a human expertise.
Interview with Tapan Patel, Global Marketing Manager at SAS at the Predictive Analytics World Summit.
L’Atelier : How can data inform decision-making in an organization ?
Tapan Patel : The subject of the year is Big Data: the growth in the volume, the variety and the velocity of data. Therefore, the first question is how can predictive analytics companies leverage big data; in terms of data management, getting the data ready for analytics purposes and applying different analytical techniques to solve variety of business problems. Second, how the insights you get from analytics have to be integrated into business processes to be really effective. The question is how organizations must build a culture of analytics among employees and across business units. They should be constantly sure that their employees have the training and the skill sets to leverage data analytics, and help them take the right decision in real time, thanks to this data.
L’Atelier : What is the advantage of relying on the services of an external data analytics organization rather than opting for a home made solution inside your company?
Tapan Patel : A home made solution can’t scale when it comes to applying analytics quickly for a variety of problems. For the company, it would mean having to develop every model from scratch, and this takes time. If you want to take advantage of moving quickly in the market, you should apply analytics fast to take fact based decisions. On the contrary, a commercial solution can help customers jump on and use variety of data sources, quickly apply new kind of pre-built modeling techniques, and automate model comparison and validation steps. However, this kind of solution is not 100% adapted to one’s firm, so that is why the software provided has to be complemented with best practices and domain expertise to fully meet the needs of the customers.
L’Atelier : To what extent will data-driven analytics make reliance on conjecture a thing of the past?
Tapan Patel : We have to make adjustments. In many analytics projects, data miners and statisticians take 70% to 80% of their time to data preparation. Data management, cleaning up the data, and treating them to make them ready for analyses is very critical for any kind of analytical project. The question is to what extent you can trust all of the data, given that there is necessarily some noise among them, and how far they are relevant for the problem you are trying to solve.
L’Atelier: So if you can’t trust data fully, is means human expertise still has a role to play in data analytics?
Tapan Patel:Social media data are especially hard to leverage. How can you assign quality to a tweet? How can you find who is relevant on social networks? In fact, predictive analytics is a science that will help you get from point A to point B, but the art comes in when you have to rely on the business expertise of the person who is going to take the decision in the end, and who has to take into account the weight of the noise. Finally, the best analytic insight comes out from a combination of an art and a science. Then, the analytic insight has to be quickly put in the hands of decision makers or integrated into business processes to take best decisions.

Manager le risque lors de sa transition dans le Cloud Vincent Berny, directeur des offres infrastructure services, Gfi Informatique

A lire sur:  http://www.infodsi.com/articles/130729/manager-risque-transition-cloud-vincent-berny-directeur-offres-infrastructure-services-gfi-informatique.html?key=

mercredi 28 mars 2012
Le Cloud Computing a continué à prendre de l’ampleur tout au long de l’année 2011 et les enjeux ne vont pas se démentir en 2012. On peut cependant comprendre la réticence de certaines entreprises à déporter hors de leurs propres centres de traitements leurs données, sensibles ou non. Les risques perçus sont largement évoqués sur les forums du Web : intrusions malveillantes, virus, failles logicielles, défaillances matérielles, pertes de données...

Cependant ces menaces, bien que réelles, sont largement prises en charge par les politiques de sécurité des opérateurs du Cloud. Lors des négociations contractuelles, le client potentiel peut obtenir une description de la politique de sécurité appliquée, il peut parfois négocier une politique spécifique et renforcée, et même auditer régulièrement son exécution. Mais au-delà du choix du « meilleur » prestataire, inhérent à tout projet informatique, les risques liés à la transition dans le Cloud sont à chercher ailleurs. On les retrouve en particulier en amont, pendant et après la bascule du SI vers la plateforme Cloud.

Transformer l’architecture de son SI

Pour les contrats de type IaaS et PaaS, en préambule de tout projet de migration dans le nuage, il faut garder à l’esprit que l’architecture informatique du prestataire peut ne pas correspondre (et ne correspond généralement pas) à l’architecture initiale de son SI.

Une phase préparatoire nécessaire pour réussir sa migration va donc consister à transformer l’architecture de son SI pour qu’elle puisse fonctionner correctement dans le Cloud. En effet peu de SI sont adaptés de façon initiale et dans cette perspective, la virtualisation et la standardisation des composants du SI sont des facteurs clés.

Les architectures proposées par les opérateurs sont basées sur la virtualisation et un catalogue limité de composants disponibles. Ces derniers permettent au client de constituer chacun des éléments de la plateforme cible (systèmes d’exploitations, middleware, base de données…). Ils sont souvent proposés pour un nombre restreint de versions courantes et supportées par les éditeurs partenaires.

Or, l’actualisation des composants des SI n’est fréquemment pas une tâche prioritaire au sein des entreprises. Bien souvent, une grande partie des applications en production intègrent des composants spécifiques qui ne sont pas maintenus dans les dernières versions des éditeurs. Il n’est pas rare même que des SI reposent sur des composants dont les versions ne sont plus supportées.

Passer au Cloud, c’est se contraindre avant la bascule, à migrer ses applications vers la virtualisation, intégrer des composants standards et à jour, puis à gérer rigoureusement l’actualisation des composants intégrés dans le SI. Il faut apprendre à gérer ses configurations dans le temps : l’architecture du SI va devoir évoluer au rythme des mises à jour du provider.

Lorsque l’on souscrit à une offre SaaS, il faut savoir que c’est souvent le prestataire opérateur qui va décider de la date de mise à jour d’une nouvelle version, comme cela doit être précisé dans le contrat. Cette mise à jour sera alors disponible simultanément pour tous ses clients. Cet aspect doit être anticipé par l’entreprise : la gestion des changements et de la synchronisation, de la formation des utilisateurs... sont des aspects très importants et gérés différemment de ce qui est fait dans une DSI interne.

Apprendre à externaliser

Le Cloud peut révolutionner la productivité d’une entreprise, mais aussi bouleverser la façon de travailler de sa DSI. Son enjeu majeur se résume en trois mots : maîtriser son externalisation.

Contrôle des niveaux de service, gestion des changements, information des utilisateurs, accompagnement dans la durée, opérations en dehors de la plateforme... vont devenir le quotidien de la DSI.

La DSI et l’entreprise doivent apprendre à travailler autrement et en particulier adopter une maîtrise d’ouvrage forte face à leur prestataire afin de contrôler le fonctionnement des SI externalisés, l’adéquation aux exigences de sécurité, les SLA (Service Level Agreement), piloter financièrement le contrat… Cette fonction de maîtrise d’ouvrage est essentielle et doit avoir été aménagés au sein de la DSI.

Le support aux opérations

Un autre point de vigilance concerne le support aux opérations, en particulier dans le cadre d’un SI complexe disposant d’interfaces et de besoins de contrôle spécifiques. Il faut définir dès le départ qui, du client ou de l’opérateur, va prendre en charge ces opérations.

Dans le premier cas, l’opérateur devra permettre au client de disposer des droits nécessaires sur la plateforme Cloud afin de pouvoir administrer et exploiter ses applications. Dans le second cas, le client devra s’assurer que l’opérateur dispose des compétences ad hoc pour s’en occuper. Ces dispositions simples sont pourtant essentielles et très proches d’un projet d’infogérance. Si elles n’ont pas été envisagées, on peut se retrouver avec une application dans le Cloud mais sans la possibilité de l’exploiter.

Dans le cadre d’un ERP ou d’un portail avec de nombreuses connexions et passerelles vers des SI internes, les clients, les partenaires... l’important est de définir clairement en amont qui va exploiter, qui va assurer la gestion des incidents, en bref toutes les opérations habituellement menées dans un SI en exploitation. Les deux options (délégation ou conservation de l’exploitation) sont à envisager au cas par cas pour chaque application, en fonction des compétences et besoins des deux parties.

Réversibilité

Dans les faits, la réversibilité est toujours possible et ne pose pas de difficulté technique. L’éventualité d’une sortie du Cloud doit cependant être envisagée avec sérieux. Si les logiciels utilisés sont standards, l’opération consiste à récupérer les données et à les réinjecter dans un SI en propre ou un autre Cloud. Mais il faut que tout ceci ait été mentionné dans le contrat d’infogérance.

Dans le cas de logiciels non standards sur le marché, on se retrouve dans un cas de figure proche du contrat logiciel : il faut alors prévoir la notion d’achat ou de location de la solution logicielle. Il faut aussi qu’en cas de disparition du prestataire, ses clients puissent récupérer en plus des données, les objets et sources du logiciel.

Ce sont là des précautions spécifiques d’une prestation de type SaaS. Travailler en mode SaaS nécessite donc de cumuler les précautions que l’on doit prendre vis-à-vis d’un éditeur et d’un infogérant ! Différents types de clauses doivent être associées ce qui résulte en des contrats souvent assez complets.

Vers un label pour le Cloud ?

Les bonnes pratiques du Cloud Computing sont donc aujourd’hui proches de celles de l’externalisation IT et de l’acquisition de logiciels. Une labellisation spécifique au Cloud pourrait à l’avenir être un nec plus ultra pour les prestataires, un tel outil permettant aux entreprises de clarifier l’offre Cloud qui leur est proposée.

De la même façon que l’on sait aujourd’hui certifier les processus d’un centre de service, les services Cloud seront amenés à être certifiés selon des normes permettant de comparer les opérateurs entre eux, au plus grand bénéfice des clients.

Le Diagnostic Flash, une donnée stratégique de la démarche TEM

A lire sur:  http://www.infodsi.com/articles/130731/diagnostic-flash-donnee-strategique-demarche-tem-christophe-dorin-directeur-ventes-consotel.html?key=

Par Christophe Dorin, Directeur des ventes de Consotel

mercredi 28 mars 2012
Le Diagnostic Flash est une analyse qui s’inscrit en amont de la mise en place d’une stratégie télécom, quelle qu’elle soit. Il permet aux experts de bien connaître le client, de comprendre ses besoins, ses objectifs, ses capacités et de proposer une méthode d’action. Il est une composante importante du Telecom Expense Management (1)

Le but d’un tel procédé est d’obtenir une vision large de la problématique qui préoccupe le client. Il s’agit d’identifier les « douleurs » qui le gênent dans son organisation, dans ses dépenses d’infrastructures… et de mettre en évidence tous les éléments qui auront un impact lourd sur sa stratégie.

Mais à cet aspect « Diagnostic » se rajoute une dimension temporelle : la caractéristique « Flash ». La rapidité est en effet essentielle pour cette intervention. C’est une des clefs de son efficacité.
Dans les faits, des experts quadrillent de façon méthodique le périmètre du client : voix ou data mobile, fixe, réseau… La démarche permet de comprendre comment mieux gérer les différents aspects de la gouvernance télécom. L’optimisation des aspects tarifaires et contractuels est à ce titre un des nombreux leviers qu’il est possible d’utiliser.

En effet, cette analyse doit prendre en compte l’actualité du marché et permet une veille des dynamiques et outils existant. Actuellement par exemple, le Bring Your Own Device (2)  est à la mode. Mais chaque société est différente. Un Diagnostic Flash permet de définir si le BYOD est nécessaire et pourquoi. Quels sont les avantages financiers, techniques, organisationnels ? Et surtout : comment le BYOD devra-t-il être porté et piloté dans l’entreprise, s’il s’avère être une vraie opportunité ?

Quels sont les avantages de la démarche Diagnostic Flash ?

Le Diagnostic Flash est une mise au point initiale, qui permet de prendre du recul vis-à-vis de l’écosystème du client, par une vision globale. Sur des sujets comme la gestion des flottes mobiles ou de la téléphonie IP, les contrats sont souvent des « hybrides » avec des composantes complexes, à la fois techniques, financières, et organisationnelles. Il est donc nécessaire de prendre de la hauteur, car de nombreuses questions vont invariablement se poser : Est-ce qu’il vaut mieux racheter son contrat ? Faut-il mettre en place un outil de pilotage sur ces problématiques ? Qui va réellement s’en servir ? Et quel va être le ROI d’une telle démarche ?

Dès lors, le Diagnostic Flash ne se positionne pas comme une source de coût, mais bien comme un outil pratique qui permet de dégager du ROI et du Temps pour l’entreprise.
La mise à disposition d’experts a pour seul but de fournir des conseils pragmatiques, en donnant la priorité à l’immédiateté. La démarche permet de dresser un inventaire de tout ce que sait faire le client et de ce dont il a besoin. Une action rapide est ensuite possible.

Comment réalise-t-on un Diagnostic Flash ?

Il est réalisé en 2 étapes

·         Etape 1 : Phase de cadrage et de collecte d’informations
Cette collecte d’informations se fait via des canaux automatisés. Elle concerne aussi bien les données de facturations, que les contrats, ou encore les schémas des réseaux et télécoms.
Ce repérage initial s’enrichit d’un entretien de direction qui permet de définir avec le client une macro-vision du sujet et de définir avec exactitude un ciblage. D’autres entretiens orientés « vision métier » peuvent s’avérer également nécessaires. Ils donnent une idée de la façon dont fonctionne concrètement l’entreprise. Grâce à ces rencontres, il est possible de déterminer l’écart entre la volonté, le ciblage et les capacités dont l’entreprise dispose.

·         Etape 2 : Phase de diagnostic et de recommandations


Cette étape permet d’atteindre la « mise à la cible » précisée avec l’entreprise. Il s’agit d’expliquer très concrètement : « Voilà où vous êtes. Voilà où vous voulez aller. Et voici le chemin que vous devez suivre pour réussir ». Cette analyse implique souvent une remise à plat des process internes, mais permet aussi de définir le ROI pour le client : Quel gain de temps ? Quel contrôle du budget ? Quel impact en management ? Le Diagnostic Flash, répond donc à la fois au « Pourquoi ? » et au « Comment ? », en mettant en évidence un workflow cohérent.

Il est donc réalisé une véritable cartographie des axes problématiques pour l’entreprise. L’organisation du travail est parfaitement mise en évidence et les éléments à modifier sont listés point par point. En enchainant ces deux étapes, l’on obtient donc au final une identification optimale de toutes les opportunités intéressantes ; agir efficacement sur sa stratégie télécom est alors possible.


(1) Le TEM (Telecom Expense Management) est un ensemble de solutions, d'outils et services Télécoms ayant pour objectifs de gérer au mieux les actifs télécoms, maîtriser et réduire les coûts

(2) Le Bring Your Own Device (BYOD)est un phénomène où les employés utilisent des outils personnels mobiles (Smartphones, tablettes…) à des fins professionnels. Ce concept pose le problème de la frontière entre vie privée et professionnelles, mais aussi de la gestion de ces appareils qui ne sont pas la possession de l’entreprise.

Le SaaS est l’avenir du logiciel

A lire sur: http://www.infodsi.com/articles/130772/saas-est-avenir-logiciel.html?key=

mercredi 28 mars 2012
En 2012, les revenus du marché mondial du SaaS devrait atteindre les 14,5 milliards de dollars, soit une progression de 17,9% par rapport à 2011. Et selon le Gartner, la croissance devrait se poursuivre au moins jusqu'en 2015, date à laquelle ces revenus devraient dépasser les 22 milliards de dollars.

 « Après une décennie d’adoption d’utilisation, l’adoption du SaaS continue à se développer dans les entreprises, commente Sharon Mertz, directeur de recherche au Gartner.La plus grande familiarité avec le modèle SaaS, l’intérêt pour le PaaS (Platform as a service) qu’expriment  les communautés de développeurs et l’intérêt pour le cloud computing sont aussi des facteurs de croissance pour ces nouvelles manières d’utilisation des ressources informatiques ».

La raison principale pour l’adoption du SaaS est différent selon les trois grandes zones géographiques : Aux Etats-Unis, c’est la facilité et la rapidité de développement et de mise en œuvre alors qu’en Europe et en Asie/Pacifique c’est le coût total de possession (TCO).
Le marché nord américain est le plus mature et le plus développé avec plus de 9,1 milliards de dollars de chiffre d’affaires, une offre hyper large et de très nombreux acteurs. »

Si toutes les régions du monde sont concernées par cette tendance, en Europe de l'Ouest le chiffre d'affaires du marché du SaaS devrait dépasser les 3,2 milliards de dollars cette année. Gartner note, en effet, que dans les pays matures d'Europe de l'Ouest, principalement les pays du Nord, les offres SaaS sont de plus en plus nombreuses et que leur adoption va crescendo (sur un rythme similaire à celui observé en Amérique du Nord). Dans les pays de l'Est, il faut voir à plus long terme, les marchés étant plus petits et encore émergents. 

mercredi 28 mars 2012

Préparatifs de normalisation pour le "Cloud fabriqué en Allemagne"


http://www.bulletins-electroniques.com/actualites/69569.htm
Le Centre de recherche allemand pour l'informatique (Forschungszentrum Informatik, FZI, situé à Berlin) et la société internationale de conseil en stratégie Booz & Company ont mené une étude pour le Ministère fédéral de l'Economie et de la technologie (BMWi) sur la question actuelle de l'environnement de normalisation pour les technologies de Cloud computing. En effet, si les économistes et les scientifiques s'attendent à un changement radical dans l'utilisation des ressources informatiques via les technologies de Cloud, le défi annoncé par les fournisseurs et les autorités publiques réside dans l'établissement de standards de sécurité communs. Le BITKOM, fédération allemande des TIC, prévoit ainsi une croissance explosive du Cloud computing et a annoncé début mars au CeBIT que son marché devrait augmenter d'au moins 47% en 2012.

Le groupe de recherche du FZI sur le Cloud computing a identifié dans son étude plus de 150 normes techniques et juridiques naissantes, ainsi que des normes internes de gestion variées. 20 normes ont été sélectionnées, analysées et évaluées, dans le but de pouvoir proposer un canevas réglementaire pouvant être partagé. L'étude, intitulée "L'environnement de normalisation et de réglementation du Cloud computing", est disponible gratuitement [1].

La volonté du BMWi est de souligner que si l'ingénierie allemande a une réputation en termes de fiabilité technique et de normes de sécurité élevées, alors elle devrait développer la même image pour les nouvelles technologies d'information et de communication décentralisées. Dans l'optique de pouvoir développer une étiquette de confiance "Cloud made in Germany", le BMWi avait déjà préparé la voie avec des appels à projet de R&D dans le cadre de son Programme "Trusted Cloud" [2]. Après cette phase d'investigation, l'étude commandée à FZI et Booz & Company s'inscrit dans cette volonté, examinant l'environnement de normalisation naissant dans le Cloud computing, que beaucoup d'acteurs publics ou privés aimeraient façonner à leur manière pour des raisons de rigueur ou d'avance temporelle. 



Pour en savoir plus, contacts :
   - [1] L'étude complète de 166 pages et le résumé de 20 pages (en allemand et en anglais) avec des diagrammes et tableaux d'illustration peuvent être téléchargés à partir d'Internet (Résumé: http://bit.ly/wdBnQE, version longue: http://bit.ly/xl5AxK).
  - [2]"Le BMWi présente les lauréats du concours "Trusted Cloud", BE Allemagne 519 - 24/03/2011 - http://www.bulletins-electroniques.com/actualites/66221.htm - "Cloud Computing : des chercheurs de Bochum ont découvert des failles de sécurité critiques", BE Allemagne 529 - 10/06/2011 - http://www.bulletins-electroniques.com/actualites/66982.htm
Code brève ADIT : 69569
Sources : "Vorarbeiten für die "Cloud made in Germany"", dépêche idw, communiqué de presse du FZI - 26/03/2012 - http://idw-online.de/pages/en/news469671
 Rédacteurs : Charles Collet, charles.collet@diplomatie.gouv.fr - http://www.science-allemagne.fr spacer spacer

Priorités DSI 2012 : la rigueur l’emporte aussi dans les projets IT

A lire sur :  http://www.zdnet.fr/actualites/priorites-dsi-2012-la-rigueur-l-emporte-aussi-dans-les-projets-it-39769905.htm#xtor=EPR-100


Décisions IT - Avec 38% des décideurs informatiques interrogés par ZDNet.fr prévoyant un budget IT stable et 28% en baisse sur un an, c’est la prudence qui semble être privilégiée en 2012 en matière de projets informatiques. Les projets sont ainsi très resserrés sur quelques domaines, en priorité dans les secteurs du poste de travail et des serveurs.
Priorités DSI 2012 : la rigueur l’emporte aussi dans les projets IT
Cliquer sur l'image pour passer à la suivante
Une hausse de budget pour 33% des DSI
C’est une des tendances constatées par les principaux cabinets : 2012 sera vraisemblablement une année de rigueur budgétaire dans le secteur de l’IT. Cette perspective, et la prudence des DSI, se confirme puisque pour 38% des 247 référents informatiques interrogés par ZDNet.fr, les budgets seront stables par rapport à 2011.
Ils sont en outre 20% à annoncer des budgets en baisse de plus de 5%, soit bien plus que la part des répondants prévoyant au contraire de bénéficier en 2012 d’une hausse supérieure à 5%. Cette tendance à la stabilité des budgets ne débouchera toutefois pas nécessairement sur des gels de projets, mais certainement par des reports et de nouvelles priorités, notamment la recherche d’économies ou un œil plus aiguisé sur les ROI.
Les questions soumises à 247 répondants étaient à choix multiples, ce qui explique que la somme des résultats dépasse les 100% sur la majorité des slides

Marché du SaaS : +18 % en 2012 (Gartner)

A lire sur:  http://paper.li/jpperrein/1307886848?utm_source=subscription&utm_medium=email&utm_campaign=paper_sub

Le chiffre d’affaires mondial généré par le SaaS devrait passer de 12,3 milliards de dollars en 2011 à 14,5 milliards de dollars en 2012. Soit une croissance à deux chiffres.
Selon le cabinet Gartner, le marché du SaaS (Software as a Service, un des piliers du cloud computing) devrait continuer à progresser cette année, avec une croissance estimée à +17,9 %. Le chiffre d’affaires du secteur devrait ainsi bondir de 12,3 milliards de dollars à 14,5 milliards de dollars.
En 2015, le chiffre d’affaires de ce marché pourrait culminer à 22,1 milliards de dollars, ajoute ITespresso.fr. « La familiarisation de plus en plus grande avec ce modèle, l’attention portée aux budgets IT, la croissance des communautés de développeurs autour des plates-formes PaaS et l’intérêt porté au cloud computing vont accroître l’adoption du SaaS », souligne Sharon Mertz, directrice de recherche pour Gartner.

L’Amérique du Nord et l’Europe en pointe

Toutefois, la situation demeure contrastée selon les régions, plus ou moins dynamiques en la matière. Figure de proue : l’Amérique du Nord, une des régions les plus matures dans le domaine du SaaS, rapporte le cabinet d’analyses. Les revenus en 2012 liés au SaaS sur ce continent, notamment aux États-Unis, devraient atteindre les 9,1 milliards de dollars (7,8 milliards de dollars en 2011).
L’Europe de l’Ouest s’en sort bien, avec un chiffre d’affaires estimé cette année à 3,2 milliards de dollars, contre 2,7 milliards en 2011. En Europe de l’Est, la situation devrait être plus en demi-teinte, puisque le chiffre d’affaires du SaaS devrait se situer aux alentours de 169,4 millions de dollars (135,5 millions de dollars en 2011), en faisant toujours un marché émergent.
Une adoption à deux vitesses donc sur le continent européen, avec une multiplication des offres, des éditeurs et des distributeurs de logiciels hébergés à l’ouest.
Crédit photo : © Ben Chams – Fotolia.com

Avant de déployer une application dans le cloud public, posez-vous ces trois questions

A lire sur :   http://cloud-experience.fr/avant-de-deployer-une-application-dans-le-cloud-public-posez-vous-ces-trois-questions.html?utm_campaign=newsletter&utm_medium=email&utm_source=nlbimensuelle

Posté par Cloudexp le 28 mars 2012
panneau Le cloud s’impose progressivement dans les entreprises… L’enquête Data Centre Decisions 2011 révèle que l’adoption du cloud est en forte croissance. Selon cette enquête, 36 % des sociétés interrogées ont adopté une solution cloud en 2011, en hausse sur les 31 % de 2010.

Par ailleurs, une enquête Future of Cloud Computing 2011 indique que 40 % des répondants se livrent à des expérimentations avec le cloud, et que 13 % d’entre eux font entièrement confiance au cloud pour héberger des applications stratégiques. Mais qu’en-est-il de cette confiance, dès lors qu’on parle de cloud public ?

On le voit, l’adoption du cloud, c’est une affaire qui marche ! Par contrecoup, la question pour de nombreuses sociétés n’est plus si elles vont adopter une solution cloud, mais plutôt quand et comment. Se pencher sur le quand et le comment revient à se demander quelles applications déployer dans le cloud. La réponse à cette question dépend davantage des données traitées par chaque application que des applications elles-mêmes. Et lorsqu’il s’agit de cloud public, la vigilance s’impose.

Pour apporter la meilleure réponse possible, Christian Verstraete, responsable des stratégies cloud chez HP, conseille d’explorer les trois points suivants :

1. Les données utilisées par l’application sont-elles sensibles ?

La sécurité du cloud public demeure une préoccupation. Selon le rapport 2011/12 World Quality Report(préparé par CapGemini, Sogeti et HP), la sécurité est citée par 55 % des répondants comme le risque le plus sérieux dans l’utilisation d’un environnement cloud public.

Cette constatation n’implique pas que le cloud public est une solution à risques pour toutes les données, mais les entreprises doivent réfléchir soigneusement avant d’envoyer des données vers un environnement cloud public. En attendant que les prestataires de services cloud public soient en mesure de garantir des environnements cloud parfaitement sécurisés, il est sans doute préférable de conserver en local les données les plus sensibles (données client, données financières, données concurrentielles, etc.).

2. Quelle est l’importance des flux de données nécessaires à l’application ?

Le cloud libère de l’espace dans les datacenters, accélère le développement et le déploiement des nouveaux services et améliore la souplesse globale de l’entreprise, mais la connectivité réseau entre cloud et le réseau local de l’entreprise n’est pas toujours satisfaisante.

Dans la plupart des cas, il est préférable que les applications soient à distance réduite des données auxquelles elles doivent accéder. En effet, si une application dans le cloud doit échanger fréquemment des volumes importants de données vers d’autres applications ou vers des données hébergées en local, le temps de latence de ces opérations peut affecter les performances.

L’une des solutions consiste à stocker une copie des données dans le même cloud que l’application (à éviter avec les données sensibles). Une autre solution consiste à déployer un cloud privé en local. Ce qui -par ailleurs- est supposé désamorcer tout problème de sécurité, puisque c’est vous qui appliquez vos politiques de sécurité d’entreprise sur votre cloud privé !

3. Les données cloud sont-elles soumises à des obligations de conformité ?

Les décisions relatives au cloud ne sont pas uniquement techniques ou financières ; vous devez parfois tenir compte de certains aspects juridiques. Si vous traitez des données soumises à des obligations de conformité, vous devez garantir cette conformité dans tous les contextes.

Au stade actuel, la transparence des premiers clouds publics est insuffisante pour répondre aux obligations de conformité. Le simple fait de stocker des données dans le cloud n’implique pas automatiquement un déficit de conformité, mais il n’est pas toujours possible de démontrer la conformité des données en cloud.

Les environnements cloud plus récents s’orientent de plus en plus vers la solution « cloud privé », qui garantit une meilleure visibilité sur les mouvements de données. En conclusion, tant que vous n’êtes pas en mesure de garantir la conformité des données de votre cloud, il est conseillé de conserver ces données en local.

Applications stratégiques vs applications contextuelles

Geoffrey Moore, consultant et fondateur de tcg-advisors.com, propose un point de vue particulier sur le cloud en dissociant les applications stratégiques des applications contextuelles. Les applications stratégiques sont celles qui vous permettent de faire la différence avec vos concurrents. C’est par exemple vos environnements ERP, ou vos applications de Recherche et Développement, ou encore vos applications de Gestion de la Relation Client. A l’opposé, les applications contextuelles sont celles qui ne font pas partie de la catégorie stratégique. Par exemple, des intranets ne publiant pas d’informations confidentielles, dans certains cas les applications de messagerie et de collaboration unifiée…

Christian Verstraete recommande de conserver les applications stratégiques en local pour en garder le contrôle et pour qu’elles soient aussi sécurisées que possible. Les applications contextuelles peuvent être déployées sans crainte dans le cloud public (en veillant malgré tout à protéger leurs données).

Pour approfondir…

Lire l’article original

Printemps de l'USF : le Big Data expliqué en détail

A lire sur: http://www.cio-online.com/actualites/lire-printemps-de-l-usf-le-big-data-explique-en-detail-4224.html?utm_source=mail&utm_medium=email&utm_campaign=Newsletter


Edition du 22/03/2012 - par Maryse Gros
Printemps de l'USF :


Le vent des Big Data a soufflé aussi sur le Printemps de l'USF. Mardi matin, le club des utilisateurs SAP francophones s'est penché sur le sujet, tandis que les grands fournisseurs IT sortent l'un après l'autre des solutions dans ce domaine. Invité à en parler devant les adhérents, le Gartner a évoqué les multiples formes que prendrait l'exploitation de cette avalanche de données. Mais il n'existe pas de solution miracle.
Claude Molly-Mitton, président de l'USF, a invité différents intervenants à exposer la réalité et les enjeux des Big Data aux utilisateurs de SAP, cette semaine à Paris. Le club francophone compte aujourd'hui 2 700 adhérents, soit une progression d'environ 13% en 2011 du nombre de membres et de sociétés représentées. L'association a prévu de réactiver son livre blanc sur les bonnes pratiques de la relation commerciale avec l'éditeur, co-écrit avec le Cigref. « Il sera mis à jour pour la prochaine Convention USF qui se tiendra à Dijon les 3 et 4 octobre prochains », leur a annoncé le président. Un autre livre blanc sur Solution Manager est également planifié. Au cours de l'après-midi, le Printemps de l'USF avait programmé des groupes de travail sur les applications SAP. Deux étaient ouverts à tous, adhérents ou non, celui de la Commission PME Ile-de-France et celui sur la norme 4DS.

Pour ce Printemps, le choix des Big Data au menu de l'USF se justifie par les applications que leur traitement permet d'envisager, « impensables jusque-là », a souligne Claude Molly-Mitton pour qui il ne s'agit en aucun cas, « d'un thème marketing ou médiatique ». Cinq orateurs se sont tour à tour exprimés, envisageant différents aspects du sujet. Parmi eux, le DSI de La Poste (90 millions de tris quotidiens sur le courrier) a présenté son projet.

Roxane Edjlali, directeur de recherche au cabinet Gartner a livré une approche globale de la question. « Le pilier de cette problématique, ce sont les données que l'on continue à accumuler », a-t-elle rappelé. Elles sont collectées par les sites web, les réseaux sociaux, les téléphones mobiles  et la géolocalisation, mais aussi par la télémétrie, la RFID et les multiples sondes et capteurs posés ici et là.  « C'est une réalité. On peut choisir de l'ignorer ou de s'en servir. Chez Gartner, nous pensons qu'utiliser ces données de façon cohérente sera plutôt un avantage concurrentiel pour les entreprises ». Si ces informations sont valorisables, elles auront un impact sur leur stratégie.

La volumétrie n'est qu'un des aspects

Pour le cabinet d'études, « les organisations qui seront capables d'intégrer la diversité de ces données vont dégager d'ici 2015 une compétitivité financière supérieure de 20% à celles de leurs pairs ». Les utilisations seront cependant très diverses et prendront de nombreuses formes, a précisé l'analyste en rappelant que 60 à 80% des informations d'une entreprise étaient non structurées.  « 1,2 zettaoctets de données IT ont été générés dans le monde en 2010, soit autant que depuis le début de l'informatique  », a mentionné un peu plus tard François Stéphan, directeur délégué du CRIP, le club des responsables d'infrastructure et de production. « Des données qui résultent de la numérisation de notre économie, a-t-il rappelé, qui vont en outre plus que doubler tous les deux ans et que l'on ne peut pas traiter avec les outils classiques. »

Le phénomène Big Data ne borne pas à un problème de volumétrie. Loin s'en faut. « Ce n'est qu'un des aspects. Il y a aussi la vélocité des données. Elles peuvent être mesurées en temps réel avec peu de latence, par exemple avec les capteurs, ou bien arriver sous la forme de pics soudains, sur Twitter notamment », explique l'analyste. A cela s'ajoute  la variété de l'information recueillie (images, vidéos, textes...) et sa complexité. « Beaucoup de ces données sont externes à l'entreprise qui a peu de pouvoir pour les gérer ou les nettoyer ». L'aspect qualitatif diffère ici sensiblement par rapport aux données transactionnelles qui sont associées à des principes de gouvernance.

L'infrastructure IT impactée sur douze axes

Dans son ensemble, le phénomène Big Data « va affecter votre infrastructure sur douze axes », a expliqué Roxane Edjlali aux adhérents de l'USF (*). Aux quatre déjà cités (volume, vélocité, variété, complexité), elle ajoute la périssabilité des informations : « Combien de temps va-t-on les garder ? » Les données doivent aussi être corrélées, reliées à d'autres qui les enrichissent. « Cela fait partie de la qualification de l'information. Si on ne peut pas relier l'information à d'autres, est-elle bien utile ? », pointe Roxane Edjlali. Elle cite encore tous les aspects juridiques sur la rétention de l'information, questions abordées un peu plus tôt dans la matinée par Maître Christiane Feral-Schuhl, avocate spécialisée en nouvelles technologies. Cette dernière avait aussi largement évoqué la démarche Open Data qui conduit à l'ouverture des données publiques, celles-ci pouvant dès lors être corrélées avec d'autres informations.

Roxane Edjlali, directeur de recherche chez Gartner, intervenant sur les Big Data
Crédit photo : Nicolas Fagot

Estimer les coûts

Par les équipes de TenStep Francophone
TenStep Francophone

Maintenant que vous avez estimé l’effort et la durée du projet, vous êtes en mesure d'estimer les coûts. Vous pouvez effectivement estimer plut tôt un bon nombre des coûts non salariaux, mais vous n’êtes pas en mesure d’estimer les coûts de la main-d’œuvre jusqu'à ce que vous puissiez évaluer la main-d’œuvre nécessaire pour atteindre les estimations de la durée.
Estimer les coûts de la main-d’œuvre
Le coût de la main-d’œuvre découle, pour chaque personne, du nombre d’heures de travail multiplié par le coût horaire. Dans de nombreuses entreprises, le coût de la main-d’œuvre des employés internes est considéré comme nul, puisque son coût est déjà compris dans le budget du service. Cela ne signifie pas que cette main-d’œuvre n’occasionne aucun coût, mais suppose plutôt qu’il n’y a aucun accroissement par rapport à ce que l’entreprise paye déjà.
Si vous calculez un coût horaire moyen par employé, ce chiffre pourrait inclure ou non les avantages sociaux. Dans certaines entreprises, les avantages sociaux des employés sont ajoutés à l’estimation totale du projet. Pour d’autres, ces coûts ne sont pas pris en considération. Si vous incluez le coût des avantages sociaux, il est habituellement calculé sur la base d'un pourcentage. Vous pouvez utiliser un pourcentage fixe des coûts horaires.
Si vous avez recours à du personnel contractuel externe ou à des consultants, leurs coûts doivent toujours être estimés et budgétés. Vous devez déterminer de quel type de ressources humaines externes vous avez besoin ainsi que le taux horaire qui leur est appliqué, puis multiplier le taux horaire de chaque personne par le nombre d’heures où chacune d'entre elles sera assignée au projet. Si vous n’êtes pas certain du coût réel de ces ressources humaines, vous devez émettre quelques hypothèses en vous basant sur le type général de ces ressources. Par exemple, vous pouvez vous baser sur le coût horaire standard d’un comptable ou d’un programmeur contractuel. Si vous n’êtes pas sûr que votre projet fera appel à la participation de ressources externes, vous pouvez émettre des hypothèses élémentaires concernant le personnel et les consigner sous le nom d'hypothèses.
Estimer les coûts non salariaux
Les dépenses qui ne sont pas liées à la main-d’œuvre comprennent tous les coûts qui ne se rapportent pas directement aux salaires et à la rémunération des contractuels. Certains de ces coûts, comme les dépenses de formation ou de constitution de l’équipe, concernent des personnes. Cependant, ils sont tout de même considérés comme des coûts non salariaux puisqu’ils ne concernent pas les salaires et les heures de travail contractuels. Notez également que dans certaines compagnies, les coûts de la main-d’œuvre incluent seulement les employés et non les coûts liés aux contractuels. Chaque chef de projet doit être conscient des règles de comptabilité de sa compagnie pour s’assurer que les coûts de la main-d’œuvre et les coûts non salariaux soient répartis correctement.
Les coûts non salariaux comprennent généralement:
·   L’équipement informatique et les logiciels
·   Les frais de déplacement
·   La formation
·   La constitution de l'équipe
·   D’autres équipements
·   D’autres fournitures et matériel
Documentez toutes les hypothèses
Vous ne pourrez jamais connaître tous les détails d’un projet. Par conséquent, il est important de documenter chacune des hypothèses que vous émettez tout au long de l’estimation.
Terminologie de management de projet
Écart de coût. Mesure de rendement du coût dans un projet. L'écart de coût est égal à la différence entre la valeur acquise (VA) et le coût réel (CR). EC = VA moins CR.
Échéancier des jalons. Échéancier récapitulatif dans lequel figurent les principaux jalons. Voir aussi Échéancier directeur.
Abréviations courantes
PV (anglais) : Planned Value
VP (français) : Valeur planifiée
Liens intéressants
Logiciel: Actano Inc.
·   Société: Actano Inc., Troy, Michigan, États-Unis d'Amérique
·   URL: www.actano.com
·   Catégorie: Planification de travail basée sur le WEB
·   Fonctionnalités:
o    Prévoit des dates d'achèvement de projet
o    Permet aux utilisateurs de programmer des lots de travaux et des tâches, et de lier leurs activités à celles des membres de leur équipe
o    Avise des modifications apportées aux tâches et au calendrier
o    Distribue par e-mail les rapports de projet aux membres de l'équipe

L'espace de travail ne se limite plus aux frontières de l'entreprise

A lire sur: http://www.atelier.net/trends/files/lespace-de-travail-ne-se-limite-plus-aux-frontieres-de-lentreprise

Le phénomène du "BYOD*" a accéléré l'acceptation par les compagnies que leurs salariés pouvaient être tout aussi efficaces s'ils travaillaient dans des lieux et à des horaires plus flexibles. Une souplesse qui requiert néanmoins des cadres.
Homme pianotant sur son smartphone
Multiplication des appareils électroniques permettant de réaliser de nombreuses tâches... Engouement des salariés pour ces outils, utilisés au travail, et pour le travail, quel que soit l'endroit... Augmentation de la demande de mobilité et de flexibilité... Autant de tendances qui font que les entreprises commencent à envisager le fait que l'espace de travail ne doit et ne peut plus être réduit à un espace et à un lieu uniques. Selon Citrix, en France, ce sont ainsi plus de neuf grandes entreprises sur dix qui devraient mettre au point des environnements de travail flexibles d'ici 2013. Cela, soit en autorisant l'usage des appareils mobiles personnels ou professionnels, voire en proposant des applications dédiées. Soit en s'interrogeant sur les modifications structurelles que ces nouvelles frontières annoncent. Plus de mobilité pourrait ainsi impliquer la création de nouveaux postes, comme celui d'un directeur de la mobilité.

Repenser ses métiers

Cela oblige aussi certains métiers, comme celui de l'informatique, à repenser son fonctionnement et son rapport à l'information. Voilà en tout cas ce que soulignaient récemment deux études publiées par Forrester Research. Fait intéressant : il serait réducteur de penser que cette demande de travail et d'efficacité en mobilité ne touche que certaines professions comme les cadres ou certains secteurs. Dans l'immobilier par exemple,  Cushman & Wakefield a lancé CW Mobile, une application permettant à un agent de travailler avec son client sur les lieux mêmes de la propriété qui l'intéresse. Le module permet de se renseigner sur l'environnement à proximité et sur le bâtiment. Autre secteur impacté : celui de la construction. Une étude réalisée par Channel Marketing Group et Allen Ray Associates rappelait récemment que les professionnels du secteur sont de plus en plus nombreux à utiliser ordinateur, smartphones et tablettes pour accéder depuis un chantier à des informations décisionnelles.

Des étapes à franchir

Le but de ces compagnies n'est pas philanthropique : décloisonner signifie aussi la possibilité de réduire les dépenses informatiques et améliorer la productivité et l'engagement. Cependant, avant de pouvoir parler d'un espace de travail complètement flexible, de nombreuses étapes restent à franchir. Notamment au niveau sécuritaire : cet éparpillement de l'information suscite de nombreuses inquiétudes et ralentit l'implémentation de projets de travail en mobilité. Dans des pays comme la France, c'est aussi toute une culture d'entreprise qu'il faudra faire évoluer. En effet, selon une autre étude de Citrix, beaucoup d'entreprises restent attachées à la présence physique de leurs salariés. Salariés qui sont enfin souvent peu au courant de leurs possibilités de travailler à distance, ou en mobilité. Cette même étude rappelle ainsi que plus de quatre personnes sur dix ne seraient pas au courant de la politique de leur entreprise sur le sujet.
*Bring your own device

Sommaire

Les grandes entreprises commencent à intégrer le travail en mobilité

Par L'Atelier - Paris 15 mars 2012 
Télétravail
Le phénomène "Bring your own device" devrait se développer de façon significative. Un nombre non négligeable de grandes compagnies françaises devrait ainsi laisser le choix du mode de travail à leurs salariés d'ici fin 2013.
L'espace de travail a de fortes chances de prochainement ne plus se cantonner au bureau : selon une étude* rendue publique par l'entreprise Américaine Citrix, plus de neuf entreprises françaises sur dix de plus de cinq cents employés envisageraient de mettre en place des environnements de travail flexibles d'ici fin 2013. Le rapport, qui dresse un état des lieux du télétravail en France dans les grandes entreprises françaises, rapporte que pour les professionnels de l'informatique interrogés, il faut laisser le choix du lieu de travail et du matériel pour mettre les collaborateurs dans les meilleures conditions.

Des avantages partagés

Les principaux bénéfices pour la marque ? Une réduction des coûts de l'entreprise et des dépenses informatiques indéniables pour 52% des responsables informatiques français interrogés. Mais également, un gain de productivité pour 54% d'entre eux et une amélioration de la qualité de service pour 41%. Côté salariés, c'est la liberté de travailler de n'importe où qui ressort évidemment comme principal facteur de motivation pour plus de six personnes sur dix. Cela, sous condition de posséder le matériel le plus adapté.

Les grandes entreprises en retard par rapport aux PME

Même si les grandes entreprises sont enthousiastes par rapport au travail nomade, il existe un écart important dans la pratique avec les PME. Confrontées aux lourdeurs systémiques pour opérer des choix organisationnels et technologiques, le rôle des DSI est de première importance dans la conduite du changement. L'enjeu pour eux est d'accompagner des collaborateurs de plus en plus nomades. A noter que depuis le 29 février 2012, le télétravail, l'une des formes du travail à distance, est reconnu par le droit en France. L'Assemblée Nationale a en effet adopté une proposition de loi visant à intégrer le télétravail dans le code du Travail.
* menée auprès d'un échantillon de 1 100 responsables informatiques de grandes entreprises françaises et de dix autres pays en octobre 2011