jeudi 26 juin 2014

Regard sur le présent et le futur de l'analytique

A lire sur: http://business-analytics-info.fr/archives/6149/regard-sur-le-present-et-le-futur-de-l%E2%80%99analytique/

03/06/2014
Auteur du best-seller « Win with Advanced Business Analytics » et vice-président de Monster Worldwide, Jean-Paul Isson promeut une analytique intégrée, générant une connaissance pratique qui alimente les prises de décision des entreprises. Il décrypte les ressorts qui aident les entreprises à passer d’une culture de prise de décision basée sur l’intuition à une culture analytique centrée sur les données et basée sur des faits. Pour en convaincre la direction, il suffit de lui en présenter les bénéfices mesurables.
analytics temps
Jean-Paul Isson est Global VP Predictive Analytics & BI chez Monster Worldwide, le leader mondial de la gestion de carrière en ligne. A l’occasion de la conférence annuelle de l’Association canadienne du marketing, il a livré son point de vue sur le métier de l’analytique et son regard sur son avenir. Partant du constat que les entreprises les plus agiles s’efforcent d’étayer leurs prises de décision sur l’analyse de données plutôt que sur l’intuition de leurs managers, il considère que l’analytique va devenir la norme dans la grande majorité des entreprises, à condition de convaincre la direction de ses bienfaits. Et pour cela, quoi de mieux qu’une étude de ROI, qui met en relief les apports de l’analytique, au niveau de la fidélité des clients, de la productivité des campagnes marketing et le niveau de satisfaction des clients ?
Selon lui, les entreprises ne disposant pas de spécialistes de l’analyse de données ou des Big Analytics (analyse des big data) au mieux prendront du retard sur leur concurrence, au pire feront faillite. Jean-Paul Isson pense que dans un futur proche les entreprises se concentreront plus sur l’acquisition de connaissances directement exploitables dans un contexte opérationnel (« actionable insights ») que sur les données – big ou pas – elles-mêmes. Et pour y parvenir, il considère que la visualisation de données élargira l’accès aux analyses à des publics de plus en plus variés et nombreux. La science de la donnée se déploiera peu à peu dans les entreprises avec un département spécialisé, dédié à la résolution de problématiques sociales. Enfin, si la valeur des données elles-mêmes diminuera à mesure que celle de l’analyse augmentera, la modélisation prédictive sera bientôt un outil dont disposeront l’ensemble des entreprises.


En complément :

A lire sur Business Analytics Info :

dimanche 15 juin 2014

REGIONAL DIFFERENCES BETWEEN CIOS

A lire sur: http://www.itone.lu/article/regional-differences-between-cios

03-Jun-2014
CIOs around the globe may share common concerns, but there are considerable differences in their priorities, according to a global survey of CIOs by Gartner's Executive Programs.

Gartner's global survey of 2,339 CIOs showed that issues experienced by CIOs are far from universal and real differences exist at both a regional and country level. The worldwide survey was conducted in the fourth quarter of 2013, representing more than $300 billion in CIO IT budgets in 77 countries. The Gartner Executive Programs report "Taming the Digital Dragon: The 2014 CIO Agenda" represents the most comprehensive examination of CIO strategies and success behaviours.

Economic conditions vary considerably. For example, on average, global IT budgets are flat (0.2 per cent growth in 2013 to 2014, while CIOs in Latin America are looking at an average budget increase of 7.3 per cent. This is typically in line with macroeconomic conditions.

"The CIO survey results clearly show that as digital opportunities and threats pervade every aspect of business and government, the IT and digital agenda for each country, industry and enterprise is becoming more unique," said Dave Aron, vice president and Gartner Fellow. "The way businesses and public-sector agencies use information and digital technologies is getting more entwined with their economic, regulatory and competitive contexts, as well as with the state of their business and digital maturity. This is a function of every aspect of every business becoming digital — every process, every employee, every business leader, every customer, every interaction, every moment. Just as our businesses are unique, our digital footprints are becoming all the more unique."

North America
CIOs in North America report an IT budget increase of 1.8 per cent for 2014. This means that North American CIOs may have more room to manoeuvre than their counterparts in EMEA, where the average IT budget is down 2.4 per cent.

Sixty-two per cent of CIOs in North America are expecting to change technology and sourcing strategies in the next two to three years; however, this is the lowest percentage in any of the major geographies. For example, 82 per cent of CIOs in China expect to change their technology and sourcing approach in the next two to three years.

"North American CIOs should be careful not to become complacent, and they should instead keep a constant focus on optimising their sourcing mix, especially to ensure there is enough innovation," Mr Aron said.

In the use of the cloud, North American CIOs have a slightly larger focus on agility than their global counterparts and a slightly larger use of software as a service, as opposed to infrastructure as a service or platform as a service. However, only 26 per cent of North American CIOs report they have made significant use of public cloud offerings, so the majority of North American CIOs still need to venture into significant public cloud usage.

China
CIOs in China reveal a higher business focus on growth and innovation, and a significantly higher IT budget increase of 13 per cent this year, way above the global average of 0.2 per cent. However, at least 45 per cent of IT spending is outside the IT organisation, compared with the global average of 26 percent. China appears bullish on digital and cloud, with 39 per cent of CIO respondents from businesses in China identifying a C-level digital leader (such as a chief digital officer (CDO)) in their business, versus 7 per cent globally.

Sixty-one per cent of Chinese CIOs report that they have made a significant investment in public cloud, versus 25 per cent globally.

UK and Ireland
Globally, 25 per cent of CIOs have already made significant cloud investments. For Ireland and the UK, the move toward the cloud is even more aggressive than the global average. In the UK, for example, 28 per cent of CIOs report already making significant cloud investments.

Sixty-five per cent of CIO respondents in the UK and Ireland expect to increase their sourcing of IT in the near future. The desire to cut costs is traditionally one of the primary reasons behind this shift in sourcing strategy. However, there is also an increasing desire to achieve agility as well through partnerships with external service providers.

"With 78 per cent of CIOs expecting to change their sourcing approach in the next two to three years, a new set of capabilities will be required," said Mr Aron. "CIOs must be able to partner with a broader range of IT suppliers, not only the big vendors, and move beyond IT contracts that constrain their ability to innovate and adapt in response to changing business expectations. This change will be especially challenging for the public sector in the UK and Ireland, as the current rules and regulations favour large suppliers and long-term contracts."

Latin America
Most companies in Latin America are confident that they should take advantage of digital economy opportunities. Another relevant trend is that 25 per cent of IT spend is outside of the IT budget (26 per cent globally). For Brazil, it has reached 34 per cent. This means that business areas are increasingly driving budget decisions associated to their products and related IT support.

The survey also reveals growing digital confidence among CIOs in the region. While 42 per cent of global CIO respondents think they don't have the IT skills and capabilities to meet digital challenges, in Latin America only 26 per cent of IT organisations think they are not ready to "tame the digital dragon."

More detailed analysis is available in the report "2014 CIO Agenda: Global Perspectives." This collection of 22 research documents leverages the 2014 Gartner CIO Agenda Survey in order to contextualise and clarify the behaviours and decisions facing CIOs in a diverse range of industries and geographies worldwide. The report is available on Gartner's web site at http://www.gartner.com/doc/2687817.

Press release by Gartner

mercredi 11 juin 2014

Vers une DSI assembleur de composants ?

A lire sur: http://www.zdnet.fr/actualites/vers-une-dsi-assembleur-de-composants-39801977.htm

Tribune : Sous pression du marché, les directions métiers n'hésitent pas aujourd'hui à opter pour des services et applications externes, sans nécessairement faire appel aux DSI. Et si, avec les composants de services applicatifs, la DSI était en mesure de prouver à ses clients internes qu'ils ont tort ? s'interroge Nicolas Odet de Hardis.
Sous pression du marché, les directions métiers n'hésitent pas aujourd'hui à opter pour des services et applications externes, sans nécessairement faire appel aux DSI. Et les utilisateurs de penser que le moindre projet interne durera des mois. Et si, avec les composants de services applicatifs, la DSI était en mesure de prouver à ses clients internes qu'ils ont tort ?
L'IT, support de l’opérationnel et du business
La digitalisation des entreprises conduit les DSI à être (encore plus) sollicitées sur tous les fronts : marketing, ventes, relation client, fabrication, logistique, RH, etc. En parallèle, elles doivent répondre présentes aux demandes et besoins de directions opérationnelles dans des délais toujours plus courts. Avec, des outils qui permettent une expérience utilisateur ou client multicanal : web, mobile, bornes, tablettes, etc.
Toutefois le budget et les moyens humains de la DSI sont loin de connaître la même croissance que les exigences des collaborateurs, des clients, des partenaires ou du marché. Pour répondre plus vite et mieux aux demandes des directions opérationnelles, les directions informatiques n’ont aujourd’hui pas d’autre choix que de rationaliser et d’industrialiser leurs processus.
Les composants services, le trait d'union entre les applications et les données
Or jusque-là, quand un besoin opérationnel n’était pas couvert par une solution « best of breed » proposée par un éditeur, la solution la plus fréquemment mise en œuvre était le développement d’une application complète, dotée de ses propres interfaces et connectée aux autres applications du SI.
Cette façon de procéder est aujourd’hui incompatible avec la nécessité de concevoir et faire évoluer les applications rapidement. En effet, elle implique de nouveaux développements, nouvelles connexions et nouveaux tests à chaque évolution ou nouveau besoin, et toujours plus d’interfaces à maintenir. Sans compter que, la plupart du temps, ces différentes applications font appel aux mêmes données et/ou proposent des fonctionnalités similaires : obtention des coordonnées d’un client, validation d’un panier d’achat, consultation de l’historique des commandes…
La solution pour rationaliser les développements et accélérer le go-to-market des nouvelles applications ? Mettre en place un référentiel de composants de services applicatifs « prêts à l’emploi », qui agrègent les données en provenance de différents systèmes et intègrent des règles métier réutilisables d’une application à l’autre, quel que soit le canal (application web, mobile, tactile…).
Vers une DSI assembleur de composants ?
Il est possible de dédier une équipe à la création de ces nouveaux composants. Mais le plus efficace reste de les créer « à la volée » : pour chaque nouvelle application, il s’agit d'identifier les services ou fonctionnalités qui pourraient être réutilisables par ailleurs, et de les concevoir comme tels.
Cette nouvelle approche peut rallonger légèrement le délai de mise en œuvre des premiers projets, car il faut prendre le temps d’identifier et de concevoir les services applicatifs qui pourront être réutilisés. Mais au fil du temps, les nouvelles applications sont de plus en plus rapides à développer, car elles capitalisent sur une bibliothèque d’objets, de services métiers et d’éléments graphiques de plus en plus riche.
Dès lors, la DSI va-t-elle devenir un assembleur de composants ? Oui et non ! Oui, parce qu'il s’agit bien d’intégrer des composants pour créer de nouvelles applications. Non, parce qu'il n’y a rien de « magique » : la base y est certes, mais un minimum de développements reste nécessaire, notamment des couches de présentation (interfaces) qui diffèrent selon le terminal (PC, mobile, tablette, borne…).
Dans tous les cas, cette stratégie est payante à moyen et long termes : avec de plus en plus de services à disposition, la DSI est en ordre de bataille pour répondre rapidement et de manière adaptée aux besoins des métiers.
Nicolas Odet est directeur général adjoint du groupe Hardis depuis début 2013 et membre du comité exécutif.
Créé en 1984, Hardis exerce le double métier d'éditeur de logiciels et de société de conseil et de services informatiques.

mardi 10 juin 2014

Infographie Les clés d'un SEO réussi

A lire sur: http://www.ecommercemag.fr/Thematique/marketing-1012/sem-seo-10052/Infographies/Les-cles-SEO-reussi-237270.htm

Publié le  par 

Stratégie de contenu, construction des liens internes, backlinks, brique sociale, outils de suivi... tout ce qu'il faut savoir pour optimiser le référencement naturel d'un site.

[Publi] L'impact des images sur votre communication

A lire sur: http://www.ecommercemag.fr/Thematique/marche-prospective-1010/juridique-10045/Breves/Publi-impact-images-votre-communication-236948.htm

Publié le  par 

L'image s'inscrivant aujourd'hui dans le quotidien des marques, mieux vaut être vigilant quant au choix des photos ou des vidéos utilisées pour les incarner. Le point avec Karen Seror, directrice de la communication de Fotolia.

© Login
© © Login
© Login
Plan rapproché, produit mis en scène, personnages représentatifs de la cible en action ... il existe de nombreuses manières d'enrichir visuellement la communication d'une entreprise ou d'une marque. Pour faire mouche, l'idéal est de montrer aux consommateurs leur alter ego affirmant leur personnalité grâce au produit ou à la prestation proposée ! Qu'il s'agisse du print ou du numérique, l'image s'impose à tous les types de supports. " Avec l'émergence du picture marketing, cette tendance se renforce, d'ailleurs plus aucune marque ne peut animer sa présence sur les réseaux sociaux sans image " observe Karen Seror, directrice de la communication de Fotolia. Et si l'image prend de plus en plus d'importance sur les réseaux sociaux spécialisés dans le partage d'images (Pinterest, Instagram), elle s'impose aussi sur les réseaux classiques (Facebook, Twitter, Linkedin).

Une vraie valeur narrative

Aujourd'hui, le choix de l'image est donc primordial. Car selon son contenu, sa présence est plus ou moins impactante. " Une étude de Miratech a montré que les hommes sont plus visibles que les femmes et qu'une publicité avec une personne sensuelle (par exemple, un homme torse nu) sera 37 % plus visible qu'une autre image " explique Karen Seror. La présence d'un visage permet aux consommateurs de s'identifier. Le message gagne alors en pouvoir de séduction.
© Barbara Helgason
© Barbara Helgason
Il semble que la peau soit particulièrement persuasive : Selon l'étude de Miratech, il s'agit de l'attribut le plus impactant, car lorsque la peau est visible, le regard se fixe dessus. Une autre étude, réalisée sur près de 5 millions de lecteurs par le Gallup Research Bureau, propose un classement des types de photos qui attirent le plus l'attention. Ses résultats sont un peu différent mais confirment le pouvoir du modèle vivant. Avec en tête les photos représentant des bébés ou des enfants, devant, par ordre d'importance, les photos de mamans avec leurs bébés, puis des groupes d'adultes, des animaux (et notamment les bébés animaux), des scènes de sport, des célébrités et de la nourriture. Ces deux enquêtes montrent à quel point en jouant sur l'identification, sur l'émotion, l'image capte l'attention du lecteur, d'autant qu'elle se décrypte sans effort, contrairement au texte. " L'image a une vraie valeur narrative " résume Karen Seror.
A savoir !
L'ensemble des oeuvres proposées par Fotolia dispose du label offre légale, accordé par l'Hadopi à l'issue d'une procédure encadrée par les dispositions des articles R.331-47 et suivants du code de la propriété intellectuelle.

La solution des banques d'images

Mais comment disposer d'autant d'images que de produits, de typologie de clients, de scenarios à mettre en scène ? Avec un réservoir de plus de 28 millions d'images, une banque d'images comme Fotolia fournit aux marketers et aux e-commerçants une formidable source d'inspiration. "Les marketers ont besoin de photographies ou de vidéos qui témoignent d'un univers, et surtout qui sont en phase avec leur content marketing " précise Karen Seror d'où la diversité de l'offre et la profondeur des collections. L'offre de Fotolia, proposée à des coûts accessibles (lire encadré ci-dessous), permet en outre de changer les images fréquemment. Car l'image communicante n'est pas figée dans le marbre, au contraire elle évolue au gré des campagnes, surtout sur Internet.

Fotolia en chiffres (Pour en savoir plus www.fotolia.fr)
Date de création : 2004
Nombre de contributeurs (photographes, créatifs, vidéastes) : 200 000
Implantations locales : 23 pays
Catalogue : 28 millions de fichiers créatifs (images et vidéos libres de droits)
Clients : 4,8 millions d'utilisateurs
Prix des images : A partir de 0,16 € (par abonnement). Une nouvelle formule d'abonnement sans engagement démarre à 25 € HT par mois pour 10 images haute définition au format medium (pour une impression A5 par exemple) ou 5 images HD au format XXL pour de l'impression très grand format. A partir de 0,74 € pour un besoin ponctuel (via les pack de credits)

Know your risks to avoid IT security disasters

A lire sur: http://www.techrepublic.com/article/know-your-risks-to-avoid-it-security-disasters/#ftag=RSS56d97e7

By  June 3, 2014, 3:00 AM PST

IT risk management depends upon solid intelligence-gathering capabilities. Faulty data can lead to devastating results. 
it security lock.jpg
 Image: iStock
Avoiding security disasters often means knowing what your risks are to begin with - a process that is often referred to as risk management. However risk management doesn't come without some risks of its own. Especially when one considers that the primary risk of risk management comes in the form of bad data, or more specifically, data resulting from incorrect intelligence. That incorrect or false data can lead to very poor decisions being made and the consequences of those decisions can be devastating to business operations.
So how exactly does one avoid misleading information and false data? It comes down to the age-old process of vetting the data sources. In the security and IT risk management arenas that vetting process starts with identifying sources and progresses to building realistic baselines based upon verifiable facts. Simply put, creating risk management plans and planning for remediation is near impossible without the proper tools.

Building a baseline

Building a baseline starts with a process called network discovery, where the network, all of the connected devices, the software in use and internet connectivity is scanned to build an inventory. Additional scans are then performed to identify user accounts, rights, and access policies and so on. Administrators cannot determine risk without that information, and that information is impossible to gather unless automation becomes part of the discovery process.
However, network discovery is not without risks of its own, it is a process that has to be done correctly and with care, and more importantly, multiple times. Why? Simply because building a baseline takes making sure that a proper sample of activity is measured over a standard working period. What's more, networks constantly evolve, with devices coming and going, and user access changing, especially since many organizations have introduced BYOD (Bring Your Own Device) strategies. That near-constant flux of change means that automating discovery is a must have.
With the proper tools, auditing capabilities and traffic monitoring systems, the risk of bad data is vastly reduced, allowing administrators to create baselines that are based upon reality and not assumptions. With a baseline created, the next step is to interpret the data and then weigh the risks presented.

Using tools to reduce risk

Tools are an important part of the risk interpretation process, and those tools must be easy to use and offer cues that highlight risk. Those cues may come in the form of visual analytics or integrated reporting. Regardless, administrators must be comfortable with the tool and be able to leverage the data collected in such a fashion that analysis can be accomplished; otherwise, good data goes bad quickly when it can't be understood.
Although remediation is an important part of risk management, remediation cannot be fully effective is risk is not accounted for properly. Here, risk vs. benefit must be weighed, ideally to provide an access policy that enables productivity, without exposing organizations to unnecessary risk. The real trick is to identify what is considered unnecessary risk, a definition that can change from organization to organization. One powerful ally comes in the form of leveraging baseline information to detect anomalies. With an accurate baseline, built upon reliable data, anomalies become much easier to detect. After all, if you know what normal looks like, then it becomes easy to spot abnormalities.
Of course, there is a financial argument to all of this as well. Risk can be expensive to contain; however, failure to acknowledge risk can be much more costly, especially when one considers the ramifications of a security breach. Building repositories of connection data, paired with monitoring baselines and detecting anomalies can help organizations to determine what is safe and what is not.

Define Two Major Elements of Project Scope

A lire sur: Method123

Defining scope is perhaps the most important part of the initial definition and planning process. If you don’t know what you are delivering and what the boundaries of the project are, you have no chance for success. If you have not done a good job of defining scope, managing scope will be almost impossible.
Most people understand what scope means, but many struggle trying to actually define the scope of a project. It is easiest if you remember there are two major aspects of defining scope on your project – deliverables and boundaries.
  • The deliverables. All projects produce deliverables. (These are sometimes called the "products" produced by the project.) Even if you are not sure what else to include in your scope definition, you should always include your deliverables. Understanding the deliverables you are building goes a long way to understanding the scope of the project. There are many deliverables that could be listed, but you should focus on the final deliverables of the project - not necessarily the internal deliverables produced as a part of delivering the final solution.  
  • Project boundaries. The scope boundary statements are used to define what is within the boundaries of the project and what is outside those boundaries. The more boundaries you can identify, the better off your project will be. You would not need to state that some aspect of the project was in-scope unless you could also contrast that with some aspect that is out of scope. The nature of a true boundary statement is that there is both an in-scope and a relevant out-of-scope counterpart. For example.  
    • The major life-cycle processes that are in scope and out of scope.For instance, your project may include the Analysis Phase only and not the Design, Construct or Test Phases. Or perhaps your project is performing research, but you are not going to develop the results. These would be examples of using boundary statements to clearly state what your project is responsible for, and what is out of scope. 
    • The organizations that are in scope and out of scope. In some cases, the organizations involved in the project help to define the boundaries. For instance, your project may be applicable to the Human Resources and Accounting Departments, but the Manufacturing Division might be out of scope. Or perhaps your project is only impacting the corporate office while the field offices are out of scope.
    • The major functionality that is in scope and out of scope. This might be a good boundary if you were delivering less than full functionality. For instance, decision support and management reporting might be in scope, while overnight batch processing might be out of scope. Or perhaps financial reporting is in-scope for your project, but Human Resources reporting is out of scope.
What do you need to remember? First - scope is defined as deliverables and boundaries. Deliverables are the things you build during the project. Boundaries are statements that describe the project in terms of in-scope and out-of-scope. 

lundi 9 juin 2014

Les managers commerciaux de terrain restent-ils les maîtres du jeu à l’ère du commerce omni-canal ?

A lire sur: http://www.itchannel.info/articles/148626/managers-commerciaux-terrain-restent-maitres-jeu-ere-commerce-omni-canal.html

Mercredi 4 Juin 2014
Même si le déploiement des stratégies relationnelles omni-canal est aujourd’hui prioritaire dans leur agenda, les entreprises sont bien conscientes que le réseau de vente physique reste pour la plupart d’entre elles le principal relais de leur stratégie commerciale. Or disposent-elles, à la tête de leurs magasins ou agences, de managers en capacité de porter cette stratégie auprès des équipes de vente et de leurs clients ? C’est pour apporter des éléments de réponse à cette question que Keyrus Management, avec l’éclairage du Club DCF Premier, a récemment mené une enquête flash auprès d’une centaine de dirigeants commerciaux issus d’entreprises françaises de toute taille et de tous secteurs d’activité, opérant principalement sur des marchés BtoB.


Les premiers enseignements de l’enquête de Keyrus et du Club DCF Premier permettent d’observer trois stades de maturité des organisations commerciales, avec des impacts spécifiques sur le rôle attendu du manager de terrain.
Dans un premier stade, les entreprises les moins matures doivent faire face à un enjeu de structuration de leur organisation, et de bonne application des méthodes et outils de vente. Le manager de terrain est ici mobilisé sur son savoir-faire technique
Au sein d’organisations ayant stabilisé leurs processus et leurs rituels, l’enjeu principal devient la prise de leadership du manager local sur son équipe
Enfin, les organisations commerciales les plus matures demandent l’appui du management local pour développer l’excellence de la relation client aux différentes étapes de la démarche commerciale. Le manager devient le chef d’orchestre local d’une relation omni-canal sans couture.

Selon la plupart des dirigeants interrogés, les fondamentaux du management commercial de terrain sont considérés comme étant déjà en place. Or, en analysant de manière détaillée les réponses des entreprises, on constate que le premier stade de maturité est loin d’être intégralement atteint pour bon nombre d’entre elles, avec des leviers d’actions prioritaires sur les managers de terrain autour de :
- La défense du prix : pour 57 % d’entre eux, les managers de terrain ne responsabilisent pas suffisamment leurs commerciaux dans l’argumentation tarifaire
- La gestion du temps des commerciaux : 36 % des entreprises interrogées reconnaissent des enjeux d’amélioration de la gestion des priorités données par managers à leurs équipes de vente
- L’allocation des portefeuilles clients : 32 % des entreprises n’adaptent pas le portefeuille de clients aux compétences et capacités de leurs nouveaux vendeurs
- L’application des méthodes de vente : 29 % des participants répondent que les managers ne s’appuient pas suffisamment sur les outils et les méthodes de vente, en particulier dans le cadre du lancement de nouvelles offres.

Une fois les bonnes pratiques mises en place et correctement appliquées, c’est logiquement vers la clarification de la posture du manager de terrain par rapport à ses équipes que se tournent 40% des entreprises interrogées. Dans cette perspective, l’enjeu réside désormais dans la capacité du manager à démontrer sa légitimité auprès de ses vendeurs plutôt que dans l’affirmation d’une posture de « manager coach », voire d’un simple soutien opérationnel de son équipe.

Pour Marc Rousselle, associé chez Keyrus Management et en charge de l’enquête : « la recherche de légitimité du manager de terrain est un phénomène amplifié par la remise en cause des principes de communication hiérarchique liés par exemple au développement des réseaux sociaux : la transformation digitale de l’entreprise renforce le besoin de reconnaissance du manager, tant par sa hiérarchie que par ses équipes ; un besoin souvent sous-estimé par les entreprises. Dans ce contexte, les entreprises doivent veiller à faire porter le changement par les managers plutôt que de les court-circuiter. »

Ainsi, la trajectoire pour atteindre la cible ultime « d’excellence » dans la relation client, dans une perspective de parcours relationnel « sans couture », passe pour les organisations commerciales par la réalisation de deux pré-requis : la maîtrise des processus opérationnels (outils et méthodes) au sein des points de vente et la faculté des managers de terrain à porter les projets de l’entreprise, tout en fédérant les équipes.

« Au-delà des résultats de l’enquête, on constate que les entreprises qui réussissent le mieux sont celles qui sont parvenues à transversaliser la communication entre le commerce et les autres directions. Cela garantit la cohérence du discours et la fluidité des processus, pour le plus grand bénéfice du client comme de l’entreprise », conclut Charles Battista, Président du Club DCF Premier.

[Web2day] Laurent Manach: "Les PME doivent gagner en compétences technologiques pour conforter la 'supply chain' des grands groupes."

A lire sur: http://www.atelier.net/trends/articles/web2day-laurent-manach-pme-doivent-gagner-competences-technologiques-conforter-supply-chai_429707

Par  04 juin 2014
Laurent Manach

A l’occasion du festival Web2day qui démarre à Nantes ce mercredi jusqu’au 6 juin et dont l’Atelier est partenaire, entretien avec l’un des intervenants, Laurent Manach sur le niveau et les enjeux actuels de la collaboration entre grands groupes et les startups en France.
Laurent Manach est Directeur du Pôle de compétitivité E=MC2 et, à ce titre, porteur du projet IRT Jules Verne, un centre de recherche mutualisé dans le domaine de l’Industrie lourde dans les Pays de la Loire . Il est l'invité d'une table ronde pendant le Web2dayintitulée: "Web is industry : Industriels, Grands comptes, startups, comment vivre la transition numérique ensemble ?"

L’Atelier : On parle open innovation, collaboration startups/grands groupes…Cela veut-il dire que les modes opératoires plus traditionnels ne fonctionnent plus ou sont obsolètes ?

Laurent Manach: Fondamentalement, non. Les modèles antérieurs peuvent perdurer mais la problématique face à laquelle nous sommes confrontés c’est qu’il y a de plus en plus de croisements entre les secteurs, il y a également une problématique financière qui font que l’open innovation, la fertilisation croisée sont de plus en plus importantes et nécessaires. Et ce afin de ne pas laisser passer une idée ou la montée en puissance d’un modèle concurrent.
Nous, on a toujours une démarche qui consiste à s’attaquer par exemple à l’allègement de structures, aux solutions techniques existantes, aux réponses à apporter, aux verrous technologiques à lever, aux compétences, à la façon dont on monte un projet collaboratif, aux moyens de trouver les financements, etc. C’est un modèle qui tourne bien parce que nous sommes quand même dans des dispositifs très technologiques. Et puis il faut souligner que nous sommes dans l’industrie de production qui n’est pas directement menacée aujourd’hui par des modèles complètement clivants. Il ne s’agit pas de la situation d’Amazon et des librairies. En revanche, tout un écosystème numérique se crée actuellement autour des usages découlant des smartphones ou bien des usages par les entreprises des services Web, dont on peut s’inspirer.

Le risque pour les grandes entreprises non-innovantes n’est-il pas en effet de se faire dépasser par des startups aux idées plus innovantes et disruptives ?

La vraie difficulté est justement pour des sociétés comme Barnes & Noble qui surveillent leurs concurrents mais qui ne voient pas les challengers complètement différents qui peuvent venir du monde numérique. Il a y quand même une agilité dans l’univers du numérique qui n’existe pas forcément dans notre univers lié aux industries de production.

Quelles sont les recettes pour que la collaboration entre les grands groupes et de plus petites structures soit vraiment efficace ?

La manière dont nous travaillons repose sur des accords de propriété intellectuelle et des accords sur l’exploitation. Pour un grand groupe c’est important d’avoir des PME qui innovent, qui sont capables de se remettre en question, de gagner en compétences technologiques, voire de partager le risque. Et dans le même temps pour les petites entreprises, ce qui est important c’est de pouvoir compter sur des contrats qui viendraient des grands groupes. Donc il y a une partie exploitation-achat et une partie innovation-développement. L’équilibre est nécessaire pour éviter que chacun veuille tirer la couverture à soi.

Certains modes de collaboration ne sont-ils pas en réalité de la simple prestation externe?

Au sein du pôle E=MC2, on délivre un label pour qualifier les projets sur lesquels on s’engage. C’est vraiment du co-développement et de la progression qu’on propose aux PME. Mais c’est vrai que cela peut être un risque. Même si le risque n’est pas tant de la sous-traitance ; le vrai sujet étant que les grands groupes ont besoin de PME qui vont venir conforter leur « supply chain » en se dotant de compétences technologiques.

La collaboration doit-elle s’inscrire dans le temps à l’égard d’une même PME?

La collaboration doit s’inscrire dans le temps. Le travail accompli actuellement par les grands groupes est plutôt dans cette lignée. Maintenant, pour être tout à fait clair, une entreprise comme Airbus ne passe pas huit ans de commandes à une même PME alors que le carnet de commande s’étale sur cette même période. C’est le principe de la concurrence. Il faut faire en sorte que la PME ne se repose pas sur une seule technologie ni sur un seul donneur d’ordres.Tout ce qui est fertilisation croisée ; cad transfert d’une technologie d’un secteur à un autre secteur permette d’avancer dans cette diversification-là.

Quels pré-requis sont nécessaires pour rendre la collaboration pérenne ?

Pour un grand groupe, le pré-requis serait son schéma stratégique : réalisation d’un prototype ? tester une technologie ? gagner un nouveau contrat ,etc ? Quant à la PME elle doit avoir envie de se développer, trouver de nouveaux clients et d’organiser leur croissance sur la base de l’innovation.
Si l’on doit opposer le monde industriel au monde numérique, la différence réside dans le fait que parfois les modèles économiques du numérique sont plus simples. Par exemple, une startup fabrique un nouveau logiciel puis se fait racheter par une entreprise plus importante qui elle-même sera avalée par un grand groupe selon une logique de consolidation. Dans l’industrie, une entreprise s’engage sur trois ou quatre ans et doit aller chercher les contrats avec les dents. Sans compter que la crise de 2008 a fortement impacté la mécanique.

Les différences de process  - rapides les startups ; plus longs et complexes côté grands groupes-  ne sont-ils pas un autre frein pour la mise en place d’une collaboration ?

C’est exact mais ce que l’on explore au sein de notre pôle de compétitivité, c’est de faire travailler des ingénieurs de la construction navale avec des ingénieurs de l’aéronautique. Il n’y a aucune différence de taille entre les deux. D’un autre côté, la richesse vient souvent de ces deux types d’interface. Je cherche à faire en sorte qu’on puisse mieux s’inspirer de ce qui se passe dans le numérique. Cela dit, je reste aussi persuadé que le numérique peut tout aussi bien s’inspirer des méthodes industrielles, notamment en terme de productivité.

Comment faire de la collaboration un vrai levier d'innovation, autant pour l'économie que pour l’entreprise concernée?

Nous, le cœur de développement de notre écosystème, c’est l’ETI, l’entreprise de taille intermédiaire. Il s’agit plutôt d’une entreprise familiale, fortement implanté dans un territoire donné dont le rôle est de faire des aller-retour entre les grands groupes et les PME. Ces structures doivent être capables de bien comprendre la problématique des PME tout en ayant une analyse marché propre aux grands groupes. On a d’ailleurs mis en place un outil qui s’appelle le « fast track ETI » pour aider les entreprises à se poser la question de savoir pourquoi elles ne sont pas encore une ETI, quelles sont les problématiques de management, d’internationalisation, d’innovation ou bien encore de capacité productive. Parce que ce ne sont pas les mêmes problèmes que pour les startups. Par ailleurs, dans l’IRT Jules Verne, on a lancé un fablab avec les imprimantes 3D et notre objectif est d’amener à la fois le grand public, les jeunes et le monde du numérique à se saisir de ces outils et de ces technologies-là.

Du bon usage de la dataviz et du data storytelling

A lire sur: http://www.journaldunet.com/ebusiness/expert/57595/du-bon-usage-de-la-dataviz-et-du-data-storytelling.shtml



Chronique de Product Manager, Coheris, 05/06/14 12:35


Quid des Best Practices et des pièges à éviter quand on manipule des données dans le cadre de la Dataviz et du Data Storytelling ?
Donnons d'abord une définition de la Dataviz. "La Datavisualisation ou Dataviz est l’étude, la science ou l’art de représenter des données de façon visuelle, via des graphiques, diagrammes, cartographies, chronologies, pictogrammes, infographies ou même des créations graphiques inédites ou des photos". La Dataviz procède à la fois d’une analyse des données et de leur représentation sous forme graphique, visant à accélérer le processus de compréhension des chiffres en sollicitant les 2 hémisphères du cerveau, en s’adressant à la fois au côté sensoriel et au côté rationnel.

Le Data Storytelling est un « concept » relativement récent, qui doit être distingué de la Dataviz, même s'ils sont intimement liés. L’objectif est de raconter une histoire construite à partir de données, de les illustrer sous une autre forme que de simples tableaux de chiffres et de les rendre accessibles grâce à une représentation narrative compréhensible par tous.
Un des avantages de la Dataviz est de faire passer un ou des message(s) à des publics non experts de la Business Intelligence, du reporting ou des tableaux de bord. Jusqu’à présent, essentiellement réservé à la publicité, au journalisme ou encore à la politique, la combinaison de  la Dataviz et du  Data Storytelling permet de mettre la Business Analytics  à la portée de tous : dirigeants, experts marketing ou financiers, SI, utilisateurs métiers…   La « mise en scène » des données ouvre ainsi de nouvelles perspectives au décisionnel, dans une optique collaborative de partage des données et des informations. Outre son aspect visuel et esthétique, la Dataviz constitue un levier pour capter l’attention d’une cible et la faire adhérer à une idée, un message. L'implication de l’auditoire est plus forte, on peut alors parler d'un véritable engagement de la cible : prospects, clients, partenaires, collaborateurs...

Quid des Best Practices et des pièges à éviter quand on manipule des données dans le cadre de la Dataviz et du Data Storytelling ?

Le Data Storytelling demande de la réflexion pour imaginer un scénario et un fil conducteur qui auront un impact sur l’auditoire. Il est d'autant plus important de bien construire son histoire quand on traite de sujets graves ou de causes sensibles (ex. nombre d'accidentés sur les routes en France), pour marquer les esprits et sensibiliser. Sachant que le point de départ du Data Storytelling reste la donnée, la lisibilité et la fluidité des informations délivrées sont capitales. Les outils de BI proposant des fonctionnalités de Data Storytelling assurent une interactivité sans précédent, présentant des tableaux de bord à la manière d’une série de diapositives PowerPoint, mais de façon dynamique.
L’interfaçage de l’outil de Data Storytelling avec la base de données permet de créer des présentations dynamiques et de les modifier à tout moment, en temps réel, en jouant par exemple sur un pivot d’axes ou un filtre. 
Prenons un cas pratique : le PDG d’une grande industrie agroalimentaire internationale présente les résultats financiers de n-1. Initialement, la diapositive présentait sous forme d'indicateurs les 10 pays qui génèrent le plus de bénéfices. Pendant cette présentation, le Directeur Administratif et Financier souhaite faire un focus sur les 3 pays qui génèrent le plus de bénéfices. Le PDG peut affiner sa sélection directement depuis le module de Data Storytelling de sa solution de BI, en quelques clics seulement, sans interrompre le cours de sa présentation. Il affine et partage ainsi rapidement les données, basées sur de nouvelles variables.

Quels sont les enjeux et les bénéfices d’utiliser une solution de BI de ce type ?

Un outil de BI puissant offrant des fonctionnalités de Dataviz, voire flirtant avec l’infographie, limite les erreurs de saisie, quel que soit le volume de données et améliore la fiabilité des données diffusées aux collaborateurs ou aux clients. Il accompagne également les utilisateurs dans le choix du bon graphique grâce au « chart chooser », qui suggère le graphique le mieux adapté (barres, secteur, courbe, etc.), suivant le nombre de variables, d'éléments et de données, si les données sont cycliques ou non, etc. Bien souvent, par habitude et subjectivité, les utilisateurs ont tendance à choisir un graphique car il plait et est relativement simple à construire. Or, le choix devrait porter sur la nature des données et sur ce que l’on souhaite montrer (comparer, mettre en relation, décomposer ou distribuer). Tel graphique va m’aider à analyser les données, mais c’est peut-être un autre graphique (ou une autre représentation visuelle), qui va me permettre d’illustrer au mieux le résultat de cette analyse, mettre en avant mes conclusions, faire passer mon message. Quoi qu’il en soit, la mise en forme ne doit pas desservir le fond du message, elle doit au contraire venir l’appuyer.

Où en sommes-nous en France en matière de Dataviz et Data Storytelling ?

Il y a aujourd’hui un véritable enjeu à ce que les entreprises comprennent l’intérêt de maîtriser ces techniques et donc d’utiliser l’outil qui les y aidera ! Quand on parle de données et de la manière de les représenter, il faut effectivement prendre en compte le côté esthétique et compréhensible. Face à la masse de données croissantes à traiter et analyser, les entreprises peuvent rapidement se retrouver submergées et laisser de côté des données pourtant précieuses. La Dataviz et le Data Storytelling sont des moyens de les valoriser en les utilisant facilement, sans être expert.
Les besoins en Dataviz vont peu à peu évoluer, au rythme de son « évangélisation » en entreprise. On peut compter sur les nouvelles générations pour porter le sujet au sein des entreprises. Il ne tient qu’à elles de prouver le pouvoir de la Dataviz et son utilité en entreprise, quels que soient le métier ou le secteur. La Dataviz peut également être utilisée à des fins pédagogiques, pour favoriser la mémorisation d’un cours par exemple.
Un autre vecteur de diffusion pourrait être les tablettes, qui apportent une véritable souplesse de visualisation et de partage avec les autres collaborateurs, et offrent une approche conviviale et interactive.
En résumé, la Dataviz et le Data Storytelling devront permettre d'ici quelques années, une fois que les entreprises auront plus largement adopté ces outils, de consommer des données visuelles. La frontière entre la représentation des données via la Dataviz et le Data Storytelling dans le monde de l'entreprise et dans la sphère privée sera infime, quasiment inexistante.