Devant la multiplication des attaques informatiques, il est urgent que les TPE et PME prennent conscience du risque

Une prise de conscience du risque cyber est devenue nécessaire pour prendre efficacement en charge les risques opérationnels et financiers que font peser les menaces informatiques sur nos économies.

L’année 2021 aura été l’année de tous les records en matière de cyberattaques. Avec 37% d’attaques en hausse sur l’an passé et un conflit international en cours, l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) est en état d’alerte maximale et appelle toutes les entreprises à mettre en place les 5 mesures cyber préventives prioritaires.

Même si aucune aggravation n’a été détectée depuis le début du conflit russo-ukrainien, le risque d’attaques systémiques est toujours d’actualité. Depuis 2020 et la crise du COVID, les techniques d’intrusion ne cessent de se complexifier, et les TPE et PME sont devenues les victimes n°1 des hackers. Une cible certes moins lucrative que les grands groupes, mais plus facile à atteindre, car, le plus souvent, moins bien protégée.

Une prise de conscience du risque cyber est devenue nécessaire pour prendre efficacement en charge les risques opérationnels et financiers que font peser les menaces informatiques sur nos économies.

Les TPE et PME en première ligne face à un écosystème criminel en pleine mutation

Aujourd’hui, la question n’est plus de savoir si une entreprise va se faire attaquer, mais quand ? Les chiffres sont sans appel. Avec une augmentation de +255% de ransomware (rançongiciel) en 2020, la France est aujourd’hui le 3è pays le plus touché par ce fléau et les principales victimes sont… des TPE et PME. Ce virus qui prend en otage les données d’une entreprise et qui exige une rançon en échange de leur restitution est principalement rendu possible grâce à la technique du phishing (hameçonnage). Il s’agit de la technique d’attaque la plus répandue. Elle a pour spécificité de ne pas exploiter de vulnérabilité technique du système informatique, mais les faiblesses de l’être humain pour aboutir à ses fins : il suffit d’un collaborateur qui transmet ses données d’authentification ou télécharge une pièce jointe vérolée via un mail frauduleux pour que l’activité de l’entreprise soit mise à mal.

D’autres types d’attaques font rage aux côtés des ransomware : piratage de site internet, détournements de fonds, vols de données, fuites de données, usurpation d’identité… Les cybercriminels vont également utiliser des failles techniques pour s’introduire dans le système informatique d’une entreprise : un système qui n’a pas été mis à jour ou un serveur mal configuré peuvent facilement faire basculer l’activité de l’entreprise. À cela viennent s’ajouter les vulnérabilités appelées “zero-day”, ces failles techniques jusqu’alors inconnues exploitées par les hackers pour s’introduire dans le système sont en forte augmentation, d’après l’ANSSI.

Aussi, les petites et moyennes entreprises doivent aujourd’hui lutter contre deux types de vulnérabilités pour se prémunir des cyberattaques et protéger leurs données. Les vulnérabilités humaines et les vulnérabilités techniques. Le combat doit se mener sur ces deux fronts. Or, les TPE et PME peinent à se protéger et à mettre en place une bonne hygiène cyber par manque de temps, manque de ressources et de moyens financiers.

Des pertes financières qui peuvent être fatales pour les TPE-PME

Prendre le risque de ne pas se protéger, c’est prendre le risque de perdre 27% de son chiffre d’affaires et de ne jamais se relever après avoir subit une cyberattaque, souligne le dernier baromètre d’Anozr Way. Des faits qu’il est temps de prendre très au sérieux dans le contexte propice aux cyberattaques que nous vivons depuis le début de la crise sanitaire.

D’après le baromètre CESIN 2022, le secteur de la vente en ligne et le secteur financier sont actuellement les plus touchés par les intrusions qui portent atteinte à leurs données avec respectivement 52% et 43% d’attaques réussies. Des chiffres alarmants à mettre en perspective avec les pertes financières engendrées et le danger que cela représente pour la pérennité de nos économies.

Pour éviter que la situation ne continue de s’aggraver, il devient urgent que chaque entreprise consacre le temps et alloue les ressources humaines et financières nécessaires à sa protection.

En matière de cybersécurité, le risque zéro n’existe pas

Prendre conscience du risque passe bien évidemment par la mise en place des bonnes pratiques de cybersécurité. L’ANSSI œuvre énormément à ce sujet en encourageant les entreprises à protéger leurs systèmes informatiques (renforcer l’authentification, accroître la supervision des données) et à mettre en place le minimum pour être prêt en cas de cyberattaque (mise en place de sauvegardes hors ligne et d’un plan de continuité d’activité).

Cependant, cela ne suffit pas pour être efficacement protégé. Une meilleure hygiène cyber permet de réduire le risque, mais n’empêchera pas une attaque par phishing de réussir. Une campagne de sensibilisation aux techniques de phishing permet également de réduire le risque, mais pas d’éradiquer celui-ci. En matière de cybersécurité, le risque zéro n’existe pas.

L’assurance cyber : un indispensable trop souvent négligé

L’assurance cyber est à considérer comme une brique évidente et complémentaire aux bonnes pratiques cyber pour protéger l’activité des petites et moyennes entreprises. Il s’agit aujourd’hui du seul moyen d’être accompagné dans la remise en état du système informatique, remboursé des pertes d’exploitation subies et d’être couvert en cas de dommages causés à des tiers comme une fuite de données confidentielles.

Même si les assureurs cyber traditionnels restent frileux quant à la couverture d’un risque qu’ils ne maîtrisent pas, il existe aujourd’hui de nouveaux acteurs sur le marché qui proposent une assurance cyber accessible et adaptée au plus grand nombre de TPE et PME. Une assurance qui devrait être encouragée par les pouvoirs publics et proposée par tous les courtiers en assurance pour prévenir la propagation des virus au sein de l’écosystème économique français.

Une prise de conscience du risque cyber est indispensable… tant qu’il est encore temps.

Source : JDN

2022-05-04T13:54:14+02:004 mai 2022|Catégories : Digital, PME, TPE|Mots-clés : , , , , |0 commentaire

Le RGPD, un enjeu de confiance et de réputation pour les TPE-PME

La protection des données personnelles est un enjeu majeur pour tous les organismes publics et privés ainsi que toute la population de l’Union Européenne.

L’ensemble des organisations, y compris les TPE/PME, sont tenues d’appliquer scrupuleusement le RGPD – Règlement Général sur la Protection des Données – au risque de s’exposer à des contrôles et de devoir s’acquitter de lourdes amendes.

Pour autant, ces réglementations constituent de réelles opportunités pour les entreprises, tel que le développement de leurs activités numériques au sein de l’UE en se fondant sur la confiance des utilisateurs.

En quoi consiste le RGPD ?

Il vise à garantir aux citoyens une plus grande confidentialité de leurs données personnelles, tout en offrant un cadre juridique unique aux professionnels. Le traitement de ces informations constitue une immense responsabilité et il se doit d’être encadré. Des principes précis sont définis sur la collecte, la consultation, l’utilisation, la minimisation, la modification, la suppression de ces données…

Concrètement, que doivent respecter les entreprises ?

L’application du RGPD ne pourra être conforme sans une adaptation des entreprises. Il leur est demandé une totale transparence sur l’usage des données. Cela signifie que l’information des personnes concernées doit être prévue de manière systématique ainsi que, le cas échéant, leur consentement lorsqu’il est nécessaire. Les entreprises sont aussi tenues de savoir précisément où sont stockées les données personnelles, en privilégiant le territoire de Union Européenne. En cas de violation de ces informations, elles ont un délai de 72 heures pour informer la CNIL ainsi que les personnes concernées dans le cas où cette violation constitue un risque élevé pour la vie privée des personnes concernées. Le dernier point essentiel porte sur la maîtrise totale des données transmises ou revendues à des organisations tierces.

Comment préserver la confidentialité des données ?

Une vigilance absolue doit être exercée sur la sécurité des systèmes d’information. Sans cela, l’entreprise court le risque que les données personnelles soient récupérées par un tiers malveillant et utilisées contre les personnes concernées. Il est essentiel de prendre conscience du risque de cyberattaques et du devoir de protection qu’il en découle. Un audit informatique est donc fortement recommandé.

Dirigeants de TPE/PME, par quoi commencer ?

Il est important de tenir un registre de traitement et d’instaurer une Charte de Protection des Données Personnelles destinée à ses collaborateurs sur la sécurisation de leurs données personnelles. Il s’agit avant tout de recenser les activités de son entreprise : gestion de la paye, recrutement, gestion des accès, formation, activités sociales… Cette Charte a pour objet de les informer sur les moyens internes mis en œuvre pour collecter et protéger leurs informations. Il s’agit d’un excellent moyen de vulgariser et synthétiser le RGPD pour mieux le comprendre et l’appliquer au plus juste avec tous les interlocuteurs au sein de l’entreprise.

En quoi le RGPD peut-il être un avantage pour l’entreprise ?

Protéger les données personnelles des collaborateurs est une première étape dans la conformité des entreprises. Cette démarche doit être étendue aux autres interlocuteurs (clients, prospects, fournisseurs, sous-traitants…) pour renforcer la confiance et valoriser l’image, sérieuse et responsable, de son entreprise. Elle permet aussi d’améliorer son efficacité commerciale, en ayant une gestion rigoureuse et actualisée de ses fichiers. Enfin, respecter le RGPD permet de rassurer ses clients et donneurs d’ordres et ainsi développer son activité commerciale sur des bases solides.
À travers ces éléments, les TPE et PME pourront aborder le sujet du RGPD en toute sérénité.

Source : Entreprendre

2022-04-28T15:09:23+02:0029 avril 2022|Catégories : Conseil, Digital, PME, TPE|Mots-clés : , , , |0 commentaire

La RSE et le numérique vont de pair

Coupler les stratégies RSE et l’automatisation des process se révèle indispensable pour le suivi et la mesure des résultats. Dans le même temps, le recours aux outils numériques doit s’accompagner d’une analyse d’impact.

Ethique, lien social, inclusion, parties prenantes, territoires, énergies, biodiversité… Englobant des thématiques aussi vastes et diversifiées que tout ce qui touche à l’humain et à la planète, la responsabilité sociétale et environnementale (RSE) de l’entreprise ne peut plus être décorrélée de la technologie, il faut la démystifier et passer à l’action.

« Tous les sujets RSE sont complexes. Et chaque action n’est véritablement efficace que si elle fait l’objet d’indicateurs de suivi. Aussi, sans outil numérique, et sans solution permettant de capter, stocker et analyser la donnée, il paraît compliqué de relever le défi », résume Véronique Torner, cofondatrice et directrice générale d’Alter Way (groupe Smile, leader européen des services numériques en open source), et administratrice de Numeum, fruit de la fusion de Syntec Numérique et Tech In France.

Automatisation des process

En effet, l’automatisation des process s’invite dans tous les champs de la RSE, depuis les systèmes de mesure d’efficacité énergétique, jusqu’aux politiques ressources humaines visant l’égalité femme/homme. D’autant que les organisations sont le plus souvent soumises à des obligations légales les enjoignant d’apporter la preuve de leur démarche d’amélioration continue.

« Face aux contraintes réglementaires et à la nécessité de mesurer son empreinte sociale, sociétale et environnementale, les entreprises n’ont d’autre choix que de se doter de technologies permettant d’outiller les équipes et de modéliser les plans d’action, puis de mesurer les résultats », détaille Véronique Torner, soulignant l’impérieuse nécessité de « faire converger transition environnementale et transition numérique ».

Faire converger transition environnementale et numérique

« Les entreprises ont pris conscience qu’elles ne pouvaient pas réussir leur transition RSE sans transition numérique. Mais elles doivent aussi intégrer la RSE dans leur transformation numérique, en optant pour la sobriété et l’écoconception », dit-elle, rappelant que « l’opulence numérique du passé ne doit plus être d’actualité ». A l’heure d’une tension de plus en plus forte sur les ressources naturelles et les matières premières, et alors que les infrastructures pèsent lourd sur la balance des gaz à effet de serre, toutes les pistes doivent être explorées, depuis le recyclage du matériel informatique, jusqu’aux changements de comportements des usagers.

Les entreprises ont pris conscience qu’elles ne pouvaient pas réussir leur transition RSE sans transition numérique.

Véronique TornerCofondatrice et directrice générale d’Alter Waynone

« Il s’agit d’investir dans une innovation durable. La notion de numérique responsable doit infuser dans toutes les strates de la société, depuis l’école jusqu’à l’entreprise, en passant par les politiques des pouvoirs publics », dit-elle. Et la dirigeante de rappeler les trois piliers, sociaux, sociétaux et environnementaux, du numérique responsable. « Sur le volet social, cela signifie notamment que le numérique doit être inclusif, en étant accessible à toutes et tous. Et que s’il ‘disrupte’ le marché du travail, des politiques de formation et de reconversion doivent être mises en place », explique Véronique Torner, ajoutant que « le numérique doit, en outre, être accessible, de la même manière, dans tous les territoires ».

« Green IT »

Sur le champ sociétal, l’experte évoque, entre autres sujets, l’éthique, la transparence, la souveraineté, la sécurité et la protection des données (en écho au RGPD). Quant à la problématique environnementale, il s’agit d’adopter les fondamentaux du « green IT », pour un numérique soutenable, limitant notamment l’exploitation des ressources et les dépenses énergétiques.

Afin d’aider les organisations à accélérer en ce sens, et en vue de partager les bonnes pratiques, Numeum, le nouveau syndicat du numérique en France, est à l’initiative de Planète Tech’Care, plateforme nourrie par les expertises d’entreprises, d’associations, d’organisations professionnelles, d’écoles, de pôles de compétitivité, de fondations ou encore de think tanks. Autant d’acteurs qui mutualisent leurs compétences et partagent l’ambition d’accompagner les entreprises souhaitant intégrer le numérique dans leur trajectoire environnementale.

Source : lesechos

2022-04-28T15:26:52+02:0028 avril 2022|Catégories : Conseil, PME, RSE|Mots-clés : , , |0 commentaire

Pourquoi le Big Data et la data science peuvent devenir un avantage concurrentiel pour les PME

Les données se trouvent partout au sein de l’entreprise, et les PME ne font pas exception. Cependant, encore faut-il qu’elles soient efficacement équipées pour utiliser pleinement la data science.

Utiliser correctement les données peut avoir un impact non négligeable. Ces données sont partout au sein de l’entreprise, que ce soit dans les feuilles de calcul, des dossiers partagés en ligne ou encore hébergées localement sur les ordinateurs des employés. Les entreprises peuvent tirer d’énormes avantages de la data science – le processus par lequel nous commençons à comprendre les données – en utilisant des informations propres et opportunes pour prendre des décisions rapides et éclairées.

Néanmoins, les PME se confrontent souvent à des obstacles liés à l’aspect technique de la data science. Elles doivent alors aller au-delà de la technologie et se concentrer sur les principes fondamentaux de la stratégie des données, sans s’attarder uniquement sur les projets coûteux ou n’adressant que des problèmes pouvant entraîner des pertes financières importantes. Dans les toutes premières étapes, avant l’identification de ces problèmes, l’analyse des données peut être effectuée à l’aide de feuilles de calcul.

Le principal avantage d’une bonne utilisation des données est la capacité de prendre des décisions éclairées sur la base d’informations quantifiables et vérifiables. Il s’agit d’aller au-delà d’un fonctionnement hiérarchique tel qu’on le connaît depuis des décennies et de laisser la personne la plus proche d’un problème avoir une contribution directe à la résolution de ce problème en se basant sur les données. Cela motive les collaborateurs à deux niveaux extrêmement importants : apprendre et changer.

L’évolution du paysage des données d’entreprise au cours des 20 dernières années

Lorsque le terme de data scientist est apparu en 2001, le plus grand défi était de savoir comment tirer parti de sources de données relativement limitées. Au départ, il n’existait pas de formation spécifique pour préparer les gens aux tâches quotidiennes d’un data scientist, il n’y avait que des spécialistes des bases de données, des mathématiciens, des statisticiens et des physiciens qui écrivaient souvent du code à partir de zéro.

En 2012, le métier de data scientist avait été élu « job le plus sexy du 21e siècle » par Harvard Business Review. Tout le monde s’est alors précipité sur son profil LinkedIn pour ajouter la mention de data scientist et ainsi espérer obtenir un salaire plus élevé.

Par la suite, de nouveaux langages informatiques plus simples ont vu le jour, et nous avons commencé à voir des interfaces graphiques de type glisser-déposer rendant la data science accessible aux non-codeurs, mais elles étaient encore à leurs balbutiements.

À l’époque, les projets similaires au big data que nous connaissons aujourd’hui étaient constitués de données stockées dans différents départements, dans des silos de données difficiles d’accès, et contrôlées par différentes personnes. Ces projets de données nécessitaient un grand nombre d’outils et de produits pour transformer les données de base en quelque chose d’utile pour l’entreprise. Il fallait parler aux spécialistes des bases de données pour avoir accès aux données, apprendre à écrire du SQL ou trouver un expert pour extraire les données… puis les préparer pour l’analyse. Au fil du temps, ce processus s’est considérablement simplifié.

Après avoir analysé les données, il fallait convaincre la direction avant de mettre en œuvre quoi que ce soit.

Il était alors possible de générer une réelle valeur ajoutée à partir de ces applications complexes, mais seulement avec un niveau d’expertise technologique exceptionnellement élevé et une coordination poussée entre de nombreuses personnes. Grâce à ces premiers travailleurs de la donnée ayant jeté les bases de la data science, le modèle a fait ses preuves et la demande pour leur expertise a augmenté.

Les stratégies à connaître pour développer une culture et une activité axées sur les données

Pour développer une culture axée sur les données, il faut disposer de bases solides, y compris au niveau de la direction. En effet, l’équipe dirigeante doit faire de l’analyse une pratique standard, prête à soutenir et à conduire le changement. C’est ce que nous observons dans les entreprises les plus matures sur le plan analytique, et c’est quelque chose qui peut être reproduit au sein des PME.

Pour adopter une approche axée sur les données, il faut commencer par des programmes d’initiation aux données. Pour transformer cet apprentissage en véritable culture, cela nécessite d’intégrer l’analyse dans notre travail quotidien. Cela peut consister en un investissement considérable, mais payant à long terme. Pour que cela devienne une réalité, de nouvelles initiatives sont nécessaires en dehors des déjeuners et des formations habituels, qu’il s’agisse de l’offre de journées d’apprentissage supplémentaires rémunérées, de la gamification de l’apprentissage ou de l’apprentissage axé sur la carrière pour une planification de la main-d’œuvre de bout en bout.

Les personnes les plus proches d’un processus savent où se situent les problèmes, et en amplifiant l’intelligence humaine pour tirer le meilleur de la data science et de l’analyse, elles disposent du contexte et peuvent voir l’impact commercial de la résolution de cette question par les données. Il y a là un avantage énorme à trouver.

Équiper tous les employés pour l’analyse de données, quelle que soit leur expérience ou leur formation

Les technologies et les systèmes modernes devenant de plus en plus accessibles et conviviaux, tout le monde peut devenir un data scientist citoyen – une personne capable d’utiliser l’analyse des données pour créer des informations et de la valeur ajoutée. La question de savoir si les employés doivent être équipés de ces outils ne peut être résolue qu’à un niveau microéconomique par chaque entreprise. Des cas d’utilisation différents nécessitent des approches et des niveaux de gouvernance différents.

Par exemple, l’amélioration des compétences des caissiers de magasin en matière d’analyse de données ne présente qu’un avantage limité, mais doter d’autres employés de back-office ou de directeurs de magasin de compétences en matière d’analyse de données pourrait certainement créer de la valeur. Parmi les cas d’usages possibles, on pourrait envisager d’utiliser la vision par ordinateur pour automatiser l’extraction des données des cartes de pointage pour les feuilles de temps ou même pour automatiser l’extraction du texte des reçus et des factures au sein de la supply chain.

En fin de compte, bien que l’option d’utiliser l’analyse des données soit une option pour tout le monde, les entreprises qui cherchent à améliorer les compétences de leurs collaborateurs doivent toujours suivre un modèle coûts-avantages standard.

Comment les organisations peuvent identifier les bons problèmes à résoudre et y arriver grâce à l’analyse des données

Trouver le bon problème à résoudre est un défi qui est unique à chaque entreprise – bien qu’ils puissent avoir quelques points communs – devant s’y retrouver dans l’amalgame de personnes, processus, anciennes technologies ou même emplacement géographique.

Avant de se lancer dans l’analyse des données, les entreprises doivent systématiquement avoir une idée du problème idéal à résoudre. L’astuce ici est de partir la décision commerciale viser et de travailler à rebours.

Trouver le bon problème est souvent le résultat final de nombreuses victoires à plus petite échelle, car les organisations commencent à comprendre non seulement ce dont elles ont réellement besoin, mais aussi les ressources et les outils dont elles disposent pour y parvenir, tout en éliminant ce qui n’est pas nécessaire. Ces projets que l’on pourrait considérer comme intermédiaires servent de base pour atteindre l’objectif final.

Les technologies de pointe d’analyse de données : un levier essentiel pour les PME dans un marché concurrentiel

La capacité d’intégrer de nouveaux points de données dans un processus analytique, de fournir des informations en temps réel et de s’adapter rapidement aux demandes changeantes du marché est ce qui sépare les entreprises dites digital native ou pure players (Netflix, Amazon, etc) des organisations plus anciennes qui croulent sous la dette technique. L’automatisation du traitement de ces informations permet de dégager une valeur considérable, mais également de libérer le temps des collaborateurs afin de se concentrer sur des missions à plus forte valeur ajoutée pour l’entreprise. C’est d’ailleurs pour cette raison que les employés étant les plus proches de la donnée doivent être inclus dans ces projets dès leur conception ainsi que tout au long du déploiement de ces solutions technologiques.

En investissant dans des outils non techniques tels que des plateformes en libre-service que chaque employé – du service marketing aux opérations commerciales – peut facilement utiliser, ce dernier peut ainsi expérimenter et acquérir de nouvelles compétences liées à la donnée. Ces plateformes peuvent aider les travailleurs à découvrir comment automatiser les processus analytiques afin de dégager de puissantes informations à partir des données, créant ainsi une solide base de compétences pour l’avenir.

L’automatisation de la découverte, de l’analyse et de l’obtention de réponses permet aux entreprises de prendre de l’avance sur leurs concurrents. Néanmoins, une chose est primordiale : tous les collaborateurs doivent pouvoir le faire facilement, cela ne doit plus être la chasse gardée d’une poignée de spécialistes.

Source : journaldunet

2022-04-28T15:33:27+02:0028 avril 2022|Catégories : Conseil, Digital, PME|Mots-clés : , , , , |0 commentaire

Marketing automation: les entreprises ne peuvent plus faire l’impasse

Le « marketing automation » est une porte ouverte sur la possibilité d’un travail mené conjointement avec les services marketing et commerciaux, avec pour objectif premier de convertir des leads. Cette avancée technologique, combinée à l’automatisation des process et à la possibilité de piloter tous ces éléments à partir d’une seule et même plateforme permet d’être plus efficace, de mieux rationaliser les coûts et d’avoir de meilleurs résultats.

Dans un premier temps, il est important de se demander sous quelles formes on peut exploiter ces différentes techniques marketing pour développer son business. Mais le sujet que nous nous proposons d’aborder aujourd’hui est le suivant : Quel impact le marketing automation et sa mise en application peuvent-ils avoir sur mon entreprise ?

Marketing automation : une avancée désormais incontournable

Armelle Jaclot, Global Business Manager chez ISDI et responsable de la stratégie marketing du groupe à l’échelle internationale, rend compte du changement de paradigme expérimenté par le marketing au cours de ces dernières années : « Le marqueteur est contraint de s’adapter à ces nouveaux mécanismes pour ne pas se retrouver « à la traîne ». Le marketing d’aujourd’hui place le client au centre de tout. La communication des entreprises se doit d’être précise et en adéquation avec les besoins de ses interlocuteurs. C’est pourquoi l’automatisation constitue aujourd’hui le meilleur allié des services marketing. »

Le marqueteur est contraint de s’adapter à ces nouveaux mécanismes pour ne pas se retrouver « à la traîne ».

Pour tirer le meilleur parti possible de cette automatisation, Salesforce nous explique qu’il est indispensable d’élaborer une stratégie reposant sur quatre axes majeurs : l’e-mailing, les réseaux sociaux, la messagerie mobile et la publicité. Dans chacun de ces domaines, le facteur humain reste déterminant car il permet de développer l’engagement du client, toutefois un logiciel de marketing automation permet de « mener des campagnes individuelles ou multicanales, et de construire sur la base de ces campagnes des « customer journeys » personnalisés pour chaque client. »

Création et analyse des parcours clients à l’aide de Marketing Cloud

Marketing automation
Nous pourrions développer sur plusieurs pages les divers avantages du marketing automation, mais nous avons choisi d’en retenir sept principaux :

  • Lead Capture : Pour mieux saisir les possibilités et la portée de chaque action. Par exemple, les utilisateurs arrivant sur une landing page sont invités à renseigner leurs données (email, code postal et situation professionnelle) pour recevoir un livre blanc ou télécharger un ebook.
  • Lead scoring et management : l’utilisation de données (démographiques, relatives au comportement etc.) pour isoler les clients potentiels des internautes qui sont simplement de passage sur le site ou sur les réseaux. La gestion de ce type de scoring permet aux services marketing et commerciaux d’identifier quels clients sont disposés à interagir avec l’entreprise et quels sont ceux qui ont besoin de laisser mûrir leur intérêt ou leur implication (nurturing).
  • Lead nurturing : ce temps de maturation que nous venons d’évoquer peut être facilité par l’envoi d’e-mails de suivi, et l’automatisation permet de développer l’engagement et de proposer le bon contenu au bon moment, afin de convertir ces leads.
  • Gestion des campagnes : SEO, écoute sociale, gestion de campagnes automatisées… C’est via l’automatisation que l’on est en capacité de se concentrer sur la stratégie, dans la mesure où le CRM nous permet de piloter l’activité beaucoup plus facilement.
  • Gestion du contenu : de la même manière, la gestion des publications sur les réseaux, des e-mails pour les campagnes etc. peut être menée depuis une seule et même plateforme. À noter en plus de cela qu’à chaque fois qu’il est nécessaire d’actualiser une ressource, elle est mise à jour pour toutes les campagnes et sur tous les réseaux en temps réel.
  • CRM integration : l’intégration dans le CRM permet de poursuivre le processus d’activation d’un lead potentiel, dès que l’opportunité se présente sur les réseaux sociaux, et jusqu’à ce qu’il soit envisageable de confier cette éventuelle conversion au service commercial.
  • Rapports et statistiques : le marketing automation permet de collecter une multitude de données. Si l’on combine cela à une intégration réussie dans un CRM, il devient possible de générer des rapports automatisés regroupant ces données, et ce afin de favoriser une planification plus avisée.

Intégrer l’automatisation via un CRM

Parmi les divers avantages relatifs à l’intégration d’une stratégie de marketing automation via un CRM, Salesforce insiste sur la possibilité de signaler les meilleurs leads aux services commerciaux, de diffuser des messages personnalisés, de maintenir le lien avec les leads tout au long du customer journey et d’analyser dans le détail quelles sont les campagnes qui fonctionnent et pourquoi.

Armelle Jaclot insiste par ailleurs sur le fait que « cela permet surtout aux équipes du marketing et aux commerciaux de gagner du temps et de rationnaliser les investissements. Nous disposons en outre d’une meilleure connaissance des leads grâce au système de scoring du CRM, ce qui facilite ensuite le processus de nurturing. En bref, les entreprises bénéficient d’un meilleur retour sur investissement sur les actions menées par leurs équipes, et ce, en fournissant moins d’efforts. »

En ce qui concerne les données, rien de tel que quelques chiffres pour montrer que le marketing automation fonctionne réellement. L’article de Salesforce met en avant les deux chiffres les plus parlants :

  • Le marketing automation fonctionne bel et bien: cette automatisation génère une hausse de 14,5 % des ventes et de la productivité et permet une baisse de 12,2 % des dépenses marketing de l’entreprise.
  • Des leads en forte hausse : le fait d’adopter une stratégie de marketing automation permet de générer une hausse de 27 % du volume de leads, une croissance de 30 % du taux de conversion et une hausse de 25 % du retour sur investissement constaté.

En définitive, l’automatisation du marketing est un jalon clé de développement pour toute entreprise : chaque process automatisé permet aux experts des services marketing et commerciaux de se consacrer à la stratégie globale et au suivi des potentiels clients (lead nurturing). De même, les plateformes de marketing automation permettent d’intégrer à partir d’un seul et unique point d’accès toutes les données relatives à ces différents clients, et de réaliser un suivi beaucoup plus personnalisé – et automatisé – pour chaque prospect.

Lead nurturing ou comment boucler la boucle

“Au sein d’ISDI, l’automatisation de nos process marketing nous a permis de gagner significativement en agilité et de nous adapter beaucoup plus facilement aux fluctuations du marché », confirme Armelle Jaclot. « Aujourd’hui, nous savons à qui nous nous adressons et comment communiquer avec ces différentes cibles, nous connaissons l’impact des différentes actions que nous menons et les données orientent toutes les décisions que nous prenons. Nos équipes commerciales se sentent plus soutenues par le service marketing et nous parvenons ensemble à avoir beaucoup plus d’impact qu’auparavant. »

Selon Gleanster Research, 50 % des leads générés par une entreprise sont potentiellement qualifiés, mais pas encore prêts à se lancer et à acheter.

Avec le marketing automation, il devient possible d’accompagner ou de guider, via le lead nurturing, cette catégorie de prospects sans avoir besoin de constituer une équipe dédiée à la réalisation de ce suivi.

Pour capter davantage de leads, rien de tel que le marketing personnalisé : si l’on en croit le site Pardot, « 77 % des consommateurs souhaitent recevoir du contenu unique et spécifique à chaque étape de leur recherche » (de produit). Sans compter que par le biais de ce processus d’interaction avec le client, il est possible d’enregistrer chaque nouvel input d’information sur ce dernier, ce qui sert ensuite à personnaliser encore davantage la relation client.

2022-04-10T11:56:36+02:0010 avril 2022|Catégories : Digital, ETI, GE, Marketing, PME, TPE|Mots-clés : , , , |0 commentaire

Comment être à jour et suivre les tendances du marketing digital ?

Le monde du digital évolue sans cesse et très rapidement ! Il est de ce fait important de se former sur les pratiques, les outils et les différents leviers liés au marketing digital notamment. Découvrez comment être à jour.

Avec l’accroissement des outils d’automatisation et l’évolution des algorithmes, la digitalisation des entreprises a connu une ascension fulgurante ces dernières années.

D’après une étude menée par Infosys Knowledge Institute (IKI), plus de 90 % des entreprises ont adopté des outils digitaux pour atteindre leurs objectifs.

Pour tirer profit des tendances du digital et des technologies émergentes, les entreprises doivent repenser et mettre à jour leurs stratégies marketing en temps réel.

Découvrez ci-dessous quelques recommandations pratiques à mettre en place pour améliorer votre stratégie digitale en fonction des nouvelles tendances.

Suivez une formation qualifiée en marketing digital

Le marketing digital représente aujourd’hui un véritable levier qui permet aux entreprises d’améliorer leur image et de rester compétitives. Cependant, cette tâche implique notamment la maîtrise d’un certain nombre de compétences et des connaissances sur le plan numérique. Face à cette situation, il est recommandé de suivre une formation en marketing digital pour mieux s’adapter aux nouvelles tendances.

Formation
Avec une telle formation, l’adoption des nouvelles tendances en rapport avec les logiciels d’automatisation ou les algorithmes intègre votre stratégie marketing de façon continue. Pour ce faire, il est conseillé d’opter pour un organisme de formation de référence qui pourra vous permettre d’avoir les connaissances nécessaires sur les thématiques digitales.

Les modules de formation en marketing digital conviennent aux personnes désireuses de gérer ou d’accroître la visibilité de leur marque, de leurs services ou de leurs produits en ligne. En ce qui concerne les profils éligibles à ce type d’apprentissage, nous avons notamment :

  • les directeurs et les responsables marketing et communication,
  • les chefs de produits et de projets marketing et communication,
  • les chargés de clientèle de design ou de clientèle dans une agence de communication…

En suivant ce type de formation auprès d’un organisme qualifié, vous pouvez intégrer de façon efficace le digital dans votre stratégie marketing-communication tout en le mettant à jour en temps réel. Elle comprend des modules axés sur les enjeux du digital pour les entreprises, l’élaboration d’un plan e-marketing, les leviers d’acquisition et de fidélisation de la clientèle…

À l’issue de ce type de formation, vous pouvez maîtriser les connaissances fondamentales en matière de webmarketing, ce qui vous permettra de bien choisir vos prestataires et les outils d’automatisation en fonction des nouvelles tendances digitales. Vous pouvez également assurer efficacement le pilotage opérationnel de vos actions sans aucune complaisance.

L’autre particularité de ce type d’apprentissage est liée à la possibilité de suivre votre formation en ligne via une plateforme dédiée depuis votre ordinateur ou votre smartphone. Cette option permet d’adapter votre formation à votre emploi du temps et à votre rythme d’assimilation de connaissances.

Optimisez votre présence web avec des contenus interactifs

Au fil des années, les contenus interactifs occupent de plus en plus une place prépondérante dans le marketing digital. Il s’agit notamment de l’une des tendances digitales ayant plus de chances de devenir virales et de convertir les prospects en clients qu’un contenu classique. Au nombre des contenus interactifs qui peuvent vous permettre de garder une longueur d’avance sur vos concurrents, nous avons les vidéos de réalité virtuelle, les images 3D, les infographies, les sondages, les questionnaires…

Ces différents contenus sont incitatifs et vous permettent d’améliorer efficacement votre taux de conversion. Le caractère interactif de ces types de contenus participe au renforcement du lien entre les prospects ou les clients et la marque concernée. Il permet également à vos internautes de bien cerner le message que vous voulez véhiculer ou le produit à présenter. C’est la raison pour laquelle il est conseillé de proposer des contenus très originaux et qualitatifs pour mieux vous démarquer.

Pour créer des contenus interactifs, il est important de bien identifier en amont les besoins de vos cibles. Prenez en compte les inquiétudes et les préoccupations les plus courantes de vos internautes et de vos clients. Lorsque vous optez pour un contenu interactif, n’oubliez pas de diversifier votre stratégie digitale. Dans la création de vos contenus, utilisez des mots clés pertinents et insérez des liens de redirections vers les pages de vos réseaux sociaux. Vous devez encourager également les avis de vos lecteurs de façon régulière.

Optez pour la publicité vidéo sur les réseaux sociaux

Avec l’essor des plateformes comme Facebook, Instagram, TikTok et même YouTube, le format vidéo devient plus ou moins populaire et efficace pour attirer l’attention des internautes.

D’après une étude récente menée par eMarketer, la plupart des internautes optent pour des services d’une entreprise ou achètent un produit après avoir visionné une vidéo.

À titre d’information, les plateformes qui étaient principalement axées sur les images sont devenues aujourd’hui un flux rempli de vidéos.

La publicité vidéo influence sur le pouvoir d’achat des internautes et favorise efficacement la conversion de vos prospects en clients. Elle permet aux entreprises de mettre en avant les fonctionnalités et les avantages de leurs marques ou de leurs produits. Les particuliers peuvent se servir des publicités vidéo pour mettre en avant leurs compétences respectives.

Pour faire de la publicité vidéo une partie substantielle de votre stratégie digitale, vous pouvez combiner les publications traditionnelles avec les « stories » (histoires). La plupart des canaux sociaux sont dotés d’une fonctionnalité qui permet aux entreprises et aux particuliers de partager des publications disponibles seulement pendant 24 heures. Avec une telle fonctionnalité, il est possible de partager régulièrement des messages plus authentiques et plus bruts pour accroître votre taux de conversion.

Ajoutez un chatbot à votre site internet

Chatbot
Les nouvelles tendances liées à l’intelligence artificielle (IA) ont donné un coup de pouce considérable au marketing conversationnel. Il s’agit notamment d’un style de communication basé sur le dialogue en vue de stimuler l’engagement des prospects.

L’intelligence artificielle aide les entreprises à se concentrer sur des tâches importantes au détriment des processus marketing répétitifs.

Au-delà des méthodes traditionnelles telles que les échanges d’emails et des médias personnalisés, les chatbots automatisés sont efficaces pour améliorer votre stratégie de communication en entreprise. Les chatbots se révèlent plus rentables sur le plan économique et ont la capacité de traiter près de 90 % des requêtes des clients.

Outre ces aspects, les chatbots peuvent être synchronisés sur plusieurs plateformes, à la fois Facebook, Twitter… Toutefois, il est important d’opter pour un chatbot qui convient aux préférences de vos clients pour des résultats probants.

Intégrez la recherche vocale dans votre campagne marketing

La recherche vocale est une fonctionnalité pratique qui permet aux utilisateurs de formuler des requêtes relatives à certaines informations à mains libres. Avec la création des produits tels que Google Home, Alexa ou Google Assistant, plus d’un tiers des recherches sur le web sont des recherches vocales. La plupart des internautes utilisent cette fonctionnalité pour trouver des informations sur des marques, des produits, des entreprises…

Avec l’émergence de cette fonctionnalité, il est important d’optimiser vos contenus pour la recherche vocale. Cette tâche diffère notamment de l’optimisation pour la recherche de texte.

Elle consiste à repenser votre stratégie d’optimisation des moteurs de recherche en adoptant un style conversationnel et des mots clés bien ciblés. Pour ce faire, n’hésitez pas à mettre à jour votre compte « Google My Business » de façon régulière.

Privilégiez un marketing respectueux de l’environnement

Environnement et digital
Pour rester en phase avec les tendances sociales, il est important de proposer des offres et des produits respectueux de l’environnement. Les consommateurs modernes optent notamment pour des produits durables provenant des entreprises certifiées. Pour cela, il est recommandé d’intégrer des idées vertes dans votre culture d’entreprise.

À travers vos flux de médias sociaux ou vos supports marketing, vous devez montrer que votre structure soutient les initiatives écologiques. Restez transparent autant que possible avec vos clients en ce qui concerne les informations relatives à vos produits ou à vos services.

En revanche, lorsque vous déployez une nouvelle stratégie digitale, n’hésitez pas à analyser vos performances web avec des indicateurs précis. Il peut notamment s’agir du taux de trafic de votre site, du taux de conversion, le Retour sur Investissement (ROI), du ranking SEO… Cela vous permet de réajuster votre stratégie digitale et de vous adapter aux nouvelles tendances au fur et à mesure.

Source : journal du CM

2022-03-05T13:50:47+01:005 mars 2022|Catégories : Digital, ETI, Marketing, PME, TPE|Mots-clés : , , , |0 commentaire

L’e-commerce devrait franchir la barre des 15 % du commerce de détail en France

La part de l’e-commerce dans le commerce de détail a atteint 14,1 % indique le bilan 2021 effectué par la Fevad, la fédération des professionnels du secteur. Les habitudes prises lors des confinements et de la fermeture des magasins perdurent, y compris dans l’alimentaire. En 2030, c’est la barre des 20 % qui pourrait être franchie.

Le commerce en ligne consolide les acquis de la crise sanitaire. La stabilité que le secteur affiche pour l’année 2021 (+1 % de progression selon la Fevad, Fédération de l’e-commerce) ne marque pas l’ébauche d’un plateau, voire d’un déclin. Cette petite hausse intervient après l’explosion que les confinements et la fermeture des magasins dits non essentiels ont provoquée en 2020. La comparaison avec 2019 éclaire le bond que les ventes en ligne de biens de consommation ont franchi : elles ont grimpé de 30 % en deux ans.

Deux secteurs ont fait mieux encore. Le mobilier a enregistré une hausse de 46 %. La crise sanitaire a cloîtré les télétravailleurs chez eux. Ils en ont profité pour améliorer leur intérieur. Les produits de grande consommation, pour l’essentiel l’alimentation, ont connu une explosion 51 % depuis 2019. L’e-commerce est entré dans le quotidien des Français.

Un achat en ligne par semaine

Les consommateurs effectuent désormais, en moyenne, 51 achats en ligne par an, soit un par semaine, pour un budget de 3.000 euros. Une enquête de Médiamétrie indique qu’un tiers des cyberacheteurs font leurs courses alimentaires sur le Net. « Les habitudes prises resteront. Les sondés qui ont acheté plus en ligne pendant la crise affirment qu’ils continueront de la faire », affirme Xavier Lemuet, directeur des grandes enquêtes de l’institut d’études.

« Les distributeurs n’ont pas le choix, c’est à eux de rendre l’e-commerce rentable », estime le président de la Fevad

Avec le rebond de la commercialisation de services sur la Toile, notamment des voyages et des séjours touristiques, même si le marché reste en deçà de son niveau d’avant-Covid, le total du marché du commerce en ligne a crû de 15 % en 2021 pour atteindre 129 milliards d’euros de chiffre d’affaires. Dans cet ensemble, les produits matériels représentent désormais plus de la moitié des transactions (52 %).

Les revenus de l'e-commerce en France

Le classement des sites marchands les plus visités traduit les évolutions. Si le géant américain Amazon reste en tête (Kantar estime sa part de marché à 15 %), il est suivi de Leboncoin, de Cdiscount, de la FNAC, de Vinted, puis de Carrefour et Leclerc. Même Lidl qui ne vend pas sur Internet mais utilise son site pour la fidélisation de ses clients, se classe dixième !

Quatre ans en deux ans

C’est l’autre leçon de la crise sanitaire. La croissance de l’e-commerce a été tirée par les enseignes traditionnelles, celles qui exploitent des magasins et qui ont poussé les feux aux cours des 24 derniers mois. Il est courant de dire que la crise leur a fait gagner quatre ans de croissance en ligne. La Fevad indique que depuis 2019 les ventes des distributeurs « classiques » ont crû de 60 % quand celles des spécialistes du Net (les « pure players ») n’ont augmenté que de 10 %.

Marc Lolivier, le délégué général de la fédération professionnelle, pronostique que la barre des 15 % du commerce de détail sera franchie en 2022. « Il paraît raisonnable de dire qu’en 2030, Internet générera 20 % du commerce de détail », prédit-il.

La seconde main, bien plus qu’une mode

Dans l’étude sur les acheteurs en ligne publiée ce jeudi par Médiamétrie, une tendance lourde se dégage : la seconde main. Le sondage effectué auprès des cyberacheteurs français révèle que la moitié d’entre eux (50 %) affirment avoir effectué l’achat d’un produit d’occasion en ligne en 2021. « On a aussi observé que 80 % des personnes interrogées affirmait avoir vendu au moins une fois un objet sur les sites de seconde main comme Le Bon Coin ou Vinted », complète Xavier Lemuet, directeur des grandes enquêtes de l’institut. Au final, en additionnant les acheteurs et les vendeurs, ce sont 80 % de ceux qui achètent sur le Net qui participent au cercle vertueux de la revente. Seuls les plus de 50 ans montrent quelques réticences, notamment à porter un article déjà porté. « La seconde main, cela signifie une forme de décroissance pour ceux qui vendent du neuf », remarque Marc Lolivier, délégué général de la Fevad, la fédération de l’e-commerce pour le compte de laquelle Médiamétrie a travaillé.

Source: les echos

2022-03-05T10:52:35+01:005 mars 2022|Catégories : Digital, eCommerce, ETI, PME, TPE|Mots-clés : , |0 commentaire

Les métaverse vont réinventer l’expérience client

Apparu dans les romans de science-fiction à la fin des années 60, le concept de métaverse a refait surface à l’annonce de la transformation de Facebook en Meta en octobre dernier. Depuis, les conversations ne font que s’intensifier autour du potentiel de ces nouveaux mondes virtuels. A quel point les métavers vont-ils bouleverser notre rapport aux jeux, aux marques, au travail, ou tout simplement changer nos vies ?

Les métavers offrent la possibilité de se connecter virtuellement avec des personnes physiques du monde entier, dans des représentations de n’importe quel univers, de manière beaucoup plus disruptive et immersive qu’une visioconférence Zoom. Les opportunités commerciales pour les marques sont très vite apparues évidentes.

Actuellement, ce sont les développeurs qui mènent encore le jeu. Ils construisent les mondes virtuels qui vont offrir tout ce que l’on peut désirer, où les marques s’entrechoquent et où les moyens de divertissement fusionnent. Attirés par un potentiel commercial à priori illimité, des entreprises de tous bords s’empressent d’annoncer leur intention de rejoindre ces métavers.

Et ce n’est probablement qu’un début. Car d’un point de vue marketing, les métavers apportent aux marques une occasion intéressante d’entrer en contact avec des consommateurs auxquels elles avaient auparavant accès (ou pas) par des canaux plus traditionnels.

Métavers et big data : pour le meilleur ou pour le pire ?

A mesure que les métavers se développent, les volumes de données qui peuvent être générés semblent considérables. Et les types de données qui peuvent être collectés à partir des technologies de réalité virtuelle ou augmentée plus vastes qu’avec les cookies. À l’avenir, il ne sera donc pas si surprenant d’imaginer les marques opérant dans le métavers être en mesure d’examiner notre tension artérielle, notre rythme respiratoire ou d’autres aspects de notre santé.*

L’accélération de notre rythme cardiaque pourrait par exemple permettre de mesurer le succès d’un programme. Et les éditeurs pourraient alors vendre ces données aux annonceurs, qui utiliseraient ces informations pour créer des publicités encore plus personnalisées. Ces données pourraient également alimenter les algorithmes des entreprises afin de nous garder plus longtemps sur leur plateforme.

Si le fait de générer davantage de données n’est pas nécessairement une mauvaise chose, il faut tout de même considérer la protection de la vie privée – comment les données vont-elles être traitées, qui y a accès, à qui profitent-elles ?

Dans quel monde voulons-nous vivre ?

L’avènement des métavers questionne sur le type de société dans laquelle nous voulons vivre. Mais les réponses arrivent à un rythme plus lent que celui de la conception même de ces nouveaux univers. Fin d’année dernière, l’application de réalité virtuelle Oculus de Meta était déjà l’application la plus téléchargée dans l’App Store d’Apple.

Les métavers pourraient fournir l’évasion de la vie réelle à laquelle de nombreuses personnes aspirent. On peut évidemment se demander si c’est sain ou non, comme les personnes qui fuient les engagements sociaux pour jouer à des jeux vidéo pendant des heures, ou celles qui se créent une vitrine parfaite sur Instagram, ne montrant en réalité que 5 % de leur vie réelle.

Les métavers offrent à ces âmes la possibilité d’échapper à la réalité et de créer une vie qu’elles n’ont pas. Immanquablement, chaque nouveau cycle technologique présente des avantages et des inconvénients potentiels. Tout est question d’équilibre.

Créer des expériences qui ont du sens

Toutes les marques n’ont pas forcément de raison de se lancer dans les métavers. Les audiences vont-elles passer du temps dans les métavers ? Quels partenaires de l’écosystème d’une marque ambitionnent d’y aller et pour quoi faire ? S’engager dans les métavers n’est pas anodin, notamment en termes d’investissement, et peut même être risqué si l’expérience n’est pas à la hauteur des attentes du public.

L’important, en réalité, est l’histoire que les marques ont à raconter, la qualité de l’expérience qu’elles vont être capables de proposer, et surtout, la cohérence avec ce qu’elles sont dans le monde réel. Dans un objectif marketing, et au-delà du simple fait de s’immiscer dans la tendance pour être suiveur, comment les entreprises peuvent-elles s’emparer du phénomène pour se rapprocher encore plus du consommateur ?

Souvent, les entreprises prennent le problème à l’envers : elles pensent à leur stratégie et cherchent des canaux pour faire passer leur message. Les métavers ne sont pas réels mais tendent à créer une autre réalité avec plus de sincérité.

Les marques doivent donc s’insérer dans ce monde et proposer des expériences nouvelles, ne pas s’en servir à des fins marketing mais pour améliorer l’expérience utilisateur, proposer une extension de leur ADN dans le nouveau monde virtuel. Cela aidera à créer l’adhésion, puis la fidélité des consommateurs. Nous passons à l’ère de la confiance, de la communauté autour de la marque. Il faut donc revoir en profondeur les stratégies marketing pour y arriver.

Source: ZDNet

2022-05-04T14:04:12+02:005 mars 2022|Catégories : Commerce, Digital, eCommerce, ETI, GE, Metaverse, PME, TPE|Mots-clés : , , |0 commentaire

Qu’est-ce que le Metaverse ?

Metaverse, métavers… C’est le concept à la mode, poussé par Facebook qui en a fait sa nouvelle mission et même son identité. L’entreprise le définit comme un ensemble d’espaces virtuels interconnectés dans lesquels des utilisateurs peuvent partager des expériences immersives en 3D temps réel. Elle y voit « le prochain Internet ». D’autres entreprises comme Nvidia, Roblox ou Epic Games avec Fortnite en parlent aussi comme du futur. De même que les partisans de la blockchain et des NFT, qui n’en ont pas forcément tout à fait la même définition. Alors de quoi parle-t-on exactement ?

C’est le buzzword du moment : le « metaverse », ou « métavers » en bon français. Facebook contribue fortement à la résurgence du terme, non seulement en réarticulant sa mission autour de ce concept, mais aussi en changeant de nom pour refléter cet objectif, devenant Meta.

Cette annonce n’est pas vraiment surprenante : Meta investit massivement dans le domaine de la réalité virtuelle et augmentée depuis maintenant sept ans. L’entreprise emploie plus de 10 000 personnes sur ces thématiques et aura dépensé plus de 10 milliards de dollars sur le sujet rien qu’en 2021.

Elle compte recruter 10 000 personnes supplémentaires en Europe pour y travailler et s’est bâti un solide écosystème de développeurs. Cela fait longtemps que Mark Zuckerberg a parié son avenir sur cette vision. En revanche, c’est la décision d’adopter et de mettre en avant ce terme spécifique, dont le concept même n’est pas très bien défini, qui peut interroger.

Meta-quoi ?!

Le terme est un néologisme inventé par le romancier Neal Stephenson pour son livre Le Samouraï Virtuel (Snow Crash), publié en 1992, à partir du mot univers modifié par le préfixe « méta- » emprunté au grec. Inutile de rentrer dans des considérations étymologiques sans importance : le terme sert d’alternative au « cyberspace » popularisé par William Gibson, l’un des créateurs du genre cyberpunk.

Stephenson le décrit comme le successeur de l’Internet, qui prend la forme d’un monde numérique en 3D dans lequel les utilisateurs évoluent sous forme d’avatars. L’équivalent d’un jeu de rôle massivement multijoueurs (MMORPG), en quelque sorte, mais utilisé globalement comme unique source de divertissement ou presque dans un monde dystopique. L’auteur imagine une immense avenue faisant des dizaines de milliers de kilomètres de long et dans laquelle se trouvent divers espaces publics ou privés.

Le reste n’a que peu d’importance, car l’usage du mot n’a aujourd’hui pas grand chose à voir avec son origine, de l’aveu même de Mark Zuckerberg et des dirigeants de Meta. Il s’inspire autant de ce roman que du plus récent (et bien moins bon) Ready Player One, dans lequel se côtoient une foultitude de personnages et environnements tirés de la pop culture des années 1980 et 1990 (le droit de la propriété intellectuelle ayant apparemment cessé d’y être revendiqué par les ayants-droits).

En résumé, la vision de Facebook et des autres acteurs de la réalité virtuelle et augmentée est celle d’un ensemble d’espaces virtuels qui sont interconnectés et dans lesquels différents utilisateurs peuvent partager des expériences immersives en 3D temps réel. En gros, c’est comme si on pouvait passer d’un jeu vidéo à un autre en conservant le même avatar et la même interface, avec la même simplicité que pour traverser une pièce dans la vraie vie. On pourrait s’y divertir, travailler, apprendre.

Un concept inspiré par les jeux vidéo

Comme évoqué plus haut, l’idée d’un monde virtuel permanent et massivement multi-utilisateurs n’est évidemment pas sans rappeler les jeux en ligne massivement multijoueurs (MMO), et c’est la comparaison vers laquelle tout le monde s’est tourné après l’annonce de Meta. Beaucoup de journalistes et observateurs ont évoqué Second Life, application sortie en 2003 qui proposait un monde virtuel dans lequel n’importe qui pouvait se construire un espace, créer des objets, personnaliser son avatar et même acheter et vendre des services.

La comparaison n’est pas dénuée de sens en ce que l’aspect mercantile était très mis en avant par Second Life et que son éditeur le décrivait comme une réalité alternative et pas un jeu. On rappellera néanmoins que Second Life n’a jamais été particulièrement bien optimisé et ne fut pas commercialement un succès. Il était éclipsé avant même sa sortie par des jeux comme EverQuest, sorti en 1999 et dont la 28è extension, Terror of Luclin, sortira en décembre 2021, puis World of Warcraft, lancé fin 2004.

La vision de Meta est d’ailleurs sans doute plus inspirée par les jeux vidéo, en l’occurrence par Fortnite (développé par Epic Games), Minecraft (Mojang), Roblox (Roblox Games) ou VRChat (VRChat Inc). Ces titres, ultra populaires auprès des moins de 20 ans, permettent une expérience communale en ligne dans laquelle le gameplay est souvent facultatif. Ils sont en quelque sorte les héritiers des MMORPG d’antan de par cette utilisation comme « chat room avec une interface graphique ». Et Epic tout comme Roblox disent très clairement vouloir créer ce fameux métavers.

Roblox propose une expérience qui en est d’ailleurs déjà très proche. Il met à disposition des outils de développement simplifiés mais puissants qui permettent à ses utilisateurs (pour beaucoup des enfants) de créer leur propre monde et de le publier gratuitement ou contre monnaie sonnante et trébuchante. Ces expériences vont du jeu très simple à la production premium qu’on croirait sortie d’Unreal, et peuvent gérer les casques de réalité virtuelle. VRChat est aussi très en avance avec des avatars intégralement customisables et complètement interactifs (full body tracking), plus la possibilité de créer presque n’importe quel environnement.

De bien des manières, Horizon Worlds, l’application de réalité virtuelle sociale de Meta (toujours pas sortie en Europe après des années de développement), s’inspire d’ailleurs directement de Roblox. Ce dernier reste pourtant encore assez peu connu du grand public, malgré une valorisation en bourse de plus de 50 milliards de dollars. Il a subi ce week-end une panne globale de presque trois jours sans que cela ne fasse les gros titres.

Cette attirance de la part de Meta n’est pas dure à comprendre : il suffit de regarder ses origines en tant que « social media company ». Sa mission reste d’ailleurs de « connecter les gens », d’après Mark Zuckerberg. Se positionner comme œuvrant à la même chose qu’avant, mais en 3D immersive est donc une façon pour le dirigeant de rassurer ses investisseurs tout en se lançant à plein corps dans le développement de technologies de réalité virtuelle et augmentée, qu’il perçoit comme la prochaine grande plateforme informatique.

On rappellera au passage que Meta cherche désespérément à lutter contre le déclin de l’attractivité de ses réseaux sociaux auprès des jeunes. S’inspirer de Roblox ou Fortnite semble aussi assez logique de ce point de vue.

Après l’Internet mobile… La simulation immersive ?!

Meta parle aussi du métavers comme d’une évolution de « l’Internet mobile », ce qui n’a pas vraiment de sens. C’est déjà un abus de langage : Internet est, comme son nom l’indique, un ensemble de réseaux interconnectés. Il s’agit d’une infrastructure composée de milliers de kilomètres de fibres optiques, d’équipements réseaux et de data centers. Même si cette infrastructure évolue constamment (mais assez lentement), elle ne sera pas remplacée par « le métavers ».

Mais passons. Il est vrai que le smartphone a fait naître un nombre incroyable de nouveaux usages tirant parti d’Internet de par sa nature : toujours connecté, mobile, intégrant une caméra et un capteur GPS. Néanmoins, en quoi « le métavers » serait-il une évolution de ces usages ?

Le smartphone en tant que plateforme informatique est principalement défini par les éléments cités plus haut, par son interface via écran tactile, et par le paradigme des applications aux droits limités, obtensibles par le biais d’une boutique et dont les revenus sont généralement assurés par la publicité.

Leur usage n’est en rien comparable à la notion d’immersion dans une expérience en 3D temps réel sous forme d’avatar. Elle en est en fait presque à l’opposé, les applications mobiles étant généralement limitées dans leur fonctionnalités et optimisées pour un usage simple et souvent intermittent. De nombreuses applications mobiles sont spécifiquement optimisées pour ces usages brefs, pour passer le temps entre deux choses. Le mode de communication le plus en vogue actuellement est d’ailleurs celui des messages asynchrones, pas de l’immersion totale. Cette dernière implique au contraire d’être totalement concentré sur l’expérience que l’on vit, et c’est même d’ailleurs l’une de ses forces.

WebXR prend la poussière

Et le World Wide Web (WWW) dans tout ça ? Espace de liberté et d’interopérabilité par excellence (malgré les efforts de Google ou d’Apple), il a adopté un standard pour la réalité virtuelle et augmentée il y a déjà plusieurs années, baptisé WebXR. Fruit d’un important travail de qualité par l’ensemble de l’écosystème, le WebXR reste malheureusement peu utilisé aujourd’hui. Sa meilleure implémentation dans un navigateur est probablement celle de Meta pour l’Oculus Quest, et son application la plus populaire est sans doute Mozilla Hubs.

Pourrait-il servir de fondement au « métavers » tel qu’envisagé ici ? Possiblement. Le Web est en tout cas ce qui s’en rapproche le plus sur le plan conceptuel. Mais le mettre en pratique est une autre paire de manches. Il faudrait y adjoindre des avatars transposables d’une expérience à une autre, s’assurer d’une compatibilité entre des myriades d’appareils aux capacités très différentes, et obtenir des performances qui ne sont aujourd’hui atteignables que par des applications natives. Il serait aussi, pour rester pragmatique, sans doute plus difficile à monétiser pour une entreprise comme Meta.

Gloubi Boulga

Lors de la conférence récente de Meta, Mark Zuckerberg a aussi évoqué la réalité augmentée, qui peut également rentrer selon lui sous ce dénominatif de métavers. D’ailleurs, même les smartphones et ordinateurs pourront s’y connecter d’après lui, bien que n’offrant pas la meilleure expérience. Difficile dans ce cas de parler d’immersion au même sens que pour la VR. Au passage, bien que souvent groupées ensemble, la réalité virtuelle et la réalité augmentée n’ont pas les mêmes usages, ni les mêmes forces et faiblesses.

Alors de quoi parle-t-on en fait ? D’un jumeau numérique du monde réel agrémenté d’applications localisées ou pas ? D’une série de MMORPGs déguisés dont les gameplays iraient de l’hyper casual au hardcore gamer et qui seraient connectés et interopérables malgré des mondes, personnages, styles de jeu très différents ? D’un canal supplémentaire pour le commerce qui n’offrirait ni la rapidité et la praticité de l’achat en ligne existant, ni le plaisir de vraiment faire les magasins ? C’est apparemment un amalgame de tout ça, sorte de gloubi-boulga dans lequel on peut tout mettre et qui fonctionnera parce que… parce que… « Heu, faites-nous confiance ! » On a du mal à comprendre l’intérêt d’un tel concept, et surtout sa mise en pratique effective.

Décalage entre le réel et le virtuel

Andrew Bosworth, VP de Reality Labs et CTO en devenir de Meta, a évoqué ces problématiques lors d’une présentation réservée à la presse en amont de l’évènement. Selon lui, il faudra moins de 10 ans pour que le métavers n’émerge, même s’il sera très limité au départ. Il a cependant reconnu que l’infrastructure actuelle des réseaux télécoms n’est pas adaptée à la transmission en temps réel des quantités d’information que nécessiterait le métavers tel que l’envisage Meta.

Quiconque a joué dans sa vie à un jeu en ligne pourra témoigner de l’importance cruciale d’avoir une faible latence (le plus petit « ping » possible), et c’est encore plus important en réalité virtuelle. Les adeptes d’expériences massivement multijoueurs connaissent aussi les limites de la coexistence d’avatars dans un même environnement. Représenter de façon qualitative un évènement virtuel dans lequel 100 personnes sont visibles avec leur avatar hautement personnalisé tiendrait déjà de la prouesse technique.

Pas de discussions entre les prêcheurs du métavers pour le moment

L’Usine Digitale a pu poser quelques questions à Andrew Bosworth. Est-ce que Meta s’est rapproché d’autres acteurs voulant « créer le métavers », comme Epic Games avec Fortnite ou Roblox avec le produit du même nom ? La réponse est non. Mais il pense que ces entreprises et d’autres comme Microsoft ont une vision proche de celle de Meta. Il voit Fortnite ou Minecraft comme des « univers » qui pourraient selon lui être connectés pour former un embryon de métavers.

Il reconnaît cependant que de nombreux développeurs (notamment pour des titres AAA, c’est-à-dire à très gros budget) préféreront continuer à créer des mondes isolés. A ses yeux, pour motiver ces différentes entreprises à faire cause commune et rendre leurs produits interopérables, il faut prouver qu’il y a une opportunité de marché et donc créer ce désir d’un écosystème unifié.

Pas de réflexion sur la standardisation technique nécessaire

Autre question : les expériences en 3D temps réel peuvent être créées de façon très différentes de nos jours. Fortnite a évidemment été conçu avec l’Unreal Engine, le moteur 3D d’Epic Games. Horizon Worlds, l’expérience « proto-métavers » de Facebook, est développée avec Unity, le principal concurrent d’Unreal.

Ces deux moteurs, des middlewares qui facilitent considérablement la conception d’une application en 3D temps réel, ne sont absolument pas compatibles entre eux. Recréer un jeu d’un moteur à l’autre équivaut à le redévelopper presque de zéro. Et il en existe évidemment bien d’autres, dont bon nombre de moteurs développés en interne. Meta a-t-il un plan spécifique pour résoudre ce problème majeur ? Pas vraiment.

Andrew Bosworth reconnaît qu’il y a beaucoup de travail à faire, et que des efforts conséquents devront être fournis par chaque acteur pour réaliser cette vision. Meta n’en est pour le moment « qu’au commencement ». A noter au passage que pour l’instant, Horizon Worlds (uniquement disponible en Amérique du Nord) n’est pas compatible avec d’autres casques que ceux de Meta, et que cela ne changera pas dans l’immédiat. Autant dire que la route sera longue pour atteindre le métavers.

Enfin, nous lui avons demandé si Meta travaille à l’élaboration d’un standard pour clairement définir la façon dont ce « World Wide Web » en 3D temps réel fonctionnera. Ce n’est pas le cas. Il juge qu’il est encore trop tôt pour ces questions, et qu’elles devront être soupesées avec la nécessité de placer la sécurité, le respect de la vie privée et l’intégrité au cœur de ce métavers. Ce qui est certes le cas, mais qui nous semblerait bénéficier d’autant plus de l’élaboration d’un standard par un consortium regroupant à la fois des entreprises technologiques et des acteurs de la société civile, sans oublier les gouvernements.

On comprend donc que ce projet, si ambitieux soit-il, n’en est qu’à ses balbutiements. Meta est certes un leader incontesté dans le domaine de la réalité virtuelle, et peut s’appuyer sur l’expertise gagnée avec ses autres produits pour les aspects liés à la communication ou au commerce. Mais créer un monde massivement multi-utilisateurs permanent en 3D temps réel à la latence ultra basse est une autre paire de manches. Et mettre au point une infrastructure permettant à une multitude de ces mondes d’être interconnectés entre eux est encore plusieurs ordres de grandeur au-dessus.

John Carmack, le franc-tireur

John Carmack, développeur légendaire qui a joué un rôle majeur dans l’émergence des jeux en 3D et qui officie aujourd’hui comme « Consulting CTO pour Oculus », n’a d’ailleurs pas caché son dédain pour cette notion dans sa traditionnelle keynote non scriptée (il prépare seulement les thèmes à aborder et se lance ensuite sans discours préplanifié).

Il décrit le métavers comme un appât pour les « architecture astronauts », un terme jargoneux désignant des ingénieurs ou concepteurs qui ne s’intéressent qu’à la vision au niveau le plus abstrait (i.e. vu de l’espace) d’un problème, sans s’intéresser aux détails de sa réalisation concrète. Il s’inquiète de la possibilité que Meta ne passe des années à travailler sur le sujet sans rien produire de très utile au final. Il faut saluer le fait que Meta le laisse dire ce genre de choses. Mais il faut surtout souhaiter qu’il soit écouté, et que l’entreprise reste focalisée sur des choses concrètes.

Quid du business model ?

Quant à la monétisation de cette initiative… « Nous ne nous concentrons pas là-dessus pour le moment », explique Andrew Bosworth. Cependant, lui comme Mark Zuckerberg voient dans le métavers un potentiel de revenus énorme. « Il s’agira d’une économie à l’échelle de l’humanité, avec des échanges de biens et services numériques qui seront bien plus importants que ce que représente l’Internet aujourd’hui ».

Meta y voit en particulier un fort potentiel pour les créateurs de contenus, qui pourront en faire un job à temps plein. Ce genre de choses existe déjà dans des applications comme Roblox ou Rec Room, et certains créateurs gagnent en effet très bien leur vie de cette manière. Pour autant, pas sûr que ce modèle puisse passer à l’échelle supérieure, et que des millions de personnes soient capables d’en vivre.

Il serait en effet dangereux de croire que la valeur peut être créée virtuellement. A un moment donné, quelqu’un devra bien générer de l’argent dans le monde réel pour le dépenser dans le virtuel. Et si le nombre d’emplois dans le monde réel diminue, cette manne à dépenser diminuera d’autant plus. L’idée d’une économie virtuelle parallèle palliant les insuffisances de l’économie réelle, voire la supplantant, est donc à récuser.

Encore une fois, la vision décrite par Meta semble en fait plus proche de celle déjà en place dans le milieu du jeu vidéo. Micro-transactions dans les jeux pour personnaliser son avatar, contenus additionnels donnant accès à de nouvelles zones, capacités ou expériences, accès à des contenus réguliers par abonnement, sans parler des jeux mobile freemium qui versent carrément dans le « pay-to-win ». Toutes les pratiques du métavers sont déjà là, avec les dérives associées comme les « loot boxes » ou « gachas », qui représentent une forme de jeu de hasard et peuvent créer une addiction.

Plongée dans l’enfer des NFT

Sur le plan des dérives, on ne fait sans doute pas pire que le milieu de la blockchain. Royaume des charlatans, pas une semaine ne passe sans qu’une nouvelle arnaque n’y soit révélée. L’enthousiasme forcené des partisans des cryptomonnaies et des non-fungible tokens (NFT) pour le métavers n’est donc pas particulièrement rassurant quant à la viabilité du concept. Mark Zuckerberg y a pourtant fait allusion dans sa keynote comme un élément important du métavers. L’entreprise travaille sur les monnaies numériques au travers de sa division Novi.

Leur vision s’articule comme évoqué plus haut autour de l’échange de biens virtuels, la différence étant que cette technologie permet d’intégrer le contrat directement à l’objet. Le système est en théorie décentralisé, et la propriété des objets est garantie (sur le plan technique) indépendamment d’une plateforme centrale. Sauf que dans les faits et malgré l’insistance sur la décentralisation, les NFT sont en général fortement tributaires d’un seul acteur qui garantit leur validité. D’où la quantité astronomique d’arnaques et de projets douteux qu’on y voit fleurir.

On est aussi en droit de douter du bien-fondé de vouloir raréfier le fichier informatique, une ressource abondante par sa nature même grâce à sa capacité inhérente à être parfaitement dupliquée. Cette incompréhension des fondements de l’informatique provoque régulièrement une grande frustration auprès des collectionneurs de NFT qui ne saisissent pas pourquoi les internautes sont capables de faire un « clic droit, enregistrer sous » de leurs précieuses images achetées à prix d’or. Ce qu’ils achètent n’est en fait qu’un certificat de propriété hébergé sur un site web qui n’a de valeur qu’auprès de son émetteur. Un peu comme la vieille arnaque consistant à « acheter une étoile » à un être cher, qui n’a aucune validité quelle qu’elle soit. A noter aussi que les œuvres vendues le sont souvent sans l’accord de leur véritable auteur.

Intégrer un contrat aux biens numériques

Cela étant dit, le principe à la base des NFT n’est pas dénué d’intérêt. Il pourrait par exemple permettre d’intégrer la licence d’utilisation d’une application directement dans cette dernière plutôt que de la rattacher à une boutique en ligne. L’application pourrait alors être prêtée ou revendue par son propriétaire, comme un bien physique. L’utilisation d’un registre décentralisé permettrait à de nombreux acteurs, aussi bien les éditeurs de logiciels que les exploitants de plateformes, d’utiliser une base commune et de garantir une interopérabilité. Soulignons néanmoins que ce n’est pas dans l’intérêt des éditeurs et que ça n’a donc que peu de chances de se produire.

Même chose en théorie pour des objets virtuels auxquels seraient rattachés un droit d’exploitation. Plus question ici de rareté artificielle mais bien d’intégration du contrat commercial au bien virtuel de façon à le rendre interopérable. Evidemment, tout cela n’est que théorique. Rien ne garantit que tous les acteurs concernés se mettent d’accord autour d’une telle solution. Et rien n’empêche une plateforme de proposer les mêmes fonctionnalités par le biais de sa boutique, ni plusieurs plateformes de créer une interopérabilité entre elles qui resterait centralisée par elles-mêmes. D’autant que les performances techniques pour faire tourner une blockchain à grande échelle restent aujourd’hui bien en-dessous de celles des technologies « classiques ». La mise en pratique de la technologie NFT à grande échelle est donc tout sauf évidente et sa pertinence à long terme n’est pas du tout assurée.

Ne pas sous-estimer Mark Zuckerberg

Il peut être tentant de balayer de la main les annonces de Meta, rejetant en bloc tous ses projets comme un fantasme puéril. Ce serait une erreur. On peut penser ce qu’on veut de Mark Zuckerberg, mais il est indéniable que l’homme est un entrepreneur avisé. Il a refusé de vendre sa start-up à Yahoo à ses débuts, puis a su faire de Facebook un géant alors que Google cherchait à le tuer dans l’œuf. Il a eu le nez creux en rachetant Instagram et WhatsApp – et a surtout réussi ensuite à faire exploser leur croissance – alors que de nombreux observateurs y voyaient des erreurs stratégiques. Son rachat d’Oculus en 2014 a aussi eu droit à son lot de sceptiques, et les grandes déclarations sur l’échec, voire la bêtise de ses investissements dans la réalité virtuelle n’ont pas manqué depuis.

Et pourtant. L’Oculus Quest 2 – qui sera bientôt le Meta Quest 2 – passera sans mal la barre des 10 millions d’appareils vendus d’ici à ce que sa commercialisation prenne fin. Il la passera même peut-être déjà en cette fin d’année, les fêtes étant une période clé pour la vente de jeux vidéo. En moins de cinq ans, depuis la sortie de l’Oculus Rift, Meta a diminué la taille de ses casques par deux, multiplié leur qualité d’affichage par trois, divisé leur coût par trois, et s’est affranchi de la nécessité d’un ordinateur pour en tirer parti. Un tour de force.

L’entreprise, qui ne faisait que du logiciel, est désormais un fabricant de matériel reconnu. Elle pivote avec une agilité remarquable pour une corporation de sa taille. Au passage, Meta a évincé les efforts de Google et Microsoft en matière de réalité virtuelle, et reste hors de portée de concurrents comme Valve ou HTC. Seul Sony fait figure de poids lourd grâce à la force de PlayStation, mais il se limite au marché du jeu vidéo. Or Mark Zuckerberg voit plus loin.

Aujourd’hui, peu de grandes entreprises technologiques remettent en cause cette vision. Apple investit lourdement dans la réalité virtuelle et augmentée, et Tim Cook ne cache pas qu’il voit cette dernière comme la clé du potentiel successeur de l’iPhone lors de la prochaine décennie. Google y travaille aussi discrètement, tandis que Microsoft s’est taillé une belle niche de marché avec les HoloLens. Magic Leap continue de récolter des centaines de millions de dollars de fonds de la part d’investisseurs, et ByteDance, l’éditeur de l’application TikTok, vient de racheter le fabricant de casques VR Pico Interactive pour une somme comprise entre 500 millions et 1 milliard d’euros. Les concepteurs de puces Qualcomm et Nvidia misent aussi beaucoup dessus.

Sans même prendre en compte l’idée d’un métavers, il ne fait donc aucun doute que toutes les grandes entreprises technologiques voient aujourd’hui la réalité virtuelle et augmentée comme des technologies stratégiques pour leur avenir.

Une simple histoire de marketing ?

Au final, on peut se demander si l’un des principaux objectifs de cette annonce de Meta n’est pas qu’une affaire de marketing. En effet, la notion de métavers a beau être floue (Meta l’utilise ouvertement comme un terme générique fourre-tout), elle provoque clairement plus d’engouement que « la réalité virtuelle et augmentée » auprès des médias généralistes et d’une partie du public. Jason Rubin, VP en charge du contenu chez Meta, avait d’ailleurs dépeint la chose en ce sens dans une note interne confidentielle en 2018, récemment obtenue par CNBC.

La réalité virtuelle peinant à l’époque à convaincre le grand public, il recommandait de frapper fort avec ce concept de « métavers » pour prendre d’avance toute la concurrence. De ce point de vue, c’est donc un pari réussi… Mais c’est aussi à double tranchant. Les médias qui titrent aujourd’hui sur le métavers comme étant une révolution pour Internet seront ceux qui pointeront du doigt dans trois ans les promesses non tenues de Meta.

On peut aussi légitimement se demander si c’était encore nécessaire. Certes, la dénomination « AR/VR » (pour « augmented reality and virtual reality ») n’est pas la plus élégante qui soit, mais le concept de réalité virtuelle est désormais assez clair et a progressivement gagné en popularité auprès des gamers. On en revient donc à la réputation de Facebook en lui-même, qui a été sévèrement entachée depuis 5 ans par des scandales à répétition.

Si ce cap vers le métavers n’est clairement pas qu’une simple manœuvre de diversion, étant donné les ressources engagées en ce sens depuis plus de sept ans, ce rebranding est certainement en partie une stratégie de communication devant bénéficier à la fois à Meta et plus généralement aux technologies sur lesquelles elle parie. Il est une manière pour Mark Zuckerberg de montrer qu’il ne s’agit pas d’une lubie mais bien d’une décision stratégique majeure et qu’elle doit être prise très au sérieux.

Meta se prépare à l’entrée en jeu d’Apple

La volonté affichée de construire ce grand réseau à plusieurs sonne de son côté comme une frappe préventive contre Apple. L’entreprise de Tim Cook n’aime en effet pas jouer collectif et n’accepterait sans doute jamais un écosystème ouvert. Si c’est bien le raisonnement de Meta, il est intelligent. Apple travaille depuis plusieurs années sur la réalité virtuelle et augmentée. Les dernières rumeurs tablent sur une annonce fin 2022 pour son premier casque.

Il s’agira d’un appareil haut de gamme conçu pour la réalité mixte. Le projet Cambria s’y opposera frontalement. L’arrivée d’Apple sur ce marché sera le plus grand défi auquel aura fait face Meta jusqu’ici. La firme à la pomme a beau vendre ses produits à prix d’or et régner sans pitié sur son écosystème, elle conserve une image de marque immaculée et peut compter sur la fidélité de dizaines de milliers de développeurs au bas mot. Pas étonnant donc que Meta ait tenu à réaffirmer sa mission et soit allé jusqu’à redéfinir son identité.

Les deux entreprises s’opposent sur presque tous les plans et à un niveau quasi idéologique. Business model, contrôle des contenus et gestion de l’écosystème… Leurs dirigeants semblent aussi se détester ouvertement. Mark Zuckerberg ne s’est d’ailleurs pas privé de lancer plusieurs tacles contre Apple et Google et leur gestion de leurs écosystèmes mobiles respectifs lors de Connect 2021. En restant pragmatique, ils savent aussi tous les deux depuis au moins quatre ans qu’ils seront des compétiteurs acharnés sur le marché de la réalité augmentée. Les prochains 24 mois seront d’ailleurs déterminants dans l’émergence d’un leader à long terme.

La réalité virtuelle a de nombreux cas d’usage à l’intérêt bien réel

Créer un espace virtuel en 3D temps réel capable d’accueillir un milliard de personnes simultanément qui s’y connecteraient avec pratiquement n’importe quel appareil, de l’ordinateur aux lunettes de réalité augmentée en passant par le smartphone ou le casque VR, et pour y faire n’importe quoi. Voilà qui semble bien irréaliste, même dans 10 ans.

Cependant, la réalité virtuelle a de vrais usages au potentiel incroyable – et tout à fait réalisables. Un certain nombre d’entre eux sont même déjà là. Le premier est le gaming. Pas aussi gros que l’Internet tout entier, certes. Mais massif et en croissance permanente. Il est aussi pour le moment le principal moteur de l’adoption de la réalité virtuelle. S’y ajoutent l’exercice physique, qui gagne en popularité, et le divertissement plus traditionnel, comme regarder des films ou séries sur un « écran géant » virtuel avec ses amis, même quand on n’est pas au même endroit.

Dans le monde professionnel, la VR permet une meilleure formation aux métiers manuels (y compris la chirurgie !), mais aussi des visioconférences qui donnent l’impression d’être vraiment dans la même pièce, et peut servir à créer et jauger des modèles 3D (qu’il s’agisse de design industriel ou d’architecture) de façon beaucoup plus naturelle qu’en 2D, avec un clavier et une souris. En passthrough, on commence aussi à pouvoir remplacer un ordinateur pour le travail de bureau, le casque remplaçant de multiples écrans.

De nombreux autres usages vont émerger dans les années qui viennent. Et des écosystèmes en 3D répondant sur le papier au concept de métavers, comme Roblox ou Rec Room, continueront d’apparaître et de grandir. Remplaceront-ils l’Internet tout entier ? Probablement pas. Représentent-ils malgré tout une opportunité financière colossale en tant que « réseau social » d’un nouveau genre ? Indéniablement. Fortnite en est le parfait exemple. Le jeu a généré plus de 5 milliards de dollars de revenus en 2018. La difficulté sera de faire en sorte que ces revenus soient non seulement durables (ils ont baissé de moitié depuis), mais capables de croître.

La révolution de l’informatique contextuelle

Dans les faits, « la réalité virtuelle et augmentée » est une dénomination imparfaite de ce que représente ces technologies : une évolution de l’informatique personnelle dans laquelle nos appareils perçoivent et comprennent le monde qui nous entoure afin de nous offrir une expérience ultra personnalisée. La visualisation n’est qu’une partie (certes majeure) de l’équation, et doit être couplée à la perception pour être réellement transformative au-delà du cas d’usage vidéoludique (et pour ce dernier, ce sont souvent les méthodes d’interaction qui font la différence).

C’est d’ailleurs ce qui ressort souvent des présentations de Michael Abrash, qui dirige les équipes de recherche de Meta en matière de réalité virtuelle et augmentée. Qu’il s’agisse d’un bracelet avec lequel on peut taper du texte par de minuscules contractions du poignet, de lunettes qui nous rappellent où sont nos clés et atténuent un environnement bruyant pour nous aider à suivre une conversation entre amis, ou d’un casque avec lequel on peut voir et parler à nos proches comme si on était dans la même pièce alors qu’ils ont à des milliers de kilomètres.

Rien de cela n’a vraiment de rapport avec le concept de métavers. On parlera plutôt d’informatique « ambiante » ou « contextuelle », qui s’appuie sur des capteurs et des briques d’intelligence artificielle pour plier encore un peu plus nos appareils électroniques à nos besoins, plutôt que de requérir qu’on s’adapte à eux. C’est là que se situe la vraie promesse de la réalité augmentée. Si des doutes persistent encore sur la faisabilité de mettre autant d’électronique dans un format ultra léger, les cas d’usage sont innombrables. On aurait un assistant personnel à disposition en permanence, capable d’augmenter notre vue et notre ouïe et de nous amener de l’information instantanément.

Se désintéresser, c’est laisser faire

Au final, l’idée d’un « métavers » n’est donc qu’un usage potentiel parmi d’autres pour ces technologies, voire un terme qui sera (à nouveau) relégué d’ici quelques années dans le même placard que « l’autoroute de l’information », expression qui fut un temps utilisée pour désigner l’Internet. Mais pour autant, tout ce qu’il véhicule n’est pas sans intérêt. Les efforts de Meta en la matière sont à surveiller de près, en partie pour s’assurer que ce que l’entreprise met au point respecte bien les principes éthiques qu’elle se plaît à mettre en avant.

Car qui dit immersion dit vulnérabilité. Les cas de harcèlement liés aux réseaux sociaux (de Twitter à TikTok en passant par Snapchat) sont légion et les outils en place pour lutter contre sont peu efficaces. Les abus sont aussi courant sur Roblox, Rec Room et Fortnite. Il serait regrettable que la prochaine évolution de ces plateformes empire les choses au lieu de les arranger. Et aujourd’hui, la seule entreprise qui réfléchit sérieusement à ces questions… est Meta.

Source : L’usineDigitale

2022-04-18T10:36:06+02:0026 février 2022|Catégories : Digital, eCommerce, ETI, GE, IA, Metaverse, PME, TPE|Mots-clés : , , , |0 commentaire

Définition : SEM = SEO + SEA + SMO

Kesako SEO, SEA, SMO, SEM ? Vous devez voir passer ces différents sigles régulièrement sur internet aujourd’hui. Si vous êtes néophyte, leurs sens vous sont probablement inconnus. Si vous êtes un habitué du web, vous en savez certainement un peu plus, mais il subsiste peut-être encore quelques hésitations. Il faut dire que beaucoup de personnes les mélangent toujours et diffusent des informations pas toujours très justes. Nous sommes aujourd’hui ici pour mettre un terme à cela et comprendre une bonne fois pour toutes les relations qu’entretiennent ces différents termes.

Qu’est-ce que le SEO ?

Le SEO (pour Search Engine Optimization – Optimization pour les Moteurs de Recherche) n’est rien d’autre que le référencement sur internet dit « naturel ». C’est à dire toutes les techniques qui visent à améliorer le positionnement d’un site internet dans un moteur de recherche tel que Google par exemple. Le SEO porte son action sur trois piliers : la technique, le contenu et la popularité. Il est nécessaire d’agir sur ces 3 piliers afin d’améliorer la visibilité d’un site sur internet. La technique concerne tout ce qui est en rapport avec les performances d’un site (serveur, technologies utilisées, langages de programmation utilisés, etc). Le contenu concerne lui le cœur du site : ses textes, ses images et ses vidéos.

C’est la matière du site et ce qui est directement proposé aux internautes. Un bon contenu est exhaustif, unique et original. Enfin la popularité concerne les mentions que font des sites tiers vers un autre site internet. Pour illustrer, un bon contenu sera probablement repris sur d’autres sites internet et partagé. Cela est un indicateur fort de popularité et donc de qualité pour un moteur de recherche. Un site obtenant beaucoup de liens entrants pertinents sera perçu comme un site de qualité.

Qu’est-ce que le SEA ?

Le SEA (pour Search Engine Advertising – Publicité sur les Moteurs de Recherche) définit ce que l’on appelle couramment le référencement « payant ». Il concerne en réalité la publicité diffusée sur un moteur de recherche. Google en est le meilleur exemple avec sa célèbre régie publicitaire Google Ads. Vous remarquerez en effet que pour certaines requêtes, des résultats dit sponsorisés (« annonces ») apparaissent sur le moteur de recherche. Ce sont des emplacements publicitaires achetés. Dans le cas de Google Ads, on achète par exemple aux enchères des mots clés. Si notre enchère est suffisamment haute, notre annonce apparaîtra lorsqu’un internaute recherchera spécifiquement les mots clés en question.

Qu’est-ce que le SMO ?

Le SMO (pour Social Media Optimization – Optimisation des Médias Sociaux) comprend toutes les activités visant à développer la visibilité d’une entreprise au travers des médias sociaux. Le poids de ces derniers n’est pas toujours évident à appréhender lorsque l’on se concentre sur les moteurs de recherche. En effet, si Youtube et Google+ (les deux bébés de Google) ont un poids certain, celui d’autres médias sociaux tels que Facebook, Twitter, LinkedIn, Viadeo et Dailymotion est plus relatif. Youtube et Google+ sont aujourd’hui indispensables dans une stratégie de « search ». Il est en effet fréquent de voir remonter des vidéos Youtube dans les résultats de recherche (et les vidéos Youtube remontent bien plus majoritairement que les vidéos Dailymotion ou Vimeo par exemple) et il ne faut pas oublier que Youtube est lui même le deuxième moteur de recherche au monde en terme de volume de recherches. Il en va de même pour Google+ qui, en plus de personnaliser les SERPs en fonction du profil utilisateur connecté, offre de nombreuses options liées à la visibilité sur les pages de résultats : Rich Snippet entreprise, vignette d’Authorship, fiche Google+ Local, etc.

Le poids des autres médias sociaux est plus relatif (toujours dans l’optique de la stratégie de search que nous traitons dans cet article). Les profils remontent bien de temps à autre, mais c’est essentiellement par leur pouvoir de communication, de viralité, de fédération et de fidélisation qu’ils se distinguent très largement.

Qu’est-ce que le SEM au final ?

Le SEM (pour Search Engine Marketing – Marketing sur les Moteurs de Recherche) est un terme global prenant en compte toutes les techniques visant à améliorer la visibilité d’une entité (site, entreprise, personne..) sur les moteurs de recherche. Par conséquent, le SEM est un regroupement de techniques marketing et non une technique marketing en soi.

Si vous observez les 3 premiers points de cet article, vous remarquerez une complémentarité évidente entre les 3 techniques (SEO, SEA et SMO). Ainsi, toutes les techniques que nous avons observés précédemment composent tout simplement ce que l’on appel le SEM.

Traditionnellement, et comme le titre de cet article le précise d’entrée de jeu, on résume cet écosystème marketing par une courte formule : SEO + SEA + SMO = SEM.

Source : seo.fr

2021-10-10T11:31:30+02:0010 octobre 2021|Catégories : Digital, ETI, GE, Marketing, PME, TPE|Mots-clés : , , , , , |0 commentaire
Aller en haut