L’intelligence artificielle (IA) a fait d’énormes progrès au cours des dernières années, mais tous les développements ne sont pas couronnés de succès. Soit parce que la démarche produit n’a pas été menée, soit parce que la qualité de la donnée n’était pas optimale ou le modèle suffisamment entraîné. Il ne s’agit pas de faire de l’IA pour faire de l’IA. Ces échecs sont souvent suivis de déceptions et concourent à une image dégradée des produits Data et IA.

IA et hologramme. Une bonne idée ?

Les conseils dangereux de l’IA de Google

Parmi les exemples les plus récents et troublants figure la nouvelle fonctionnalité d’IA de Google, qui a suscité des inquiétudes et des critiques massives pour ses conseils dangereux et absurdes. Quels ont été les problèmes rencontrés par Google et quels sont les risques des « hallucinations » de l’IA ?

Google a récemment intégré un outil d’intelligence artificielle dans son moteur de recherche, destiné à fournir des résumés de résultats de recherche. Cependant, cet outil a été critiqué pour avoir donné des conseils dangereux et absurdes, tels que « manger des cailloux », « ajouter de la colle à sa pizza » et « nettoyer sa machine à laver avec du gaz chlore ». Ces conseils proviennent d’une nouvelle fonctionnalité appelée « AI Overviews », basée sur le modèle d’IA Gemini.

Par exemple, l’IA a suggéré à un utilisateur dépressif de sauter du Golden Gate Bridge, ce qui a provoqué une indignation massive sur les réseaux sociaux. Certains résumés générés par l’IA utilisaient des articles provenant de sites satiriques comme The Onion ou des commentaires comiques sur Reddit, soulignant le manque de discernement de l’outil.

Les « hallucinations » de l’IA : un problème récurrent

Le phénomène des « hallucinations » de l’IA n’est pas nouveau. Ces hallucinations se produisent lorsque l’IA génère des informations fausses ou trompeuses, souvent avec une confiance injustifiée. Dans le cas de Google, l’IA a non seulement produit des conseils dangereux mais a aussi relayé des informations incorrectes comme :

  • John Adams, un des pères fondateurs des États-Unis, aurait obtenu 21 diplômes de l’Université du Wisconsin.
  • Un chien aurait joué dans la NBA, la NHL et la NFL.
  • Manger un caillou par jour aiderait la digestion.

Ces erreurs mettent en évidence les limitations actuelles des systèmes d’IA en matière de vérification de la fiabilité des sources d’information. Dans un projet IA, la qualité des données est indispensable.

L’impact des erreurs de l’IA sur la société

Les erreurs de l’IA peuvent avoir des conséquences graves, surtout lorsque ces systèmes sont utilisés pour fournir des informations critiques. Les conseils médicaux erronés peuvent mettre la santé des utilisateurs en danger, tandis que les informations fausses peuvent provoquer de la confusion et de la désinformation. Dans le cas de Google, les recommandations absurdes et potentiellement dangereuses de l’IA pourraient éroder la confiance des utilisateurs dans les technologies d’IA.

La diffusion de fausses informations peut avoir des répercussions juridiques et éthiques. Par exemple, l’incident où ChatGPT a fabriqué un scandale de harcèlement sexuel en nommant un vrai professeur de droit comme coupable, basé sur des rapports de journaux fictifs, illustre bien les risques pour la réputation des individus et des organisations.

Cela indique également que l’IA, si elle n’est pas contrôlée, pourrait être manipulée par les masses.

La réponse de Google et les mesures correctives

Face aux critiques, Google a reconnu que les erreurs rapportées étaient des cas isolés et rares, et non représentatifs de la majorité des résultats générés par leur IA. La société a déclaré avoir effectué des tests approfondis avant le lancement de cette fonctionnalité et a affirmé que la plupart des résumés produits par l’IA étaient de haute qualité.

Google a également pris des mesures pour corriger ces erreurs et affiner ses systèmes. Ils ont réaffirmé leur engagement à garantir la fiabilité et la sécurité de leurs outils d’IA, tout en utilisant les incidents signalés pour améliorer leurs algorithmes et réduire les risques d’hallucinations à l’avenir.

Les projets IA dangereux

Les exemples de mauvaises pratiques en matière de projets IA sont nombreux. La Chine, par exemple, a installé des millions de caméras de surveillance avec reconnaissance faciale, entraînant des violations de la vie privée et des libertés individuelles. Clearview AI, une technologie de reconnaissance faciale qui collecte des images sans consentement, a également soulevé des préoccupations majeures en matière de vie privée.

Des IA conçues pour exploiter les émotions à des fins de marketing agressif, comme certains chatbots manipulateurs, peuvent nuire à la confiance des utilisateurs. La création de faux influenceurs IA pour influencer de manière non transparente peut entraîner une perte de confiance du public.

Une bonne pratique de product management aurait évalué les impacts éthiques et sociaux de ces initiatives.

Les projets IA ratés

Parmi les projets IA qui n’ont pas trouvé leur public, on peut citer Jibo et Kuri, des robots domestiques équipés d’IA qui n’ont pas réussi à convaincre en raison de fonctionnalités limitées et de coûts élevés. Une meilleure compréhension des besoins des consommateurs et une validation rigoureuse des propositions de valeur auraient pu éviter ces échecs. Hello Barbie, critiquée pour des raisons de vie privée et de sécurité, n’a pas su convaincre les parents. Une approche produit centrée sur les préoccupations des utilisateurs aurait pu guider le développement vers des solutions plus acceptables.

Certaines initiatives IA ont également été jugées inutiles. Les miroirs intelligents avec IA, par exemple, offraient peu de valeur ajoutée par rapport aux appareils existants. Une recherche utilisateur approfondie aurait permis de mieux comprendre les attentes et de développer des fonctionnalités véritablement innovantes. Les recommandations de vin personnalisées de Vivino manquaient souvent de pertinence. Un processus itératif d’amélioration continue, basé sur les retours des utilisateurs, aurait pu affiner les algorithmes pour mieux répondre aux préférences individuelles.

Fondée par d’anciens employés d’Apple, Humane est connue pour son produit phare, l’AI Pin. Cet assistant intelligent, conçu pour être porté à la boutonnière, vise à remplacer les smartphones en projetant une image dans la paume de l’utilisateur. Cependant, ce dispositif a été qualifié de « pire produit qu’il n’ait jamais testé » par le célèbre youtubeur Marques Brownlee.

« Si le seul outil que vous avez est un marteau, vous tendez à voir tout problème comme un clou »

De cette citation d’Abraham Maslow retenons qu’il ne suffit pas de vouloir suivre la dernière mode pour parvenir au succès, bien au contraire. L’IA est-il une mode ? Suivra-t-elle le même chemin que les MOOCs, la Blockchain, le Big Data, et les NFT ? 36% des entreprises américaines citent l’IA dans leurs communiqués de presse, un chiffre qui n’a cessé d’augmenter. Doit-on appliquer l’IA à tous les produits pour résoudre tous les problèmes ? Parfois, pour un bon produit, pas besoin d’IA.

Sans démarche produit, échecs seront au rendez-vous. Suivi l’effet de mode, ces technologies sont souvent suivies d’une énorme déception de la part des utilisateurs. L’IA n’échappera sans doute pas à ce cycle. Tout l’enjeu est que cela se stabilise et s’améliore à nouveau, avec des attentes à la hauteur des possibilités. Résisteront à ce cycle les produits bien pensés, qui auront tenu compte des besoins, des utilisateurs, mais également de la qualité des données utilisées.

Les mesures préventives avec le Product Manager sur les projets IA

Toutes les start-ups ne s’appellent pas Google et ne peuvent se permettre mauvaise presse. Si Google va se nourrir et tirer parti des retours utilisateurs, aussi sarcastiques soient-ils, une jeune pousse se heurtera à un mur.

La compréhension des besoins utilisateurs est nécessaire avant de se lancer dans le développement d’une solution IA. Une démarche centrée sur l’utilisateur, telle que le double diamant, permet d’identifier les vrais problèmes à résoudre et de s’assurer que la solution proposée apporte une valeur ajoutée réelle.

Les projets IA reposent souvent sur des hypothèses concernant le comportement des utilisateurs et les données disponibles. La démarche produit intègre des phases de POC, prototypage et de test, permettant de valider ces hypothèses avant de passer à des phases de développement coûteuses. L’échec du chatbot Tay de Microsoft, qui a rapidement commencé à produire des tweets offensants après avoir été manipulé, souligne l’importance de tester et de valider les comportements en conditions réelles.

Le processus itératif du double diamant encourage l’amélioration continue des produits IA. En itérant régulièrement, les équipes peuvent ajuster leur approche en fonction des retours utilisateurs et des nouvelles données, assurant ainsi une adaptation constante aux besoins évolutifs.

Les leçons à retenir

Ces exemples mettent en lumière plusieurs leçons importantes concernant le développement et le déploiement des technologies d’IA :

  • Ne pas faire de l’IA pour faire de l’IA. Si l’IA est adaptée pour certains besoins, elle ne l’est pas nécessairement pour d’autres.
  • Importance de la vérification des sources : Les systèmes d’IA doivent être rigoureusement entraînés pour distinguer les sources fiables des sources non fiables. Cela est fondamental pour éviter la propagation de fausses informations.
  • Tests et validation : Avant de déployer des outils d’IA à grande échelle, des tests exhaustifs doivent être réalisés pour identifier et corriger les erreurs potentielles.
  • Surveillance continue : Une fois les systèmes déployés, une surveillance continue est nécessaire pour détecter et corriger les dérives en temps réel.
  • Transparence et responsabilité : Les entreprises doivent être transparentes sur les limites de leurs technologies d’IA et prêtes à assumer la responsabilité des erreurs et des impacts négatifs.

Les dérives des produits IA ratés, comme le montre l’exemple de Google, soulignent les défis et les risques associés à l’intégration de l’IA dans des applications grand public. Bien que l’IA ait le potentiel de transformer de nombreux aspects de notre vie quotidienne, il faut veiller à ce que ces technologies soient développées et déployées de manière responsable. Les incidents récents rappellent l’importance de la rigueur dans la conception, le test et la surveillance des systèmes d’IA pour garantir qu’ils servent le bien-être de la société et minimisent les risques.

Besoin d’un Product Manager, d’un Head of product ou d’un Lead Product ? Contactez-moi.


Pascal Kammerer

Product Manager / Product Owner / Scrum Master Freelance. Diplômé par deux Bac 5, en Product Management et en Marketing Digital, complétés par 6 certifications agiles, j’ai mis en pratique mes connaissances durant 25 années d’expériences professionnelles dont 10 dans un contexte agile. Cela me permet d’avoir une vision complète de vos projets : L’expérience client et le parcours des utilisateurs ont toujours eu une importance capitale à mes yeux, comme les enjeux business. Passionné par les nouvelles technologies et les nouveaux usages qu’elles induisent, j'ai travaillé pour plusieurs secteurs d’activités comme la santé, les télécom, les objets connectés, les finances, les RH, l’éducation et la formation ... pour ne citer qu’eux. Enthousiaste, je crois en une collaboration facilitée, participative, et à l'amélioration continue. Reconnu pour mes qualités, plus de 40 références et recommandations sont à votre disposition. À la fois polyvalent et expert, je saurai piloter vos projets et produits et les conduire jusqu’au succès.

0 Commentaire

Laisser un commentaire

Avatar placeholder

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *