Le spécialiste en neurosciences Gary Marcus s’exprime au Sénat américain sur l’IA
Publicité
Marcus est reconnu dans le milieu universitaire depuis un certain temps, mais sa notoriété a récemment augmenté grâce à sa lettre d’information (« The Road to AI We Can Trust »), un podcast (« Humans vs. Machines ») et ses préoccupations concernant l’essor incontrôlé de l’IA. Il a également été présenté dans des médias tels que Bloomberg Television, The New York Times Sunday Magazine et Wired.
Les risques de l’IA actuelle
Questionné sur les risques de l’IA actuelle, Marcus a déclaré qu’il ne considère pas l’IA actuelle comme une menace existentielle, mais qu’elle est néanmoins dangereuse. Selon lui, l’IA actuelle représente un danger pour la démocratie, bien qu’elle ne menace pas l’humanité dans son ensemble. Il a également souligné les dangers potentiels pour la démocratie, tels que la désinformation volontaire ou involontaire, et la manipulation des convictions politiques des individus.
Lire aussi : ChatGPT : un outil performant et sujet à débat
Débat avec Yann LeCun
Marcus a également mentionné ses débats avec Yann LeCun, le responsable scientifique de l’IA chez Meta. Leur désaccord concerne principalement l’utilisation des modèles de langage à grande échelle et les risques potentiels qu’ils posent. Marcus estime que LeCun a tort de penser qu’il n’y a aucun danger à utiliser ces modèles, car ils peuvent être utilisés pour manipuler les individus et propager la désinformation à grande échelle.
Questions de régulation et d’ouverture
Au cours de l’audition, peu de questions ont été posées sur les systèmes ouverts ou fermés en matière d’IA. Marcus pense qu’il est important d’autoriser un certain niveau d’open source, mais qu’il faut également établir des limites sur ce qui peut être réalisé et comment cela peut être mis en œuvre. Il a également exprimé des inquiétudes concernant la stratégie de Meta qui consiste à mettre son modèle de langage à la disposition du public pour qu’il puisse être modifié, qualifiant cette décision d’« imprudente ».
Un organisme de régulation de l’IA
Marcus plaide pour la création d’un organisme de régulation de l’IA, similaire à la FDA pour les médicaments, qui superviserait le déploiement à grande échelle des technologies d’IA. Il estime que cet organisme devrait être mondial, neutre et à but non lucratif. Marcus se dit prêt à jouer un rôle dans cet organisme et à partager sa voix neutre pour aider à trouver un équilibre entre les avantages et les risques de l’IA.
Réflexions sur l’audition au Sénat
Interrogé sur son expérience au Sénat américain, Marcus a déclaré qu’il était profondément ému par l’événement et qu’il avait le sentiment que tout le monde était là pour donner le meilleur d’eux-mêmes pour les États-Unis et l’humanité. Il ne serait pas surpris d’être invité à témoigner à nouveau, mais il ne sait pas encore si cela se produira.
Cet article a été écrit d’après des informations fournies par le site d’actualités technologiques TechCrunch ici.
Publicité