Le PDG de SpaceX, Tesla et Twitter, Elon Musk, ainsi que le co-fondateur d'Apple, Steve Wozniak, ont signé une lettre appelant tous les laboratoires d'intelligence artificielle (IA) à mettre immédiatement en pause la formation des systèmes d'IA plus puissants que GPT-4 pendant au moins 6 mois .
Les systèmes d'IA dotés d'une intelligence compétitive humaine peuvent présenter de graves risques pour la société et l'humanité , comme le démontrent des recherches approfondies et reconnus par les principaux laboratoires d'IA , lit-on dans la lettre signée par plus d'un millier de cadres et d'experts en IA.
Le document, publié mercredi dernier par le Future of Life Institute, une organisation à but non lucratif, dénonce que l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre. Dans ce contexte, il est instamment demandé de planifier et gérer avec le soin et les ressources correspondants , car ils garantissent qu'un tel niveau de gestion ne se produit pas.
Course en fuite
Malgré le fait que ces derniers mois, les laboratoires d'IA sont entrés dans une course hors de contrôle pour développer et mettre en œuvre des esprits numériques de plus en plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable, est détaillé.
Le 16 mars, le PDG d'OpenAI, Sam Altman, a admis qu'il était un peu effrayé par la création de ChatGPT , ajoutant qu'il était particulièrement inquiet que ces modèles puissent être utilisés pour la désinformation à grande échelle , en référence au GPT-4 , le nouveau version de ChatGPT qui présente des performances de niveau humain à travers divers critères académiques et professionnels .
Le même jour, le moteur de recherche chinois Baidu a dévoilé son alternative chinoise à ChatGPT, le chatbot d'intelligence artificielle Ernie bot , dont les tâches incluent la compréhension et la génération de la langue, la conversion de texte en image, la composition de poésie et la production audio en dialectes chinois. Il est également capable de créer des itinéraires de voyage et d'effectuer des diffusions en direct pour annoncer des produits.
Ne nous précipitons pas pour tomber au dépourvu
Faut-il laisser les machines inonder nos canaux d'information de propagande et de mensonges ? , exhortent-ils à s'interroger dans la lettre. « Devrions-nous développer des esprits non humains qui pourraient éventuellement nous dépasser en nombre, nous déjouer, nous rendre obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? », poursuivent-ils.
En ce sens, ils préconisent le développement de systèmes d'IA lorsqu'il est certain que leurs effets seront positifs et leurs risques gérables. Ils déclarent également que les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement des protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et surveillés par des experts tiers indépendants.
Dans ce cadre, ils exhortent les développeurs d'IA à travailler avec les législateurs pour « accélérer considérablement le développement de systèmes de gouvernance robustes » dans le domaine de l'IA, qui devraient inclure de nouvelles autorités de réglementation compétentes dédiées à l'IA.
Il est en outre expliqué que la société avait déjà fait une pause dans d'autres technologies ayant des effets potentiellement catastrophiques sur l'humanité, comme le clonage humain et d'autres domaines de la génétique. Nous pouvons le faire ici , demandent-ils. Ne nous précipitons pas à tomber sans y être préparés , concluent-ils.
Afficher Plus