Sélectionner une page

Elon Musk appelle à une pause dans le développement de l’IA

Elon Musk et beaucoup d’experts en technologie demandent un temps d’arrêt dans le développement de l’IA. Ils ont envoyé une lettre ouverte demandant une pause de six mois dans les recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4, le modèle sur lequel se base ChatGPT.

 

ELON MUSK

Un millier d’experts et chercheurs du secteur technologique, y compris Elon Musk, PDG de Tesla, demandent une pause dans l’avancée de l’intelligence artificielle. Dans une lettre ouverte publiée le 28 mars, ils ont appelé à suspendre les recherches sur les systèmes d’IA plus puissants que GPT-4, le nouveau modèle de traitement du langage lancé par OpenAI en mars. La pause de six mois permettrait de développer des garde-fous plus efficaces pour ces logiciels, jugés dangereux pour l’humanité.

« Ces derniers mois ont vu les laboratoires d’intelligence artificielle s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable »

 

Les signataires de cette lettre ouverte, faisant référence aux annonces d’OpenAI, de son partenaire Microsoft, de Google, de Meta mais également de nombreuses start-ups, et expriment leur inquiétude quant à une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants. Ces laboratoires d’intelligence artificielle ont créé des systèmes que même leurs créateurs ne peuvent pas comprendre, prédire ou contrôler de manière fiable.

La lettre a été publiée à peine deux semaines après la sortie publique du GPT-4 d’OpenAI, le système d’IA le plus puissant jamais publié. Cette situation a amené les chercheurs à réduire leurs attentes quant à l’arrivée de l’AGI, ou intelligence générale artificielle qui surpasse les capacités cognitives humaines. De nombreux experts craignent que la course aux armements contre l’IA ne conduise l’humanité à une catastrophe.

Plus de 900 personnes font partie de la liste des signataires de cette lettre, parmi eux figurent Elon Musk, Steve Wozniak, cofondateur d’Apple, l’auteur de Sapiens Yuval Noah Harari et plusieurs universitaires éminents de l’IA, qui ont été à l’origine de multiples percées dans l’apprentissage automatique.

Les signataires de la lettre ouverte demandent une pause de six mois à tous les laboratoires d’IA afin de poursuivre la recherche sur la sécurité. Ils appellent à un effort collectif pour développer des protocoles de sécurité partagés pour la conception et le développement d’IA avancées, qui doivent être rigoureusement audités et supervisés par des experts externes indépendants. Cela ne signifie pas un arrêt complet du développement de l’IA, mais plutôt une prise de recul par rapport à la course dangereuse vers des modèles de boîte noire de plus en plus grands et imprévisibles, dotés de capacités émergentes.

Les signataires de la lettre ouverte proposent une pause pour que les laboratoires d’IA se concentrent davantage sur la sécurité. Pendant cette période, ils devraient collaborer avec des experts indépendants pour développer des protocoles de sécurité partagés pour la conception et le développement avancés de l’IA. Ces protocoles devraient être rigoureusement audités et supervisés pour garantir que les systèmes qui y adhèrent sont sûrs.

Les risques associés à la technologie de l’IA sont considérables et les experts craignent que les machines dotées d’IA puissante ne finissent par prendre le contrôle de l’humanité et causer des dommages irréversibles. La pause proposée n’implique pas l’arrêt du développement de l’IA en général, mais plutôt un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles de plus en plus grands avec des capacités émergentes.

48h seulement après ces signatures, Andrew Ng, professeur d’université, co-fondateur de Coursera et de LandingAI s’est déjà désolidarisé du projet. Serait-ce la fin de l’utopie ?

Quoi qu’il en soit, l’adoption massive des intelligences artificielles dans les milieux technologiques pose de sérieuses question à propos des potentiels risques liées à ces utilisations..