Opinion de Jill Filipovic
(CNN)— La plus grande nouvelle technologique cette semaine est l’éviction de Sam Altman de son poste de PDG d’OpenAI, une décision qui a ébranlé l’entreprise et l’industrie. Des centaines d’employés d’OpenAI ont menacé de démissionner. Altman a déjà occupé un poste chez Microsoft. Et OpenAI, la société derrière ChatGPT, en est à son troisième PDG en autant de jours.
Tout est très juteux. Mais ce drame devrait également soulever des questions plus vastes, bien au-delà des recrutements et des licenciements internes d’une entreprise, notamment : qui sont les personnes qui prennent les décisions qui détermineront une grande partie de notre avenir technologique ? Quels principes directeurs utilisent-ils pour prendre ces décisions ? Et comment d’autres institutions – gouvernements, industries non technologiques, alliances mondiales, organismes de réglementation – devraient-elles réprimer les pires excès des innovateurs en IA potentiellement dangereux ?
OpenAI a été fondée en tant qu’organisation à but non lucratif, avec pour mission explicite d’exploiter ce qui pourrait bientôt devenir une intelligence surhumaine « au profit de l’humanité dans son ensemble ». Mais cette sensibilité n’a pas duré. L’entreprise dispose désormais d’une branche à but lucratif de plusieurs milliards de dollars. Ils ont développé de nouvelles technologies à une vitesse fulgurante et les ont parfois rendues publiques avant que certains employés ne les croient prêtes. La société aurait déjà inventé une technologie d’IA si dangereuse qu’elle ne la publiera jamais – mais elle ne dira pas non plus aux journalistes ou au public exactement de quoi il s’agit.
Cette dynamique – une technologie potentiellement dangereuse développée à une vitesse extrême, en grande partie à huis clos – est en partie responsable du licenciement d’Altman. Le conseil d’administration d’OpenAI, selon David Goldman de CNN, s’inquiétait du fait que « l’entreprise fabriquait l’équivalent technologique d’une bombe nucléaire, et que son gardien, Sam Altman, avançait si vite qu’il risquait une catastrophe mondiale ». Un problème particulier semblait être les efforts d’Altman pour rendre les outils derrière ChatGPT accessibles à tous ceux qui souhaitaient créer leur propre version du chatbot. Cela pourrait être largement désastreux, s’inquiètent certains membres du conseil d’administration.
Mais ils l’ont ensuite licencié sans avertissement et apparemment sans impliquer Microsoft, le plus grand actionnaire de l’entreprise. Maintenant, Altman fait partie du nouveau groupe IA de Microsoft, et il faut se demander si la surveillance et la prudence y seront à la hauteur de celles d’OpenAI, ou s’il aura carte blanche pour pousser aussi vite et fort qu’il le souhaite. . Et malgré toutes les réticences justifiées du conseil d’administration d’OpenAI, l’entreprise a mené une grande partie de son travail en secret – sans que le public ne comprenne vraiment ce qu’une poignée de technologues irresponsables sont en train de construire, et comment cela est presque assuré de changer leur vie de manière indélébile.
Il est largement admis que l’IA a le potentiel de remodeler de vastes pans de l’existence humaine. À tout le moins, il semble presque garanti de changer la façon dont nous traitons l’information, dont nous communiquons, dont nous apprenons et dont nous travaillons (et si nous travaillons). Et les conséquences pourraient être bien plus extrêmes. Les technologies de l’IA ont déjà démontré leur capacité à mentir et à brouiller les pistes. Ils ont déjà pu suggérer une conception permettant à un virus de se propager plus rapidement. De nombreux chercheurs comprennent parfaitement à quelle vitesse ces machines pourraient développer la capacité de nous anéantir, y compris Altman : il a préparé un paradis pour les préparateurs à Big Sur, avec des armes à feu et des « masques à gaz des forces de défense israéliennes » au cas où l’IA déraillerait. et les robots partent en guerre contre les humains, selon des informations parues dans le New Yorker.
Mais ne vous inquiétez pas, a-t-il déclaré à un journaliste d’Atlantic : si l’IA est déterminée à nous anéantir, « aucun masque à gaz n’aidera personne ». (Si vous voulez un aperçu excellent et terrifiant des risques de l’IA – du moins ceux que nous comprenons actuellement, qui ne sont presque certainement qu’un simple fragment des périls imminents – le profil atlantique d’Altman et de sa technologie vaut la peine d’être lu).
-L’IA est une technologie très passionnante. Mais il s’agit également d’un phénomène potentiellement très dangereux, non pas dans le sens des médias sociaux où « cela peut nous donner une mauvaise estime de soi et nous rendre seuls », mais dans le sens où « cela pourrait briser les sociétés humaines et nous tuer tous ».
-Compte tenu du potentiel de l’IA qui change la vie – même si elle ne nous tue pas tous, elle changera presque certainement l’existence humaine de manière sans précédent et à une vitesse sans précédent – nous avons tous un intérêt dans la manière dont elle est développée. Et pourtant, le développement est laissé à une poignée de personnes (qui semblent être en grande partie des hommes) dans la Silicon Valley et dans d’autres poches technologiques du monde entier. Et nous avons tous intérêt à savoir quels intérêts l’IA servira – et à l’heure actuelle, son développement est financé à coups de milliards de dollars par des personnes qui espèrent réaliser d’énormes profits.
Les intérêts du public s’alignent-ils sur ceux des actionnaires qui voient dans les entreprises axées sur le profit et potentiellement extrêmement lucratives pour quelques-uns ? Ou avec les intérêts des entrepreneurs technologiques qui sont avant tout enthousiastes à l’idée d’être à l’avant-garde de la révolution de l’IA, quels que soient les coûts humains potentiels ?
Une chose est claire : l’IA arrive. Et la manière dont elle est construite et déployée dans le public est une affaire peut-être plus importante que n’importe quelle technologie du siècle dernier. Son potentiel destructeur est en effet comparable à celui de la bombe atomique – mais il est probablement plus difficile à réguler et à contrôler.
La « réglementation » ne commence pas à effleurer la surface de ce qui est nécessaire pour garantir que l’avenir de l’IA ne soit pas catastrophique, d’autant plus que le développement de l’IA est désormais une course aux armements internationale massive, avec des implications particulièrement horribles si de mauvais acteurs se développent. cette technologie en premier. Mais la réglementation est, au minimum, une étape nécessaire.
Il en va de même pour la transparence : aux États-Unis, les entreprises disposent d’un large levier pour travailler derrière le voile du secret, et une grande partie de ce que font les entreprises d’IA reste secrète pour contrecarrer la concurrence. Mais le public a certainement le droit de comprendre quelles technologies qui changeront notre vie vont nous être infligées et ce que font les créateurs pour protéger l’humanité – nos emplois, nos communautés, nos familles, nos relations, nos éducations et nos capacités à agir. construire une vie pleine de sens, mais aussi nos vies et notre sécurité.
L’histoire d’Altman est fascinante car Altman est la figure la plus puissante de la technologie de l’IA, ce qui fait de lui l’un des hommes les plus puissants au monde. Mais cela devrait nous faire réfléchir : qui est-il, quel pouvoir détient-il, que fait-il avec, à qui répond-il, et sommes-nous à l’aise avec ce potentiel de changement de vie détenu par quelques personnes irresponsables ?
Le-CNN-Wire
™ & © 2023 Cable News Network, Inc., une société Warner Bros. Discovery. Tous droits réservés.