L’intelligence artificielle est incroyablement intelligente, mais étonnamment stupide

L’intelligence artificielle est incroyablement intelligente, mais étonnamment stupide
L’intelligence artificielle est incroyablement intelligente, mais étonnamment stupide
-

Dans la section Arts et Lettres d’El Mercurio, le dimanche 23 juin, il y a une intéressante interview du professeur espagnol José María Lasalle, sur l’évolution de l’intelligence artificielle (IA) vers une entité dotée de conscience, un “quelque chose” qui devient en quelqu’un”. .

D’autre part, il y a une conférence TED de 15 minutes de Yejin Choi, un chercheur qui travaille dans le domaine de l’IA depuis 20 ans et est membre de l’« Institute for Ethics in AI » de l’Université d’Oxford, ainsi que chercheur en IA à l’Université de Washington. Le titre de la conférence (Yejin Choi : Pourquoi l’intelligence artificielle est incroyablement intelligente, mais étonnamment stupide | TED Talk) est le titre de cette chronique.

Il est vrai qu’il existe un potentiel dystopique dans le développement futur de l’IA, mais il n’est pas moins vrai que nous sommes encore très loin d’affronter directement cet avenir, ce qui ne signifie pas qu’il faille laisser les choses à la dernière minute. Pour ce faire, Choi rappelle les enseignements de Sun Tzu dans son livre « L’Art de la Guerre » : connaissez votre ennemi, sélectionnez vos combats et innovez dans vos armes. Les dangers signalés par Lasalle devraient inciter à générer des réponses, tout comme cela s’est produit avec l’énergie nucléaire et son utilisation à des fins de guerre.

Choi affirme dans son discours que l’IA manque encore de bon sens et est donc loin de remplacer l’être humain dans quelque chose de fondamental. Il donne plusieurs exemples, dont je vais en citer quelques-uns : « Supposons que je laisse sécher cinq vêtements au soleil et qu’ils mettent cinq heures à sécher complètement. Combien de temps faudrait-il pour sécher 30 vêtements ? GPT-4, la meilleure et la dernière version de l’IA, indique que cela prendrait 30 heures. L’ennemi potentiel n’a aucun bon sens. Dans une autre question, on vous demande de trouver une formule pour générer le maximum de trombones, et vous tuez l’humanité pour y parvenir. L’ennemi potentiel n’a aucune valeur.

Choi conclut donc que l’une des priorités dans le développement de l’IA est de lui apporter du bon sens et des valeurs. Cependant, le bon sens constitue depuis des décennies un défi presque impossible à relever pour l’IA. Et il existe un concept clé dans l’IA pour comprendre son fonctionnement : l’IA doit être entraînée avec des informations. Les informations existantes n’ont pas de règles ou de valeurs morales établies. Il n’est ni catégorisé ni structuré. C’est pourquoi Choi propose que cette couche d’information (les règles morales) soit alimentée de manière supervisée et transparente par les gens. Avec un accès public afin que nous connaissions et surveillions tous les règles morales et les valeurs minimales qui sont suivies. À l’Université de Washington, ils travaillent sur des graphiques de connaissances de bon sens et des référentiels de normes morales pour enseigner les normes de base du bon sens et l’éthique de l’IA. C’est la bataille qu’il faut choisir. Quelque chose auquel Lasalle fait également référence dans son entretien à Mercurio, mais il le voit davantage du point de vue de la gouvernance de l’IA.

En ce qui concerne l’innovation dans le domaine des armes, Choi considère que la voie actuelle pour améliorer l’IA – en y mettant de plus en plus de puissance, en utilisant plus de données et plus de capacité de traitement – ​​revient à essayer d’atteindre la lune en construisant un bâtiment d’un mètre à la fois. Et c’est absurde : un enfant n’a pas besoin de lire un milliard de mots pour atteindre un niveau élémentaire de bon sens. Il considère que la solution réside dans la démocratisation de l’IA, en réduisant sa taille plutôt que de l’augmenter. Pour ce faire, il propose de développer des « modèles de bon sens » utilisant des réseaux de neurones profonds (des algorithmes avec peu d’instructions qui interagissent entre eux).

Bref, c’est bien que l’on s’inquiète des impacts négatifs que peut avoir l’IA, mais hormis les erreurs de bon sens et les fausses nouvelles, il n’y a pas de tragédie au coin de la rue. Et l’IA, étant un formidable outil de logique, n’a pas de bon sens. Il faut le prendre avec cette réserve avant de se laisser emporter par ce qu’il dit. Et n’oubliez pas qu’en fin de compte, ce ne sont que des algorithmes. Les humains sont infiniment plus complexes et sophistiqués.

Alfredo Barriga,

Professeur UDP

-

PREV Elation Pulse Panel et FX : créativité et puissance stroboscopique
NEXT Téléchargez la dernière version de WhatsApp Plus APK sans publicité pour Android 2024