Cela rappelle tellement Asimov que ça fait peur.

-

Imaginez un monde dans lequel les robots et les assistants personnels artificiellement intelligents font partie intégrante de notre environnement de travail (enfin, peut-être y sommes-nous déjà), mais comment garantir que ces assistants numériques et mécaniques ne deviennent pas des menaces ?

Le laboratoire DeepMind de Google a franchi une étape assez dramatique mais aussi pertinente en présentant sa Robot Constitution, une série de règles clairement inspirées des célèbres Lois de la Robotique d’Isaac Asimov.

Ces normes ont pour but de servir de guide déontologique aux développeurs d’applications d’intelligence artificielle et de l’inclure également dans les bases de données de ces assistants virtuels afin qu’ils l’aient complètement internalisé. De cette manière, ils cherchent non seulement à améliorer la sécurité de l’interaction homme-robot, mais également à ouvrir de nouvelles possibilités dans le développement de l’intelligence artificielle.

Isaac Asimov et les lois de la robotique

Voyons l’origine de tout cela. En 1942, Isaac Asimov a présenté au monde ses Trois lois de la robotique, un ensemble de lignes directrices destinées à garantir que les robots ne feraient jamais de mal aux humains. Ces lois, qui ont perduré dans la culture populaire et scientifique, peuvent être résumées ainsi :

  • Un robot ne peut pas nuire à un être humain ni, par inaction, permettre à un être humain de subir un danger.
  • Un robot doit obéir aux ordres donnés par les humains, sauf lorsque ces ordres entrent en conflit avec la Première Loi.
  • Un robot doit protéger sa propre existence dans la mesure où cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.

DeepMind a repris cet héritage et l’a modernisé en fonction du contexte, créant un cadre qui combine l’éthique d’Asimov avec la nouvelle réalité de l’IA.

La nouvelle « Constitution des robots »

DeepMind a développé une « Constitution de robot » qui fonctionne comme un ensemble d’invites de sécurité, programmées pour garantir que les robots ne sélectionnent pas de tâches dangereuses. Ce système utilise des modèles de langage visuel (VLM) et des modèles de langage à grande échelle (LLM) qui collaborent pour comprendre l’environnement, s’adapter à de nouvelles situations et décider des tâches appropriées.

Lors d’un test récent, des robots équipés du système AutoRT de DeepMind ont démontré leur capacité à fonctionner dans des environnements de bureau sans incident. Ces robots ne sont pas seulement autonomes ; Ils peuvent être contrôlés à distance ou suivre des scripts prédéfinis, garantissant ainsi qu’ils agissent toujours de manière sûre et efficace.

En plus de sa « Robot Constitution », DeepMind a introduit d’autres technologies telles que SARA-RT et RT-Trajectory. SARA-RT améliore la précision et la vitesse du modèle Robotic Transformer RT-2, tandis que RT-Trajectory permet aux robots d’effectuer des tâches physiques spécifiques, telles que nettoyer une table, plus efficacement.

Un aspect crucial de ces développements est l’inclusion d’un seuil de force dans les articulations des robots, qui les arrête automatiquement si une certaine pression est dépassée. Un interrupteur d’arrêt manuel a également été intégré afin que les opérateurs humains puissent désactiver les robots en cas d’urgence.

Expériences dans le monde réel

Google a déployé 53 robots AutoRT dans quatre immeubles de bureaux différents sur sept mois, accumulant plus de 77 000 essais. Ces expériences ont montré que les robots peuvent s’intégrer dans les environnements humains sans causer de problèmes, ce qui témoigne de l’efficacité du système de sécurité qu’ils ont mis en place, selon leurs conclusions.




-

NEXT Premières impressions et tests du Motorola Edge 50 Fusion