blogspot counter

Articles, témoignages, infos sur la psychiatrie, la psychanalyse, la clinique, etc.

vendredi 10 juin 2016

Pourquoi Google a conçu un « bouton rouge » pour désactiver des intelligences artificielles

LE MONDE  | Par Morgane Tual

Le deep learning a permis d’importants progrès dans le domaine de l’intelligence artificielle.
Le deep learning a permis d’importants progrès dans le domaine de l’intelligence artificielle. Quentin Hugon / Le Monde

Une intelligence artificielle (IA) est-elle capable d’empêcher un humain de la désactiver ? C’est de ce postulat que sont partis deux chercheurs pour réfléchir à une façon d’éviter que cela n’arrive. Laurent Orseau travaille pour DeepMind, l’entreprise de Google spécialisée dans l’intelligence artificielle qui est notamment à l’origine d’AlphaGo, le programme ayant réalisé l’exploit, en mars, de battre l’humain au jeu de go. Avec Stuart Armstrong, du Futur of Humanity Institute de l’université d’Oxford, ils ont publié début juin les résultats de leurs recherches. Objectif : établir un cadre afin de « s’assurer qu’un agent apprenant [une intelligence artificielle] n’apprenne pas à empêcher son interruption », peut-on lire dans leur article.
Les deux chercheurs s’intéressent au cas de ces « agents » capables d’apprendre, qui fonctionnent avec un système de « récompenses », qui les pousse à atteindre un but.
« Il peut être nécessaire pour un opérateur humain d’appuyer sur le gros bouton rouge pour empêcher l’agent de poursuivre une séquence d’actions – dangereuse pour lui ou son environnement. (…) Néanmoins, si l’agent apprenant s’attend à recevoir une récompense à l’issue de cette séquence, il pourrait apprendre sur le long terme à éviter de telles interruptions, par exemple en désactivant le bouton rouge. »
Ces machines capables d’apprendre ont en effet parfois des comportements déroutants pour atteindre leur but, comme ce programme qui, pour éviter de perdre à Tetris, avait choisi de mettre le jeu sur pause indéfiniment. Pour régler le problème de l’interruption, les deux chercheurs ont mis au point une méthode pour que ces programmes considèrent que les interventions humaines ne fassent pas partie de la tâche à effectuer, et que ces agents aient « l’impression » qu’ils décident par eux-mêmes de la marche à suivre.

Aucun commentaire: