Qu’on se le dise tout de suite, l’intelligence artificielle capable de réellement réfléchir par elle-même ne risque pas d’arriver dans les quelques années à venir. Si les avancées sont majeures et si tout devrait s’accélérer dans les prochaines décennies, les intelligences artificielles d’aujourd’hui ressemblent plus à des super programmes à de réelles intelligences capables de penser par elles-mêmes. La preuve avec la récente mésaventure du programme Tay. Cependant cette expérience montre également que certains ne sont pas plus intelligents qu’une machine.
Une A.I qui bat un grand maître du jeu de go
Tous les médias en ont parlé, durant la première quinzaine de mars une intelligence artificielle s’intitulant AlphaGo et créée par Google a battu l’un des meilleurs joueurs au monde du jeu de go. Je ne sais pas jouer à ce jeu, mais tous les spécialistes insistent sur le fait qu’il s’agit d’un jeu encore plus stratégique que les échecs. Le fait qu’une A.I batte l’un des meilleurs joueurs humains n’est donc pas anodin. Pour cela, AlphaGo utilise le deep learning consistant à imiter le fonctionnement des neurones humains, et elle profite également d’une très grande puissance de calcul et d’énormes bases de données. Au final, AlphaGo a battu le grand maître coréen Lee Se-Dol, 4 à 1.
Si ce résultat est impressionnant, pour ma part, je ne qualifierai pas encore AlphaGo d’une véritable intelligence artificielle. En effet, son fonctionnement est basé sur des algorithmes très complexes, mais qui lui ont été programmés pour des humains. Dans le fond, la machine n’a donc pas réellement analysé par elle-même la partie, mais s’est basée sur les données emmagasinées et qu’elle a recoupées. Néanmoins, il s’agit d’une réelle avancée dans le domaine de l’intelligence artificielle. Cependant, toutes les expériences n’obtiennent pas d’aussi bons résultats, comme l’a prouvé le programme Tay.
Une expérience qui a mal tourné
Le 23 mars, Microsoft a voulu faire une démonstration de son intelligence artificielle se nommant Tay. Cette expérience s’est rapidement transformée en un véritable jeu pour certaines internautes. A l’origine, Tay a été conçu comme un programme capable de discuter sur les réseaux sociaux avec les adolescents. Ainsi, ce programme utilise notamment des données fournies par Microsoft, mais le reste il l’apprend en discutant avec les internautes. Tay est notamment capable de répondre aux questions qu’on lui pose.
Tay est programmé pour représenter une tendance des discussions auxquelles le programme a participé. Pour Microsoft, Tay devait donc devenir de plus en plus intelligent au fil des discussions. Pourtant, 16 heures seulement après le début de l’expérience, Tay a été désactivé. En effet, en moins de 8 heures d’existence, le programme diffusait des messages racistes, sexistes et complotistes.
Pour cela, il a suffi que certains internautes demandent à Tay « Répète après mois » suivi de la requête du style « le féminisme est un cancer » ou d’envoyer des messages à répétitions tels que « Hitler avait raison ».
Les limites du programme et la bêtise humaine
Finalement, je trouve que ce qui ressort de cette expérience, c’est tout d’abord la limite d’une telle intelligence artificielle qui ne sait pas encore réfléchir par elle-même, mais qui ne fait que répéter ce qu’elle a le plus entendu ou ce qu’on lui demande. L’autre point essentiel de cette expérimentation, c’est la bêtise humaine. On sait qu’internet regorge de personnes n’hésitant pas à divulguer leurs messages haineux, mais il est toujours choquant de voir à quel point cette communauté est active. Bien sûr, pour certains il s’agissait peut-être d’humour pour montrer les limites du programme, mais il ne faut pas négliger le fait que certains internautes pensent réellement de tels propos haineux. Je trouve cela d’autant plus inquiétant que ce sont souvent des adolescents qui ne s’informent que via ce genre de sites sans élargir leur champ de vision. Des cibles faciles qu’il est ensuite difficile de raisonner.