GPT-4 montre-t-il déjà des signes d’intelligence générale artificielle (IGA)?

Mais au fait, quelle est la différence avec l’Intelligence artificielle (IA) tout court?

Par

Emily Turrettini – journaliste spécialiste des nouvelles technologies

Publié: 05.04.2023, 15h30

* * * * *

Cette question est importante car des scientifiques spécialisés dans l’IA ont publié un document de recherche affirmant que le modèle de langage OpenAI – qui alimente l’IA Bing de Microsoft- présente des «étincelles d’intelligence» de niveau humain, ou intelligence générale artificielle (IGA).

Car contrairement aux systèmes précédents, GPT-4 semble donner des réponses impossibles à distinguer d’un raisonnement: «Compte tenu de l’étendue et de la profondeur des capacités de GPT-4, nous pensons qu’il peut raisonnablement être considéré comme une première version (encore incomplète) d’une intelligence générale artificielle (IAG)».

Mais quelle est la différence entre l’IA et l’IGA?

La définition la plus simple serait: l’IA est un système informatique limité à des tâches spécifiques, tandis que l’IGA vise à reproduire l’ensemble des capacités intellectuelles et à être capable de prendre des décisions complexes de manière autonome.

Prenons un exemple de rédaction d’un article de presse pour illustrer la différence entre les deux.

L’IA est capable de collecter des informations pertinentes à partir de diverses sources et de les organiser en un article cohérent avec un style de rédaction approprié.

L’IGA, en revanche, pourrait rédiger des articles complexes avec prise de position, critique et analyse, comprenant les enjeux, implications et opinions pour produire un article argumenté et original.

Quels sont les risques?

Les risques potentiels liés au développement de l’IA sont la perte d’emplois due à l’automatisation, une utilisation à des fins malveillantes (fake news, deep fakes, hacking), des dilemmes éthiques et moraux (si elle cause des dommages, qui en est responsable, le créateur, l’opérateur ou l’utilisateur?), des biais et discrimination algorithmiques et une concentration du pouvoir aggravant les inégalités (si l’IA est principalement développée et contrôlée par un petit nombre d’entreprises ou de gouvernements).

Et les risques plus spécifiques à l’IGA?

Essentiellement sa capacité à prendre des décisions complexes de manière autonome qui pourraient avoir des conséquences imprévues ou négatives pour l’humanité.

Par exemple, les systèmes d’IGA pourraient être utilisés à des fins malveillantes telles que le développement d’armes autonomes capables de mener des attaques sans intervention humaine.

Tous ces dangers potentiels ont donné naissance à une lettre ouverte la semaine passée, issue par la Future of Life Institute. À l’heure où je vous écris, elle a récolté plus de 5500 signatures émanant de leaders dans le domaine de la technologie et de chercheurs renommés, exhortant les entreprises à interrompre le développement de puissants systèmes d’intelligence artificielle pendant au moins six mois, afin de prévenir des «risques profonds pour la société».

Interrogé à ce sujet dans le New York Times, Sundar Pichai, le PDG de Google, a réagi en disant qu’il n’était pas d’accord avec tous les points de la lettre, et comme tous ses concurrents, ne s’est pas engagé à ralentir ses efforts en matière d’IA, mais il estime que le message d’avertissement valait la peine d’être diffusé.

Alors que la technologie a pris de l’ampleur, entrant dans presque tous les secteurs d’activité et dans la plupart des aspects de la vie humaine, il est plus essentiel que jamais de développer des politiques et des réglementations qui encadrent son développement et son déploiement de manière responsable et éthique.

«Il importe donc peu de savoir si l’on a atteint l’IGA ou non» selon Pichai, «à l’avenir on disposera de systèmes pouvant apporter des avantages et des dommages à une échelle jamais vue auparavant, que l’IGA soit atteinte ou non… Il est crucial d’être proactif et d’adapter notre évolution pour faire face à cet enjeu».

Cette chronique a été rédigée avec l’assistance de ChatGPT-4, par le biais de multiples invites (prompts), pour trouver la meilleure définition de l’IA et de l’IGA, illustrer leurs différences et identifier les risques liés à leur développement. ChatGPT-4 a également traduit et interprété des extraits d’articles provenant du New York TimesHardForkNew ScientistOpenDataScience et Datanami et a suggéré le titre de ce billet.