Des petits pas pour l’IA mais des bouleversements géants pour l’Humanité
Le Monde d'Après n'est pas du tout celui prévu, et il arrive au galop.
Depuis le 30 novembre dernier, l’homme de la rue, ou, disons, l’internaute moyen a pu découvrir une version grand public de l’intelligence artificielle, avec un étonnant assistant de dialogue, chatGPT. Depuis – et alors que cet événement ne se situe que quatre mois en arrière – des avancées considérables sont enregistrées dans tous les domaines de l’intelligence artificielle…
On pourrait ainsi mentionner les bénéfices obtenus dans des domaines scientifiques très pointus en utilisant l’intelligence artificielle, comme notamment son application au calcul du repliement de protéines. En effet, depuis 2018, l’intelligence artificielle est utilisée dans le cadre de AlphaFold pour aider au calcul de la façon dont une série d’acides aminés va se structurer comme protéine une fois assemblés et stabilisé.
Traditionnellement (et depuis la fin des années 70), ce repliement était calculé en évaluant notamment les forces de Van der Waals entre les différentes parties de la structure moléculaire en cours de stabilisation, ce qui entraînait rapidement des calculs extrêmement complexes et longs. La simulation “in silico” de ce repliement par cette méthode, particulièrement gourmand en force de calcul, a cependant été remplacé récemment par l’utilisation de l’intelligence artificielle qui permet d’obtenir des résultats stupéfiants (de meilleure qualité dans un temps considérablement plus court), qualifiés même de révolutionnaires en ce qu’ils permettent, trois ans plus tard, d’obtenir des résultats en quelques secondes : les scientifiques peuvent alors simuler des dizaines de repliements par jour et augmenter phénoménalement la quantité de test “in vivo” aptes à déterminer les protéines capables de fournir une réponse souhaitée.
Avec AlphaFold, il devient par exemple possible de réaliser des médicaments sur mesure, ou modifier la structure génétique de certaines bactéries : pour le meilleur, par exemple amener et distribuer certaines substances spécifiques dans les cellules pour guérir de toutes sortes de maladies, et pour le pire puisqu’on peut fort bien s’en servir pour développer de nouvelles fonctions dangereuses inconnues dans la nature. Tout comme la maîtrise de l’atome, la maîtrise complète du repliement des protéines comporte en elle des capacités de création ou de réparation égalées seulement par ses capacités de destruction…
Un récent exemple de l’application d’AlphaFold est l’actuelle recherche d’enzymes capables d’aider des bactéries à non seulement digérer toutes sortes de plastiques, mais aussi de les recycler pour que ces bactéries soient capables d’excréter des polymères directement réutilisables ensuite, rendant le recyclage des matières plastiques aussi simple et peu coûteux que possible, diminuant d’autant nos besoins en matière première fossile…
Parallèlement à ces développements, notons la sortie d’un très récent papier de Microsoft sur GPT 4, la version actuelle du moteur d’OpenAI, dans lequel les chercheurs ont tenté d’évaluer la qualité des réponses et des adaptations de ce moteur à différents problèmes et jeux qui lui ont été proposés.
En somme, Microsoft a tenté d’évaluer les capacités intellectuelles du moteur (ou ce qui passe pour, disons) et les conclusions de l’article sont pour le moment spectaculaires puisque les chercheurs impliqués soutiennent que ce modèle fait preuve, pour la première fois, d’une intelligence plus générale que les modèles précédents : selon eux, au-delà de sa maîtrise du langage, GPT4 peut résoudre des tâches nouvelles et difficiles dans les domaines des mathématiques, du codage, de la vision, de la médecine, du droit, de la psychologie, sans avoir besoin d’une aide particulière. En outre, et toujours selon les évaluations des chercheurs détaillées dans l’imposant papier (155 pages tout de même), les performances de GPT4 sont étonnamment proches de celles d’un être humain dans toutes ces tâches et dépassent souvent largement celles de modèles antérieurs tels que ChatGPT.
Autrement dit, les chercheurs estiment que, compte-tenu de ses capacités, GPT4 peut raisonnablement être considéré comme une première version (encore incomplète, certes) d’un système d’intelligence artificielle générale (AGI).
Une affirmation aussi forte demande bien sûr des preuves solides et force est de constater que les évaluations détaillées dans le papier imposent de considérer sérieusement cette affirmation. Par exemple, le moteur est capable de reconstituer le plan sommaire d’un appartement à partir de la description textuelle des déplacements d’une pièce à l’autre, obtenue exclusivement par dialogue avec l’utilisateur, ce qui démontre une capacité de modélisation dans l’espace. Il s’agit d’un résultat émergent, puisque cette modélisation n’est pas programmée dans le modèle à proprement parler :
De même, en demandant au moteur de produire des dessins utilisant TikZ, les chercheurs ont non seulement observé sa capacité à produire un résultat en rapport avec les concepts manipulés, mais de surcroît, ont aussi constaté sa capacité à affiner ses précédents résultats à mesure que sa maîtrise du langage de dessin et de ces concepts s’améliorait.
C’est ainsi que l’un des chercheurs, Sebastien Bubeck, a régulièrement demandé à ce moteur de lui dessiner une licorne dont l’apparence finale n’a cessé de s’améliorer.
Sur d’autres tâches (comme par exemple passer des examens, depuis le barreau jusqu’à des tests de codage), GPT4 s’en est là encore sorti brillamment ; le moteur a par exemple réussi les tests informatiques proposés par Amazon lors de ses entretiens d’embauches, en réalisant un score de 100% en 4 minutes (là où un humain dispose normalement de deux heures pour finir le test et où aucun ne l’a jamais bouclé en si peu de temps).
Malgré des erreurs étonnantes (une incapacité assez amusante à faire des calculs mathématiques simple, comme des racines carrées ou dénombrer des éléments dans un ensemble), GPT4 démontre de plus en plus de capacité à comprendre réellement les tâches qu’on lui demande, voire à démontrer un certain bon sens… Même si, parfois, on peut raisonnablement douter :
Finalement, si “monde d’après” il y a, c’est celui qui se met en place actuellement, avec une vitesse dont bien peu se rendent compte. Et dans ce monde, l’intelligence artificielle semble avoir un impact de plus en plus fort, de plus en plus rapide et de plus en plus profond, à tel point qu’elle prend tout le monde par surprise (beaucoup d’experts n’imaginaient pas voir certains des résultats de GPT4 avant 2027 voire 2030 par exemple).
Dans ce nouveau monde, il apparaît clair que toute spécialisation poussée – intellectuelle pour le moment – trouvera rapidement dans l’intelligence artificielle un remplaçant redoutable, qui fera plus vite et mieux. Le monde d’après va avoir besoin de généralistes.
Le problème est le suivant tant que c'est opensource ce n'est pas trop dangereux. Le problème c'est que c'est Microsoft qui est en train de prendre le contrôle de cette IA et là ça devient dangereux. Car Microsoft n'est pas une entreprise philanthropique et a fait beaucoup de mal dans le domaine informatique. Donc une grande vigilance doit être apportée à ces évolutions de l'IA.
Toujours ! mais il faut en payer le prix.