L’intelligence artificielle : épouvantail du moment où véritable danger pour le cerveau humain, en instance de se retrouver au chômage ? L’angoisse monte légitimement, et l’on ne sait trop que penser. Comment en est-on arrivé là ? Histoire de l’IA en sept temps.
Au commencement l’IA a cherché à traiter des problèmes simples du type : connaissant certains attributs ou observations, est-il possible d’inférer un état du monde ? Par exemple, observant le vol des hirondelles, la couleur du ciel que puis-je dire du temps de demain ? Les techniques utilisées sont dérivées de ce que l’on appelle des régressions[1]modèle mathématique permettant d’approcher une variable à partir d’autres qui lui sont corrélées.
Dans un second temps, au début des années 2000, des techniques plus fines, regroupées sous le vocable de « Support Vector Machine » ou d’arborescence, ont permis d’améliorer les résultats obtenus dans le cas de dépendances non linéaires. Un exemple pourrait être de chercher à déterminer les catégories de personnes aimant les aliments sucrés en fonction de leur âge : sachant que les jeunes et les personnes âgées partagent cette préférence et qu’une séparation simple ne peut donc pas faire l’affaire (on ne peut pas dire que plus on est jeune, plus on aime le sucré, car cette tendance revient à partir d’un certain seuil).
Dans un troisième temps, le chemin parcouru a permis de viser des objectifs non binaires, plus diversifiés (inclure un plus grand nombre de variables). Il s’agissait alors par exemple de chercher à définir l’âge de personnes en fonction de certains attributs (passe-temps, rythme de vie, alimentation…).
L’usage des réseaux de neurones a trouvé sa vraie place dans un quatrième temps. Le principe de ces réseaux correspond au mécanisme du rêve : un filtrage et une distorsion du réel couplée avec des associations improbables. Grâce à ce processus de transformation répété plusieurs fois et baptisé « Recurrent Neural Network », il devient possible de mieux comprendre, de manière synthétique ce qui est au cœur de la dynamique des évènements et d’établir des liens de causalité entre certaines observations. Simplification, réduction de dimension. C’est ce qui nous permet par exemple de passer d’une image à haute résolution à une image à basse résolution, tout en conservant une ressemblance : soumise à cette modification l’image laisse alors parfois apparaître des traits que l’on n’aurait pas soupçonnés au premier abord.
Dans un cinquième temps, sous l’impulsion d’un chercheur canadien, Yoshua Bengio, la notion de contexte corrélative à chaque observation a été développée, permettant aux modèles d’accéder à une forme de conceptualisation générique des différentes observations. Ce mécanisme a pour nom « Embedding ». Prenons un exemple : si l’on considère le contexte de ‘Roi’ et le contexte d’ ‘Homme’, le modèle va être capable en soustrayant l’un a l’autre, d’« accéder » au concept de ‘Royauté’, sans peut-être pouvoir le nommer avec nos mots. À l’inverse il pourra identifier des associations conceptuelles qui ne font pas partie de notre univers mental. On s’approche alors de manière significative de notre capacité humaine d’abstraction.
Dans un sixième temps, la gestion de la mémoire a été introduite, pour tenir compte de la séquentialité des évènements. Dans la mémoire de l’homme certains évènements sont plus importants que d’autres, bien qu’ils soient éloignés, Les modèles « Long Short Term Memory » ont permis de travailler les données pour favoriser un apprentissage graduel combinant mémoire et oubli, à l’image du cerveau humain. L’usage de ces outils a montré toute son efficacité pour la traduction linguistique : les progrès récents des logiciels de traduction en sont le fruit.
Dans un septième temps, une gestion dynamique de la mémoire, avec une pondération flexible du passé a été développée, grâce aux modèles d’« Attention ». On accroît ainsi la finesse et la flexibilité d’apprentissage. Une étape complémentaire sur ce chemin a été les « Transformers ». Ces outils permettent d’accéder à une IA générative qui produit des propos nouveaux, originaux et pertinents. En combinant habilement de multiples machines, entrainées sur des univers d’information large, on aboutit ainsi à ChatGPT. Le fait d’apporter constamment de nouvelles sources d’information permet un entrainement accru et de meilleures performances de ces outils, comme l’effort d’apprentissage de l’enfant entraîne un surcroît de connections neuronales.
Les développements de l’IA ne vont pas s’arrêter à cette situation actuelle. Cet état de la science permet néanmoins déjà de sortir les modèles des laboratoires et d’en faire de vraies parties prenantes du monde réel.
Références[+]
↑1 | modèle mathématique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. |
---|