Voilà un gros problème de l’IA : elle a des trous de mémoire. Les plus récentes sont certes dotées de capacités d’apprentissage hors norme, auxquelles elles font appel pour réaliser des tâches extrêmement complexes – prédire efficacement la météo, battre les meilleurs joueurs d’échecs, créer des œuvres d’art… Mais dès lors qu’une IA planche sur une nouvelle tâche, ses acquis peuvent être zappés de sa “mémoire”. Les spécialistes parlent d’oublis “catastrophiques” ou “foudroyants”. Les réseaux de neurones artificiels – cette succession de couches constituées de nœuds et jouant le rôle de cerveau – ne sont tout simplement pas adaptés à l’apprentissage continu.
Pourquoi ? En raison du fonctionnement même des neurones artificiels, qui ont tendance à se sur-spécialiser. Pour entraîner un modèle à reconnaître les races de chiens, par exemple, les développeurs vont d’abord lui montrer des millions de photos de canidés. À force d’essais et d’erreurs,, décrypte Timothée Lesort, chercheur en informatique à l’université de Montréal, au Canada