A la Une Actualités Technologie

Intelligence artificielle: l’histoire, les dates et les moments importants de cette technologie

Sous le terme intelligence artificielle (IA), on regroupe l’ensemble des “théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. D’une façon plus commune, lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant certains traits de l’Homme.

L’intelligence artificielle avant 2000

Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. De cet article découlera ce que l’on appelle aujourd’hui le Test de Turing qui permet d’évaluer la capacité d’une machine à tenir une conversation humaine.

Une autre origine probable remonte quant à elle à 1949 dans une publication de Warren Weaver avec un mémo sur la traduction automatique des langues qui émet l’idée qu’une machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine.
L’officialisation de l’intelligence artificielle comme véritable domaine scientifique date de 1956 lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College. Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du MIT, ou encore d’Édimbourg.

Dès le milieu des années 60, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. Dans le même temps, des laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que « des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut faire ». Si l’idée était visionnaire, même en 2018 l’intelligence artificielle n’a pas encore pris cette importance dans nos vies.

En 1974 arrive une période appelée le « AI Winter ». Beaucoup d’experts ne réussissent pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de chances de déboucher sur quelque chose de concret.

Dans les années 80, le succès des systèmes experts permet de relancer les projets de recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les différents gouvernements à de nouveau soutenir financièrement plus de projets académiques.

Le développement exponentiel des performances informatiques, notamment en suivant la loi de Moore, permet entre 1990 et 2000 d’exploiter l’IA sur des terrains jusqu’alors peu communs. On retrouve à cette époque le data mining, ou encore les diagnostics médicaux. Il faudra attendre 1997 pour une véritable sortie médiatique lorsque le fameux Deep Blue créé par IBM a battu Garry Kasparov, alors champion du monde d’échec.

2000 – 2010 : l’IA représente un enjeu de société

Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de films de « science-fiction » présentant des scénarios plus ou moins réalistes. Le plus marquant du nouveau millénaire étant certainement Matrix, premier volet de la saga sorti en salles le 23 juin 1999. S’en suivra A.I. de Steven Spielberg sorti en 2001, inspiré par Stanley Kubrick, puis I, Robot (2004). Metropolis (1927) Blade Runner (1982), Tron (1982), et Terminator (1984) avaient déjà pavé la voie, mais l’on ne connaissait pas encore assez bien l’IA et ses applications pour imaginer de réels scénarios.

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones voient le jour … La connectivité et la mobilité lancent l’ère de l’Homo Numericus.

Jusqu’à 2010, on s’interroge également sur l’éthique de l’intégration de l’IA dans de nombreux secteurs. Ainsi, en 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. En 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes lignes de la recherche sur ce domaine.

À partir de 2010 : l’IA sans limites

Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En 2011, ce super-cerveau a battu en direct les deux plus grands champions de Jeopardy!. Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années 2010 marquent un tournant dans la médiatisation des recherches.

La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux procédés pour le machine learning puis le deep learning. Rapidement, ces approches nourries par les données passent de nombreux records, poussant de nombreux autres projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur, mais d’intégrer le traitement des images.

C’est à partir de ce moment que certaines sociétés vont prendre les devants. En effet, la problématique de l’IA n’est plus d’avoir les cerveaux pour élaborer des systèmes, mais d’avoir de la donnée à traiter. C’est pour cela que Google devient rapidement un pionnier. En 2012, la firme de Mountain View n’avait que quelques projets d’usages, contre 2 700 trois ans plus tard. En 2013, Facebook ouvre le Facebook Artificial Intelligence Research (FAIR) dirigé par Yann Le Cun. Un tournant qui éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft, Apple, Netflix, Tesla ne sont pas en reste non plus, de même de nombreuses sociétés chinoises.

La gestion des données permettra de mettre l’IA en application pour comprendre des radiographies mieux que les médecins, conduire des voitures, faire de la traduction, jouer à des jeux vidéo complexes, créer des musiques, voir à travers un mur, imaginer une partie manquante d’une photographie … Les domaines où les intelligences artificielles performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle professionnel de l’Homme dans les années à venir.

La place médiatique qu’occupe désormais l’intelligence artificielle ne laisse presque plus les questions qui concernent ce domaine entre les mains des chercheurs, mais dans le débat public. Cela crée logiquement autant de tensions que d’excitations. Malheureusement, nous ne sommes qu’aux prémisses de l’intégration massive de ces technologies. Les décennies à venir nous réservent encore bien des surprises.

Source: Siècle digital

ARTICLES SIMILAIRES

Laisser un Commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient. Accepter En savoir plus

NEWSLETTER

Inscrivez-vous et recevez régulièrement des arletes par mail

Vos informations ne seront pas partagées