I : Les débuts de l'intelligence artificielle

La première apparition de l’intelligence artificielle proprement dite se trouve probablement dans l’article d’Alan Turing nommé « Computing Machinery and Intelligence » datant de 1950.
Cependant , la notion d’intelligence artificielle ne fût définie qu'en 1956, au congrès de Dartmouth , où se réunirent les pionniers de ce domaine , parmis eux , John McCarthy , créateur du langage LISP et Marvin Minsky , auteur de la Société de l’Esprit , deux grands noms de l'intelligence artificielle dont nous reparlerons plus tard.

C’est dans les années 1950 que les sciences cognitives s’ouvrent au grand public, avec la médiatisation du congrès de Dartmouth en 1956 et l'ascension de la carrière littéraire d’une des plus grandes figures de la science fiction qui marquera la culture moderne , Isaac Isamov avec des écrits traitant de la robotique ( terme dont il est le créateur ) , comme Menteur! en 1941 ou le célèbre I-robot en 1950.

     Même si la récente mise en valeur et l'impression technologique qui se dégage de la notion d'intelligence artificielle provoque chez certains l’idée de modernité, les plus ancienne forme de cette intelligence date de 800 avant notre ère en Egypte.
L’intelligence artificielle , sous différentes formes , plus primitives , a inspirée les hommes depuis de nombreuses années , voir plus d'un millénaire. De tout temps , l'homme à voulu créer des machines à son image.

L’idée d'une machine ressemblant à l'homme est une idée présente dans de nombreuses civilisations , comme par exemple , chez les grecs , avec le dieu Héphaïstos , créateur d’automates , ou encore en Egypte , où les prêtres utilisaient des mécanismes et des statues « animées » qui permettaient de créer une impression de magie pour duper le peuple.
Quelque peu disparu depuis le premier siècle de notre ère , les automates sont de nouveau d’actualité dès la fin du moyen-âge. Du génie aux multiples talents , De Vinci qui construisit un lion automate en 1515 au philosophe Descartes et son célèbre robot «  Ma fille Francine » qui mènera à une à une réflexion sur la nature des automates , sera l’une des amorces des robots dans la science fiction. Enfin , Jacques de Vaucanson construisit un canard artificiel en 1738 qui sera exposé dans plusieurs pays. Ce canard pouvait boire , manger , barboter et même simuler une digestion.

La progression des ces automates et les prémices de l’intelligence artificielle est favorisée par l’engouement de nombreux scientifiques et philosophes envers ceux-ci.
Ainsi , dès le XIII ème siècle , l’homme recherche des moyens de développer non plus une simple machine programmée , mais de simuler une intelligence et des fonctions toujours plus réalistes , voir même de créer une intelligence à part entière.

C’est ainsi que de nombreuses avancées , certaines encore utilisées aujourd’hui furent crées depuis les première tentatives de Raymond de Lulle assez méconnues aux célèbres travaux de Boole , qui créa l’algèbre qui porte son nom , encore utilisée dans les circuits électroniques et la plupart des langages informatiques .

L’algèbre de Boole, aussi appelé calcul booléen, est une des plus importantes utilisations  mathématiques dans le domaine de l’intelligence artificielle. Cet algèbre permet de raisonner et de conclure logiquement à partir de conditions (normalement vrai ou faux).

Ce processus permet donc de raisonner logiquement via divers questions que se pose le programme.
Les premières questions sont les « valeurs de vérité » , la machine vérifie ce qui est faux est vrai.
Exemple : La lampe est allumé , c’est vrai. Elle est éteinte , c’est faux.
Ce programme se pose ensuite d’autres questions et met en relation ses réponses pour conclure encore plus.
Exemple : La lampe est allumé , donc elle n’est pas éteinte , c’est la disjonction , une idée permet d’en approuver une autre.
La négation , elle , permet de vérifier une idée si l’inverse est faux.
Exemple : La lampe n’est pas éteinte , elle doit être allumée.
Tableau de vérité de décrocher
D’apparence simple , ses informations et ses déductions prennent la forme de lignes de codes et possèdent de multiples propriétés.
Exemple du gosse qui veut sortir.

Cet algèbre de Boole permis de nombreuses avancées de le domaine de l’intelligence artificielle , encore utilisé aujourd’hui par les languages informatiques les plus célèbres ( C , Python , Php … ) il amena à la création des ordinateurs en 1943 , ordinateurs qui pouvaient , par exemple , jouer aux échecs en 1949.

En 1950 , Alan Turing , un mathématicien britannique , créa le célèbre test de Turing , encore aujourd’hui utilisé.

Le test de Turing est un test de l’intelligence artificielle d’une machine par rapport à son habilité à ressembler à l’être humain.

Le test est simple , une personne parle à une autre personne , humaine ou artificielle et doit déterminer selon une batterie de questions-réponses ( questions posées par l’humain « juge » ) s’il parle à une machine ou un réel humain.

Le test de Turing fût longuement débattu , notamment sur le caractère du test.
En effet , par contradiction avec l'envie d'un programme toujours plus perfectionné , le simple fait qu'une faute de frappe soit commise par la machine la rends beaucoup plus éligible à réussir le test de Turing.

De plus , le test est réussi par de nombreuses machines fonctionnant par simple automatisme et répondant suite à de nombreuses règles mécaniques , sans réellement penser , c'est l'intelligence artificielle faible.

L'intelligence artificielle peut se décomposer basiquement en deux types , la faible , qui est le résultat de calculs ayant pour objectif de simuler l'intelligence sans toutefois réellement en disposer , c'est le cas de la plupart des utilisations de l'intelligence artificielle aujourd'hui , cependant , son opposé , l'intelligence artificielle forte commence à devenir réelle et n'est plus qu'une simple utopie. Cette intelligence forte vise à doter la machine d'une réelle intelligence , de lui permettre de penser , de résoudre et d'avoir des sentiments ainsi qu'une conscience.

Le cerveau humain restant encore en grande partie un mystère pour la science , l'intelligence forte est restreinte et progresse lentement.
Après 1950 , les robots prirent alors un tournant de plus en plus différents et intéressèrent l’industrie , qui voyait en eux un moyen de supprimer des tâches simples et répétitives nécessitants des salariés et des dépenses.

Voyant là ( avec clairvoyance ) un nouveau secteur , des entreprises spécialisés en robotiques commencèrent à voir le jour avec la première , Unimation en 1956. C’est cet entreprise qui produira le premier robot industriel , Unimate qui sera utilisé par Generals Motors pour divers opérations d’assemblages ou encore le FAMULUS en 1976 , crée par KUKA , aujourd'hui multinationale dans la robotique industrielle , servant l'automobile comme la métallurgie ou la plasturgie.

L’intelligence artificielle progressa encore , avec par exemple , en 1955 , le programme « Logic Theorist » un programme qui permettait de démontrer des théorèmes mathématiques sans les connaître au préalable.

Logic Theorist fonctionnait selon un arbre de recherche, raisonnant étape par étape pour arriver à de nombreux résultats sélectionnant ceux-ci par un principe encore aujourd'hui important , celui de l''heuristique".
Ce principe sélectionnait quelles branches étaient les plus à même de donner le résultat attendu , permettant de raccourcir le temps de réflexion du programme et d'éviter l'explosion combinatoire , où le nombre trop grand de calculs empêche le programme de résoudre le problème.
Certains de ces résultats étaient des démonstrations de théorèmes connus. Il démontra ainsi 38 théorèmes sur les 52 du 2ème chapitre d’un livre scolaire de l'époque , le Principia mathematica. Il démontra même un de ces théorèmes d’une manière plus simple, ce qui montre alors que la machine a acquéris une intelligence capable de perfectionner ce que l'homme à fait voir même d'une innovation (qui reste faible). Logic Theorist montre les bénéfices de la logique pure et simple d'un programme automatisé et donc ceux de l'intelligence artificielle faible.

En 1958 , deux ans après la création du terme intelligence artificielle , à Darthmouth , fût inventé par John McCarthy le language informatique LISP.
Un language informatique , est le langage utilisé pour la conception et l'utilisation d'un système d'information ( ensemble de logiciels , données... regroupant des informations ).
Ce language était le langage de choix de 1970 à 1980 dans l'intelligence artificielle. Son nom , LISP , est dérivé de l'anglais , LIST Processing ou traitement de listes en français. En effet , le langage s'écrit sous forme de liste et est caractérisé par un nombre important de parenthèses.

Ce language fût crée et utilisé pour de nombreuses applications dans le domaine de l’intelligence artificielle. Il fût notamment utilisé par des machines spécialisés éponymes , les machines LISP. Ces machines , en petit nombre , ont permis d’importante innovation. On leur doit entre autre la souris d’ordinateur , l’impression laser et même les fenêtres informatiques. S’il est possible aujourd’hui de fermer une page ou d’en ouvrir une autre , de les surperposer ou encore de les réduire , c’est en partie grâce au language LISP.

L'année 1958 est également celle de la création du Perceptron et l'aboliton du concept "mécanisé" de l'intelligence artificielle avec la création des systèmes de neurones.