La frontière finale

Publié le 18-04-2024

de Matteo Spicuglia

Comment relever le défi mondial de l'intelligence artificielle : nous en parlons avec Paolo Benanti et Marco Landi, invités de l'Université Sermig du Dialogue.

Paolo Benanti est franciscain, théologien, président de la Commission pour l'information d'IA, ainsi que le seul membre italien du Comité des Nations Unies sur l'IA.
Marco Landi est le seul dirigeant italien à avoir été à la tête d'Apple, en tant que directeur général de l'entreprise au milieu des années 1990. Il a joué un rôle crucial dans le retour de Steve Jobs dans le groupe.


Rien ne sera comme avant.
Et peut-être que c’est déjà le cas. L'intelligence artificielle (IA) marque un point de transition historique : des applications infinies, des opportunités, la possibilité de traiter avec des systèmes capables de résoudre des problèmes, de rendre le travail plus efficace, d'offrir des solutions rapides. Mais aussi des enjeux éthiques décisifs : l'impact sur les relations, les intérêts économiques en jeu, la réduction des emplois traditionnels, la nécessité de toujours mettre la personne au centre. Paolo Benanti et Marco Landi sont deux numéros un sur le terrain. Le premier, frère et théologien, président de la commission italienne sur l'IA et l'information et membre de la commission d'essais sur l'intelligence artificielle de l'ONU. Le second, manager à succès, déjà à la tête d'Apple dans les années 90 et responsable du retour de Steve Jobs dans le groupe. Leurs mots d’ordre sont « confiance », mais aussi « règles ». «C'est comme ce qui s'est passé avec l'invention de la voiture – explique Benanti – des autoroutes ont été construites, des règles ont été définies, des garde-corps, des feux tricolores et des ronds-points ont été introduits. Cela ne signifiait pas limiter le développement d’une technologie. Nous devons faire la même chose."
«Nous ne devons pas avoir peur de l'innovation, – ajoute Landi – l'intelligence artificielle n'est rien d'autre qu'une nouveauté qui nous permet d'accéder à une grande quantité de données pour développer des réponses et définir des problèmes. En d’autres termes, l’IA est la continuation de la philosophie. Nos philosophes se sont posés de grandes questions sur l'homme et l'univers. Aujourd’hui, nous nous posons la question de savoir comment est fabriqué notre cerveau. Ses connaissances sont fondamentales pour déterminer le fonctionnement de l’IA. Il existe des opportunités, mais il est important d’établir des règles. »

Commençons par les opportunités…
Benanti :
Pensons à la médecine, un exemple intéressant qui combine des aspects humanistes comme le traitement et des aspects scientifiques comme le diagnostic. Nous vivons aujourd’hui dans un paradoxe : la médecine a atteint des frontières et des objectifs inimaginables, mais cela n’est pas vrai pour tout le monde. Il existe différentes situations dans le monde. En Afrique, par exemple, quand tout va bien, nous avons un médecin pour trois mille habitants, mais ce sont des médecins généralistes. Il est presque impossible de consulter un spécialiste. Pensons à ce qui pourrait arriver si ces médecins disposaient d'un smartphone doté d'une caméra capable de poser un diagnostic et de suggérer quoi faire, comment interpréter un cas. Et réfléchissons à ce qui pourrait arriver si ces médecins étaient reliés à un grand centre médical central qui pourrait les soutenir et les diriger. De ce point de vue, l’intelligence artificielle peut amplifier les capacités humaines, mondialiser les connaissances et nous aider à répartir des ressources rares. Et ce n’est qu’un secteur…

En parlant de risques, cependant, la perte de nombreux emplois vient immédiatement à l’esprit...
Landi :
Le problème est complexe. Je vais commencer par un exemple. J'ai visité l'aciérie Danieli à Udine il n'y a pas si longtemps, après 20 ans. A l’époque j’étais frappé par les conditions de travail très dures, dans une chaleur insupportable. Il existe aujourd'hui une salle de contrôle informatisée où l'ensemble du processus de production est surveillé. C'est vrai, par rapport à il y a 20 ans, il y a moins d'emplois, mais les conditions environnementales sont meilleures et les salaires sont plus élevés. J'utilise cet exemple pour dire qu'il y aura certainement une réduction d'emplois, mais qu'on peut se donner les outils pour faire face à cette situation. Je pense que trois orientations sont nécessaires : réduire le temps de travail, investir dans la formation et dans de nouveaux profils professionnels, fournir des formes d'assistance sociale à ceux qui ne pourront pas se rendre disponibles pour les nouveaux profils. D’ici 2030, il y aura d’énormes transformations, nous devons nous préparer dès maintenant.
B. : L’histoire de la technologie nous apprend que l’innovation modifie la nature des produits et réduit le nombre d’opérateurs du marché. L’industrie sera touchée par l’intelligence artificielle, c’est inévitable. En Italie, nous devons nous demander comment nous allons réagir étant donné que nous disposons d'un tissu productif composé de petites et moyennes entreprises. Dans le même temps, l’IA affectera les classes populaires moyennes et élevées et, à l’avenir, nous pourrions avoir moins de cols blancs. Je reconnais que nous devons accompagner ce processus de règles solides. Si nous ne le faisons pas, la transition sera un problème.

Quel impact y aura-t-il sur les relations sociales ?
B. :
Alan Turing posait déjà cette question. Dans les années 1950, il affirmait qu’une machine serait intelligente lorsqu’elle pourrait être confondue avec un être humain. Mais est-ce suffisant ? Il faut revenir à Platon, au mythe de la grotte : ne pas se contenter des ombres et les échanger contre la réalité. Une machine qui montre l’amour comme un être humain ne peut pas nous suffire. Il faut comprendre ce qu’il y a derrière, l’origine des ombres. Parce que l’ombre n’est pas réelle, c’est justement une image de la réalité. Un autre exemple. Dans le fragment 63, Héraclite dénonce la prétention de ses contemporains de découvrir la vérité à travers les oracles. Aujourd’hui, nous ne sommes pas loin de cette situation : il y aura quelqu’un qui verra l’IA comme une sorte de fonction oraculaire. Il y aura quelqu’un qui s’appuiera sur les grandes entreprises comme les gens comptaient autrefois sur les dieux. Ce ne sera pas Aphrodite mais Tinder, ce ne sera pas Mercure mais Amazon, ce ne sera pas Athéna mais Google. Une fois, ils ont sacrifié un poulet. Aujourd'hui, nous sacrifions nos données. Cependant, comme Héraclite, nous pourrons toujours utiliser notre raison.

Est-ce un problème de culture, de ressources, d'initiative ?
L. :
Nous ne pouvons pas laisser l'initiative aux seules Big Tech, aux géants technologiques qui investissent des milliards de dollars. L’Europe doit présenter sa propre proposition en matière d’intelligence artificielle. Cependant, des informations et des formations doivent être fournies pour surmonter la désinformation et la peur. Les universités devraient former des experts en données qui travailleraient ensuite dans des entreprises européennes. Sinon, nous ferions le jeu de la Big Tech. Je dirai plus : l'éducation est fondamentale dès le plus jeune âge, dès l'école primaire. En France, j'ai créé un lieu, une maison de la technologie, pour faire découvrir aux jeunes les applications concrètes de l'intelligence artificielle. Il faut préparer les enfants, mais aussi un système où nos excellences peuvent apporter leur contribution.

L'IA traite en réalité des données et des connaissances déjà disponibles. Cela signifie que l’apport et l’originalité de la pensée humaine seront encore nécessaires. Cependant, le risque qu’une technologie aussi puissante ne limite le développement, voire la naissance de nouvelles idées, n’est-il pas ? Aurions-nous une intelligence artificielle très efficace, mais peu originale ?
Landi. :
C'est tout à fait vrai, mais il y a quelque chose de plus. Prenons l'exemple des moteurs d'échecs qui ont gagné aux échecs. Leurs mouvements sont le résultat d’une quantité impressionnante de données disponibles. Cependant, à un moment donné, la machine a décidé de sacrifier la reine, un geste qu'un joueur humain n'aurait probablement pas fait. Cela signifie que la machine a proposé sa propre logique. Ou encore, pensons à ce qui s'est passé au MIT, avec un super-antibiotique créé par l'intelligence artificielle : même dans ce cas, la machine a utilisé sa propre façon de procéder que l'homme n'aurait jamais mise en œuvre. Ces exemples nous invitent à nous interroger sur les évolutions de l’IA. La vérité est que la technologie évolue à un rythme exponentiel et que l’industrie ne peut pas suivre le rythme. Nous ne pouvons pas rester les bras croisés et nous devons avant tout être les principaux acteurs du développement technologique. Nous avons besoin d'un plan européen.

L'un des plus grands défis est également le brouillage des frontières entre ce qui est vrai et faux. Pensons aux photos et vidéos générées par l'IA. Comment se défendre ?
B. :
Le grand défi d'une société démocratique est l'information. Créer du contenu réaliste n’a rien de nouveau. La technologie a toujours une double utilisation possible : le même outil peut être utilisé comme arme ou comme outil de travail. La question est de savoir comment faire de l’IA un outil utile pour la démocratie et la communication. Une idée est de mettre une sorte de plaque d'immatriculation pour identifier le produit d'une machine. C'est comme lorsque nous utilisons des substances dangereuses selon des procédures standardisées. Nous devons faire la même chose avec l’intelligence artificielle. Dans ce cas, la difficulté est de définir les procédures et les règles. Je crois qu'une nouvelle responsabilité des gestionnaires des médias sociaux est également nécessaire.

Dans quel sens ?
B. :
Dans les années 90, avec la naissance d'Internet, sous la pression de l'administration américaine, il a été décidé que les gestionnaires d'Internet ne seraient pas responsables des contenus publiés. Désormais, cette règle ne fonctionne plus. Nous l’avons constaté au cours des vingt dernières années. Au début, il semblait qu’Internet ouvrait les portes de la liberté. Pensons au rôle joué par Twitter ou les réseaux sociaux dans le Printemps arabe. Mais dix ans plus tard, ces mêmes outils ont favorisé l’assaut du Capitole avec de fausses nouvelles. Cela me fait dire que si nous voulons que la voiture aille droit, nous devons mettre des garde-corps pour éviter les dérapages et les grandes entreprises sociales doivent également prendre leurs responsabilités. Les grandes entreprises sont américaines et ne sont pas réglementées. Ils ont certes commencé à s'autoréguler, mais selon des critères subjectifs cohérents avec les intérêts du marché.

Mais qui peut faire les règles et surtout les faire respecter ?
B. :
Il y a toujours quelqu'un qui pense que les règles tueront l'innovation. Ce n'est pas ainsi. Revenant à la métaphore de la voiture, le code de la route n'interrompt pas la mobilité, mais vise à réduire les accidents. En Europe, nous sommes en avance en termes de règles sur l’utilisation des données, mais il nous faut davantage. Une gouvernance mondiale est nécessaire et c’est une idée également partagée au sein des Nations Unies. Le problème est de comprendre quelles pourraient être les règles. Nous évoluons dans un contexte difficile qui affecte les réflexions et les discussions.

L'intelligence artificielle peut-elle devenir un outil pour construire des sociétés plus cohésives et plus fraternelles ?
B. :
Cela dépend de l'usage humain qui en est fait. Les premiers ordinateurs ont été utilisés pour la guerre : ils calculaient la quantité d'uranium nécessaire aux bombes nucléaires. Dans l’interaction entre la machine et l’homme, le problème est toujours l’homme. L’histoire de la technologie récente montre la tentative de rendre le contact homme-machine de plus en plus immédiat. Pourquoi ne pas penser que ces technologies peuvent aider les hommes à mieux se connaître et à surmonter de plus en plus de barrières ? Le choix nous appartient.

Quelle est la meilleure façon d'affronter l'avenir et de ne pas en avoir peur ?
B. :
L'avenir ne doit pas nous faire peur. Steve Jobs a toujours dit que nous avons besoin d'une vision, que nous devons être clairs sur ce que nous voulons faire de nous-mêmes et de nos vies. Une autre chose qu’il m’a transmise est la curiosité. Une invitation que je m'approprie : soyez curieux !
L.: La révolution industrielle du siècle dernier a créé de nouveaux emplois mais a aussi insufflé dans notre façon de penser l'idée que seul le travail compte et que c'est là la raison de notre existence. Il semble que ce soit la seule base de notre vie, de notre soutien et de notre façon de nous développer. Je pense qu'avec l'intelligence artificielle l'opportunité est venue de redéfinir nos priorités, de revoir notre façon de passer du temps en famille, entre amis, avec la nature. Quand nous mourrons, nous ne regretterons pas d'avoir peu travaillé, mais de ne pas avoir donné d'amour à nos enfants, à nos amis, à notre famille. L'amour est notre raison d'exister.


Matteo Spicuglia
NPFOCUS
NP mars 2024

Ce site utilise des cookies. Si tu continues ta navigation tu consens à leur utilisation. Clique ici pour plus de détails

Ok