consultant web

Vers une IA éthique ?

Rédigé par Yann Faurie

Responsabilité de l'IA et éthique

Depuis 2023 et ChatGPT 3.5 puis GPT 4, l'Intelligence Artificielle est désormais intégrée dans la plupart des logiciels informatiques en mode SaaS.

L'assistanat par IA est en train d'entrer dans les moeurs et les process d'entreprise, principalement pour organiser, quantifier, optimiser des routines qui jusque là demandaient du temps humain.

Les géants du web comme Amazon, Apple, Microsoft ou Google se livrent actuellement une course technologique pour faciliter l'intégration de leurs outils IA au sein des services du monde entier.

Côté moteur de recherche, Google fait des annonces sur la Search Generative Experience ou son projet de moteur de réponse enrichi Magi, tout en ayant retardé récemment la livraison de Google Bard hors des Etats-Unis.

Microsoft de son côté permet d'utiliser GPT 4 au travers de son moteur Bing, intégré dans son navigateur Microsoft Edge sous l'onglet "Bing AI". Les fonctionnalités offertes gratuitement sont intéressantes et ont déjà permis au moteur de regagner des parts de marché face à celui d'Alphabet Inc.

Mais quelque soit l'entreprise qui fournit la technologie IA, la question sur la responsibilité et l'éthique de l'IA demeure : comment un logiciel qui a été entraîné sur des milliards de données passées, basées sur l'histoire et la culture de pays forcément biaisés (ne dit-on pas que "l'Histoire est écrite par les vainqueurs ?") peut-il éviter de tomber dans les même travers, c'est à dire éviter des raisonnements biaisés ?

La modération de l'IA par l'humain éthique

Comme pour ChatGPT modéré principalement par des humains kenyans (lire l'article de Times Magazine), une des solutions repose sur une relecture et un filtrage des contenus par des humains ancrés dans leur époque. Certains raisonnements ou termes, hérités d'une autre époque, n'ont rien à faire en 2023 dans des contenus destinés au grand public.

Ethique et morale, déontologie et principes

De façon plus globale, comment une IA pourrait-elle avoir une éthique ou une morale ?

Le mode opératoire des assistants conversationnels IA respecte par contre une certaine déontologie, à minima. Par exemple, si la requête formulée par l'utilisateur peut mettre en péril immédiat sa vie ou celle d'autrui, le logiciel ne doit pas donner d'informations potentiellement dangereuses. Par contre, certains utilisateurs arrivent à contourner ce bridage en mettant en place un prompt de type jeu de rôle. La protection est donc loin d'être au point.

Mais en travaillant sur les intentions de recherche et les intentions tout court, l'IA va être capable de trier statistiquement les questions qui peuvent amener à des informations qui ne devraient pas être mises dans toutes les mains.

Legislation pour une IA éthique

Les prochains mois et années vont donc être importants pour mettre en place des barrages et protéger les humains. Les organes qui légifèrent vont devoir redoubler d'attention pour imposer aux distributeurs de ces technologies IA un cadre strict pour la diffusion et l'utilisation de données potentiellement dangereuses.

Nul doute que les questions de respect des données personnelles fera aussi partie des prochains développements.

IA éthique : Sources complémentaires

https://www.ibm.com/fr-fr/topics/ai-ethics
Biais de l'IA : https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases