A l’heure où les instances de l’Union Européenne convergent sur la rédaction de l’AI Act, voici quelques idées retenues de la 2ème table ronde de la Journée de la Transformation Numérique eFutura du 12 octobre, sur le thème « Augmentation ou remplacement de l’humain ? ».
A nouveau, les participants s’accordent pour dire que le problème n’est pas la technologie. Ce qui fait peur, ce n’est pas l’IA, mais la façon dont un certain type d’humains en parle. L’enjeu, c’est de savoir si l’humain devient un objet au service de la technologie, ou si c’est l’inverse.
Sommes-nous à un tournant ?
D’un côté, le sujet n’est pas nouveau :
- La relation de l’être humain a déjà été transformée par le digital
- Le rapport à l’information et au réel est transformé par le volume énorme d’informations, le modèle économique des réseaux sociaux qui accélère le rythme (on parle de « captologie »), on n’arrive plus à filtrer
- Il y a des erreurs humaines qui sont imputables non pas à l’IA mais à l’obligation d’immédiateté
De l’autre, il ne faut pas dire que c’est pareil depuis 30 ans, on est dans une accélération :
- Les modèles actuels se basent sur une puissance statistique énorme, avec une capacité à prédire et influencer les comportements
- Avec l’IA générative, l’interface opérationnelle change de nature et ouvre l’accès à des utilisateurs non spécialistes
Il faut décider si on accepte un développement non contrôlé ou si on est capable de promouvoir des IA « responsables ».
L’éthique
- Les libertariens n’envisagent pas de limite. L’éthique, c’est de se mettre des limites.
- Il y a aussi dans le numérique des collectifs qui s’organisent pour faire autrement, qui ont donné des géants comme Linux ou Wikipedia.
- Y a-t’il des règles d’éthique universelles ? Il y a des travaux de l’Unesco, de l’Union Européenne, des outils dans des secteurs comme la santé, la sécurité.
- Les entreprises sont invitées à avoir des comités d’éthique qui examinent si les projets respectent les principes éthiques de l’organisation.
- Mais si on délègue l’éthique à un comité d’experts, on fera de la conformité et pas de l’éthique.
- C’est le sens éthique des êtres humains qui alimente l’éthique des organisations.
- Il faut former à la base les individus, faire en sorte que chacun sache être vigilant sur certains principes dans chaque décision même petite.
Les enjeux
- On a peur de l’IA mais cela fait 30 ans qu’on en utilise.
- L’IA cela fait gagner du temps, mais il faut s’occuper des risques, et pour cela informer et former.
- L’approche européenne, c’est de voir l’IA comme une aide à la décision humaine.
- Le risque est de déléguer à la machine sans réellement maîtriser. Le danger de l’IA serait qu’on lui sous-traite notre intelligence.
- Les jeunes sont plus habiles sur l’utilisation, mais il faut les former à penser par eux-mêmes, à prendre le temps de réfléchir.
S’il peut y avoir une conclusion à retenir sur un thème aussi vaste, c’est bien sur la nécessité de formation et d’éducation, pour comprendre le fonctionnement des systèmes et savoir les utiliser de façon pertinente, et pour préserver l’esprit critique, le temps de la réflexion et le respect de critères d’éthique.
Vous retrouverez l’intégralité des débats sur le site eFutura : https://www.efutura.fr/huitieme-journee-de-la-transition-numerique-efutura/
Et pour suivre l’actualité, les communiqués du Conseil et du Parlement Européen sur le projet d’IA Act :
Bruno Lalande
Président du CR2PA