Éthique, créativité, données personnelles, travail… L’IA est devenue un véritable débat de société. Faut-il avoir en peur ? De quoi parle-t-on réellement lorsqu’il s’agit d’intelligence artificielle ?
L’idée que la machine va remplacer l’homme est l’un des thèmes récurrents de la science-fiction. En ce qui concerne le monde du travail, cette peur obsessionnelle a pris une autre dimension à la suite de la défaite du champion du monde du jeu de Go face au programme Alphago en 2015. Largement véhiculée par les instituts d’études privés, les cabinets de conseil en stratégie et toute une littérature d’essais, cette crainte s’est appuyée sur des conjonctures folles prévoyant la disparition de nombreux métiers en un temps très court. Cinq ans plus tard, malgré la persistance de ce discours, il faut relativiser et prendre le temps de se familiariser avec l’histoire d’un outil qui n’est pas si nouveau et dont l’innovation s’est effectuée par ruptures. Les premiers algorithmes prédictifs ont été mis en place dès les années 1980. Un premier saut technologique est survenu en 2012 lorsque la puissance de calcul a permis de rendre véritablement efficace les algorithmes théorisés pendant vingt ans. Ce qui a complètement révolutionné l’interprétation des images* et des flux de données. À cette époque apparaissent les termes de machine learning* et deep learning, dont on a observé concrètement les applications avec la victoire d’Alphagot.
C’est à partir de cette date que le terme d’intelligence artificielle, pourtant créé en 1956 dans le cadre d’un colloque scientifique, a été largement repris et popularisé dans les médias.
Les choses se sont effectivement accélérées, avec l’apparition de la première architecture transformeur en 2017 qui a servi de base aux grands modèles de langage de l’IA générative, puis avec GPT3 en 2020. Il faudra attendre encore deux ans pour assister à cette deuxième innovation de rupture, en 2022 donc, avec la création d’une interface qui permet à tout un chacun de pouvoir parler directement à l’intelligence artificielle en langage naturel. Cette interaction modifie sensiblement notre façon de travailler puisqu’on peut déléguer au système les tâches répétitives, comme les synthèses de textes. L’IA devient un assistant corvéable à merci que l’on peut harceler de demandes pour affiner nos résultats. D’un point de vue managérial, cela compte énormément car cela ne transforme pas le collaborateur en robot. Cette assistance le libère des tâches chronophages et lui confère davantage de confort et d’efficacité.
Le 13 mars 2024, le Parlement européen a voté la législation harmonisée sur l’intelligence artificielle après quatre ans de débats. Quelles en sont les grandes lignes ? Cela va-t-il impacter les entreprises dans le choix de leurs solutions ?
L’IA Act vise en premier lieu à protéger les droits fondamentaux, la santé et la sécurité des personnes lorsque les personnes sont confrontées à un algorithme d’intelligence artificielle. Elle cible à la fois les systèmes d’IA, type ChatGPT ou Midjourney, et les modèles sur lesquels ils se sont entraînés en se fondant sur l’analyse des risques. Plus le risque est élevé, plus son encadrement sera rigoureux voire interdit. Pour les entreprises, cela peut ajouter de la complexité notamment vis-à-vis de la mise en conformité. Contrairement au RGPD, cela mobilisera davantage de personnes et de compétences techniques autour de la donnée. En revanche, même s’il y a fort à parier que des ajustements soient effectués, la législation a l’avantage de fixer un cadre précis qui s’applique même lorsqu’une plateforme étrangère intervient en Europe. Un point positif pour un marché qui ne s’est pas encore structuré, ni régulé au niveau des prix. Dans ce contexte, un acteur français comme Mistral pourrait tirer son épingle du jeu car il offre des solutions open source particulièrement performantes et qui peuvent tourner sur des espaces protégés et sécurisés.
*La Computer vision permet à une machine d’analyser et de traiter une ou plusieurs images ou vidéos
*Le machine learning consiste à laisser des algorithmes découvrir des motifs récurrents parmi des ensembles de données et à améliorer leurs performances dans l’exécution d’une tâche spécifique.
* Le deep learning est une technique de machine learning reposant sur un maillage de réseaux de neurones artificiels qui sont capables d’assimiler une grande quantité de données.