Dans un monde où l’intelligence artificielle façonne notre avenir, l’open source émerge comme un rempart essentiel, garantissant transparence, contrôle et éthique face aux dérives potentielles.
Le développement de l’Intelligence Artificielle (IA) pose des questions quant à sa régulation, son contrôle et son impact sur la société. L’open source, un modèle de développement où le code est accessible à tous, pourrait être un rempart efficace contre les dangers inhérents à l’IA.
La surveillance collective
L’un des principaux arguments en faveur de l’open source pour l’IA est la transparence. En rendant les codes accessibles à la communauté, l’open source permet à un grand nombre de développeurs, chercheurs et experts de vérifier, auditer et comprendre le fonctionnement des systèmes d’IA. Cela contraste avec les modèles fermés, où seules les entreprises qui ont créé l’IA ont accès au code source et peuvent en comprendre les biais, les erreurs ou les dangers potentiels. En permettant une surveillance collective, on peut repérer plus rapidement les comportements indésirables ou les vulnérabilités dans les systèmes d’IA, limitant ainsi les risques de dérives.
Démocratiser l’accès à l’IA
L’open source donne aux acteurs la possibilité de développer, modifier et utiliser des technologies basées sur l’intelligence artificielle. Ce modèle réduirait la concentration du pouvoir technologique entre les mains de quelques entreprises multinationales, telles que Google, Microsoft ou OpenAI, qui détiennent aujourd’hui un contrôle quasi exclusif sur certaines technologies avancées d’IA.
Cette ouverture favorise la création de solutions alternatives éthiquement adaptées. C’est-à-dire que l’open source peut répondre aux besoins d’innovation dans les secteurs où les grandes entreprises ne s’investissent pas comme l’environnement ou la santé.
Une communauté diversifiée = une amélioration continue
C’est l’une des forces de l’open source. Dans un environnement ouvert, le développement est alimenté par une communauté internationale de développeurs, chercheurs et passionnés, chacun apportant son expertise et ses perspectives. Cela peut conduire à des améliorations constantes des algorithmes ce qui limite les risques associés à l’IA. La pluralité des acteurs augmente les chances d’identifier des dangers potentiels (qu’ils soient éthiques, sociaux ou techniques) avant qu’ils ne se manifestent à grande échelle. Cela contraste avec des modèles où un seul acteur, souvent une entreprise à but lucratif, pourrait être plus susceptible de minimiser ou de négliger certains problèmes pour des raisons économiques.
Une responsabilité partagée
L’un des risques majeurs associés à l’IA réside dans son absence de responsabilité claire en cas de dysfonctionnement. Si une IA décide, par exemple, d’agir de manière nuisible, il devient difficile de déterminer qui est responsable : le concepteur de l’algorithme, l’entreprise qui l’a déployé, l’IA elle-même ou l’utilisateur? Ceci est bien illustré par une actualité récente. Une voiture Tesla qui a explosé devant un hôtel à Las Vegas où résidait le futur président américain Donald Trump. Le suspect a utilisé ChatGPT pour planifier l’explosion d’un Cybertruck.
Avec l’open source, le contrôle de l’IA est plus partagé, et la responsabilité pourrait être davantage collective, permettant une meilleure gestion des risques.
Le modèle de l’open source pourrait aussi faciliter la mise en place de régulations, basées sur des normes ouvertes et accessibles à tous. Des initiatives comme la LibreAI tentent déjà de promouvoir des pratiques éthiques dans la création de technologies d’IA open source.
Les limites de l’open source dans l’IA
Il y a plusieurs avantages à utiliser l’open source dans l’IA, mais cela n’est pas sans limites.
Tout d’abord, un code accessible à tous ne garantit pas que tous les acteurs possèdent l’expertise nécessaire pour comprendre les enjeux complexes des systèmes d’IA. Les algorithmes de l’IA sont souvent très complexes ce qui peut représenter une difficulté pour les communautés qui ne sont pas spécialisées, de détecter des problèmes subtils, comme des biais cachés ou des failles de sécurité.
De plus la création d’une IA nécessite des ressources matérielles et humaines importantes. On ne peut pas imaginer que la collaboration d’un petit groupe puisse rivaliser avec les grandes entreprises qui ont d’importants moyens financiers pour développer une IA à la pointe de la technologie.
Enfin, même l’open source permet de surveiller les dérives grâce à la collaboration, il existe un risque que certains acteurs malveillants utilisent l’IA à des fins nuisibles.
La question de la régulation de l’IA, même dans un modèle open source, demeure cruciale pour prévenir des usages illégaux ou destructeurs de la technologie.
L’open source offre sans doute des solutions prometteuses pour contrer certains des dangers associés à l’intelligence artificielle, en favorisant la transparence, la collaboration et la responsabilité partagée. En ouvrant le code au public, on permet une meilleure surveillance des technologies, une démocratisation de l’innovation et une correction plus rapide des erreurs.
Pour qu’il devienne un bouclier efficace contre les risques de l’IA, il devra être accompagné d’une régulation rigoureuse, d’un engagement des communautés et d’une prise en compte sérieuse des défis techniques et éthiques que soulève l’IA.
Il existe plusieurs projet d’IA Open Source en voici quelque uns :
- TensoFlowr : Analyse de données, vision par ordinateur, NLP, reconnaissance vocale, etc.
- PyTorch : Modèles de deep learning, NLP, vision par ordinateur
- OpenAI GPT : Génération de texte, assistants virtuels, chatbots, etc.
Pour aller plus loin:
https://www.peren.gouv.fr/rapports/2024-04-03_Eclairage%20sur_OpenSource-IAG_FR.pdf
https://www.ibm.com/fr-fr/think/insights/open-source-ai-tools