L'humain ne peut pas abdiquer sa responsabilité au profit d'une IA.
commons.wikimedia.org/wiki/File:Quantified-Human-by-Alan-Warburton.png
Pierre Cormon
Publié jeudi 26 mars 2026
Lien copié
#Technologies
Opter pour les IA les plus en vue, comme ChatGPT ou Claude, n'est pas toujours la meilleure solution. Conseils de spécialistes.
Comment une entreprise peut-elle intégrer l'intelligence artificielle à ses activités? C'est le thème d'un événement qui a été coorganisé par la FER Genève et The Good Token Society, le 5 mars au restaurant Cercle du Rhône. Plusieurs spécialistes y ont livré des conseils très pratiques.
Penser aux modèles open source
ui dit intelligence artificielle pense souvent ChatGPT, Copilot ou Claude – ce qu'on appelle les Large language models (LLM). Il s'agit d'outils généralistes très puissants, mais qui ont leurs inconvénients. Ils consomment énormément d'énergie, ne garantissent pas nécessairement la confidentialité des données, ont des temps de latence un peu lents pour certaines applications, etc. Il vaut donc la peine de s'intéresser à d'autres outils. «Des solutions open source peuvent tourner localement sur le réseau de l'entreprise ou sur un cloud local et sécurisé», remarque Sasha Lazarevic, spécialiste en intelligence artificielle chez IBM. Cela permet de garantir que les données n'échappent pas au contrôle de l'entreprise. Certains obtiennent des résultats équivalents, voire supérieurs aux grands modèles dans le domaine pour lequel ils ont été conçus. Parmi les modèles les plus connus: Ollama (assistant polyvalent), AnythingLM (gestion de l'information), PrivateGPT (analyse des données internes).
Pensez aux modèles locaux
Les LLM sont très efficaces dans certaines fonctions, comme la confrontation d'idées, l'analyse de scénarios multidimensionnels ou les problèmes mathématiques complexes. Ils ne se limitent cependant pas aux mastodontes étasuniens. Des entreprises locales ont développé des assistants effectuant des tâches comparables tout en garantissant que les données restent confidentielles. Ils reposent sur des modèles de LLM internationaux et open source. Ils permettent aussi d'échapper à la dépendance envers un fournisseur lointain, avec lequel un éventuel litige risque d'être difficile à régler. Il s'agit notamment d'Euria (Infomaniak) et Lumo (Proton).
Pensez aux modèles chinois
Les intelligences artificielles chinoises valent mieux que la suspicion dont elles font souvent l'objet. «Elles peuvent avoir des biais sur les sujets politiques, mais ce n'est pas forcément le cas sur les questions entrepreneuriales», remarque Christelle Desobry, business developer chez Liip. Si vous travaillez sur des calculs techniques plutôt que sur des questions politiques, il vaut la peine de les tester. Beaucoup d'entre elles sont open source et peuvent être installées localement, ce qui garantit que les données que vous leur confiez ne seront pas envoyées à l'extérieur. Les modèles occidentaux, enfin, ont aussi leurs défauts. «Certaines comparaisons ont conclu que les modèles chinois avaient moins de biais liés au genre et à l'origine ethnique», note Sasha Lazarevic. Il existe un moyen simple de se défaire de ses propres préjugés. «Testez différents modèles à l'aveugle», conseille Emilie-Alice Fabrizi, présidente de The Good Token Society.
Encadrer plutôt qu'interdire
«Si vous interdisez l'usage de l'IA à vos collaborateurs, il y a fort à parier qu'ils l'utiliseront par des moyens détournés et hors de votre contrôle», note Thomas Jacobsen, chief marketing & communication officer d'Infomaniak. C'est ce qu'on appelle le shadow IA. Mieux vaut encadrer la pratique en déterminant comment et dans quel but on peut l'utiliser. Il faut notamment tenir compte des exigences sur la protection des données, qui reste applicable.
Faites votre part de travail
Ne pensez surtout pas que l'IA peut faire tout le travail à votre place. «Il est indispensable d'effectuer 10% en travail préparatoire et 25% après, pour évaluer et adapter le travail de l'IA», prévient Fabien Aepli, cofondateur de l'étude d'avocats Mangeat. «Ceux qui négligent de le faire en paieront le prix un jour ou l'autre.»
Rappelez-vous que le responsable, c'est vous
«Ce n'est pas ma faute, c'est l'IA qui l'a fait»: l'excuse n'est pas recevable. «Il n'existe pas de cas dans lequel vous pouvez échapper à votre responsabilité parce qu'une tâche a été effectuée par une intelligence artificielle», prévient Marc Loebekken, head of legal chez Proton. Le résultat relève toujours de la responsabilité de l'humain qui a confié une tâche à une intelligence artificielle.
En autorisant les services tiers, vous acceptez le dépôt et la lecture
de cookies et l'utilisation de technologies de suivi nécessaires à leur
bon fonctionnement. Voir notre politique de confidentialité.