L’intelligence artificielle (IA) s’est largement démocratisée ces derniers mois. On en parle partout, parfois avec enthousiasme, parfois avec inquiétude, souvent avec beaucoup de fantasmes. Chez LCSX Tech, nous avons fait le choix de l’aborder de manière concrète : en testant, en mesurant ses apports réels, mais aussi en gardant un regard lucide sur ses limites.
Oui, nous utilisons l’IA au sein de l’entreprise. Et pas une seule IA, mais plusieurs, selon les usages, les besoins et le niveau de sensibilité des données concernées.
Avant tout, nous menons des expérimentations en interne. L’objectif est simple : comprendre ce que ces outils savent faire, dans quelles conditions ils sont vraiment utiles, et surtout jusqu’où on peut leur faire confiance. L’un des exemples les plus concrets concerne Odoo, avec la mise en place d’un système de génération automatique d’articles de blog à l’aide d’une IA générative. Le projet est encore expérimental, et il reste entièrement sous contrôle humain. Rien n’est publié sans relecture ni vérification. Malgré un prompt que nous faisons évoluer régulièrement pour améliorer les résultats, l’IA continue parfois d’inventer des informations ou de produire des formulations approximatives. C’est précisément pour cela que nous gardons la main sur la validation finale. Pour celles et ceux qui veulent voir un exemple concret, un article de démonstration est disponible ici : https://news.lcsx.tech/blog/ia-editorial-tech-8
L’IA est également présente dans notre quotidien de développement. Nous utilisons GitHub Copilot directement dans l’IDE, c’est-à-dire dans l’environnement de développement utilisé pour coder. Cela nous donne accès, selon les contextes, à différents modèles, notamment ceux d’OpenAI et d’Anthropic. Avec un peu de recul, il faut être honnête : aujourd’hui, ces modèles se valent globalement sur de nombreux usages. Ils ne se trompent simplement pas aux mêmes endroits. Car oui, ils se trompent encore. C’est un point essentiel à rappeler. Utiliser efficacement ce type d’outil suppose de comprendre le code généré, d’identifier les erreurs, de corriger les incohérences et d’éviter les mauvaises décisions techniques. L’IA ne remplace pas la compétence ; elle l’amplifie lorsqu’elle est bien utilisée. Malgré cela, le gain de productivité est réel, et ce sont déjà nos clients qui en bénéficient au quotidien.

D’ailleurs, en ce début d’année 2026, malgré les progrès impressionnants du secteur, nous avons fait le choix de recruter un développeur. Ce n’est pas un hasard. Un agent IA autonome, aussi prometteur soit-il, n’est pas encore réellement indépendant. Il ne remplace pas un développeur expérimenté, capable d’analyser un besoin métier, de prendre du recul, de faire les bons arbitrages et d’assumer les conséquences de ses choix techniques. Et, à vrai dire, c’est plutôt une bonne nouvelle.
À titre plus personnel, j’utilise aussi ChatGPT au quotidien. Cela aurait pu être Gemini, Claude ou Mistral. Le choix de ChatGPT s’explique surtout par l’habitude : c’est l’outil que j’ai découvert en premier, et je me suis familiarisé avec sa manière de répondre. J’ai testé les autres, et ils sont bons également. Mais avec le temps, j’ai pris mes repères avec ChatGPT, et cela me convient. Je constate d’ailleurs qu’une partie importante de mes recherches passe désormais par ce type d’outil plutôt que par Google. Cela change la manière de chercher l’information, de structurer une réflexion ou de débloquer un sujet rapidement. Pour autant, même en ayant désactivé l’utilisation de mes données pour l’entraînement de ChatGPT, je ne peux pas dire que la confiance soit totale.

C’est aussi pour cette raison que j’utilise d’autres solutions selon les cas. Pour la rédaction d’emails ou pour travailler sur des informations plus sensibles, je m’appuie par exemple sur Euria, l’IA proposée par Infomaniak. Elle n’est pas au niveau de ChatGPT sur tous les plans, mais pour des usages précis, et surtout dans une logique de confidentialité, c’est une solution très intéressante.
Cette question de la confidentialité est d’ailleurs centrale dans notre approche. Pour éviter que des données sensibles, les nôtres ou celles de nos clients, transitent inutilement vers des serveurs américains ou d’autres infrastructures externes dont on maîtrise mal l’usage réel des données, nous avons fait certains choix techniques. Par exemple, nos appels et nos réunions peuvent être enregistrés localement sur notre propre machine. La transcription et la génération de résumés actionnables sont ensuite réalisées en local, avec une IA exécutée sur place. L’avantage est clair : les données restent chez nous. L’inconvénient, en revanche, l’est tout autant : c’est lent. Très lent, même. Pour une réunion d’une heure, il faut parfois compter jusqu’à trois heures de traitement pour obtenir un résumé exploitable. Évidemment, une configuration matérielle plus puissante, notamment avec une carte graphique NVIDIA adaptée, permettrait de réduire considérablement ce temps. Mais ce choix illustre bien une réalité souvent oubliée dans les discours sur l’IA : entre la performance, le coût, la simplicité et la souveraineté des données, il faut arbitrer. Pour cela j'utilise actuellement la solution Scriberr couplée avec Ollama et un modèle Mistral local que l'on peut trouvé sur Huggingface (oui ça fait beaucoup d'outils).
Chez LCSX Tech, nous ne voyons donc pas l’IA comme une baguette magique. Nous la considérons comme un outil. Un outil puissant, utile, parfois bluffant, mais qui doit être cadré, supervisé et utilisé avec discernement. Notre démarche n’est ni de suivre un effet de mode, ni de rejeter ces technologies par principe. Elle consiste plutôt à identifier ce qu’elles peuvent réellement apporter à notre activité et à celle de nos clients, tout en restant exigeants sur la qualité, la sécurité et la confidentialité.
Enfin, un projet interne lié à l’intelligence artificielle devrait bientôt entrer en bêta publique. Nous en reparlerons très prochainement.
Restez à l’affût des prochaines nouvelles.


