Samsung demande aux employés de ne pas utiliser d’outils d’IA

Samsung pede aos funcionários para não usarem ferramentas de IA

ChatGPT est venu transformer la vision du monde sur l’intelligence artificielle (IA) et soulever de nombreux problèmes de sécurité. Samsung a déjà demandé aux employés de ne pas utiliser ces outils sur les appareils appartenant à l’entreprise.

Samsung demande aux employés de ne pas utiliser d'outils d'IA

Samsung a interdit l’utilisation d’outils d’IA génératifs comme ChatGPT sur ses réseaux internes et les appareils appartenant à l’entreprise, craignant que le téléchargement d’informations sensibles sur ces plateformes ne pose un risque pour la sécurité, selon Bloomberg.

Cette demande a été communiquée à l’équipe dans un mémo où il est mentionné qu’il s’agira d’une restriction temporaire, alors que Samsung développe des outils pour « créer un environnement sûr », pour utiliser de tels systèmes intelligents en toute sécurité.

La productivité et l’efficacité de toute entreprise peuvent être améliorées grâce à la collaboration de ces systèmes, mais ces défis doivent encore être surmontés.

Le plus grand facteur de risque est probablement le chatbot ChatGPT d’OpenAI, qui est devenu extrêmement populaire non seulement comme jouet de divertissement, mais aussi comme un outil important pour aider au travail.

Lors de l’utilisation de ChatGPT pour des tâches telles que la rédaction de réponses à des e-mails ou la synthèse de rapports, des informations confidentielles et sensibles sur l’entreprise peuvent être introduites auxquelles OpenAI peut avoir accès.

Les risques de confidentialité liés à l’utilisation de ChatGPT varient en fonction de la manière dont l’utilisateur accède au service. Si une entreprise est l’API ChatGPT, les conversations avec le chatbot ne sont pas visibles pour l’équipe de support OpenAI et ne sont pas utilisées pour former les modèles de l’entreprise. Toutefois, cela ne s’applique pas au texte saisi dans l’interface Web générale à l’aide de ses paramètres par défaut.

La société d’IA mentionne explicitement qu’elle analyse les conversations que les utilisateurs ont avec ChatGPT pour améliorer ses systèmes et s’assurer qu’il est conforme aux politiques et exigences de sécurité. Il conseille aux utilisateurs de ne pas « partager des informations confidentielles dans leurs conversations » et mentionne également que toutes les conversations peuvent également être utilisées pour former les futures versions de ChatGPT.

Malgré cela, il convient de noter qu’un mode incognito est déjà disponible, ce qui préserve la vie privée des utilisateurs, dans les points évoqués plus haut.

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video