Accueil » Quand Google déconseille l’utilisation de son IA Bard à ses propres employés

Quand Google déconseille l’utilisation de son IA Bard à ses propres employés

par Pierre Vitré
0 commentaire
Google et son intelligence artificielle Bard

Ça y est, Google s’est lancé dans la mêlée avec son tout dernier joujou, le chatbot IA Bard, conçu pour aider des millions d’utilisateurs à travers le monde. Alors que vous vous apprêtez à ouvrir une nouvelle fenêtre de discussion avec Bard, vous serez peut-être surpris d’apprendre que les Googlers (les employés de Google) sont plutôt réticents à l’utiliser dans leur travail quotidien. Bizarre, non ? Pas tellement puisque Google déconseille l’utilisation de son IA Bard à ses propres employés. Explications.

Bard, le petit dernier de la famille Google

Les ChatBots IA, comme Bard ou son homologue ChatGPT, font de plus en plus d’émoi dans de nombreux secteurs. Ils sont capables d’accomplir toutes sortes de tâches, mais sont encore largement considérés comme expérimentaux. À Google, par exemple, les employés sont encouragés à ne pas utiliser Bard à des fins professionnelles. De plus, les développeurs sont avertis de ne pas optimiser ou générer du code en utilisant Bard, et il est formellement interdit d’entrer des données internes dans le chatbot.

On pourrait trouver cela étonnant, compte tenu du fait que Google est l’instigateur de Bard, mais en réalité, cela n’est pas si surprenant. D’une part, ces technologies ne sont pas encore assez matures pour être totalement fiables. D’autre part, il existe une crainte bien réelle que des informations sensibles puissent être rendues publiques.

Un risque de fuite ?

Le risque de fuite de données est une des principales raisons pour lesquelles Google déconseille à ses employés d’utiliser les chatbots IA. Les chatbots sont de formidables outils pour mener des conversations avec les utilisateurs, mais leur utilisation pose certains problèmes de sécurité. Les examinateurs humains peuvent lire les chats, et les chercheurs ont découvert qu’une IA similaire à Bard pouvait reproduire les données qu’elle absorbait pendant la formation, créant un risque de fuite. En résumé, si vous alimentez un chatbot avec des informations sensibles, il pourrait les régurgiter à un moment inopportun.

La course aux logiciels d’IA

L’entrée de Google dans le marché des chatbots IA a des enjeux considérables. Bard est en compétition avec des programmes similaires comme ChatGPT, soutenu par OpenAI et Microsoft Corp, et ces sociétés se disputent des milliards de dollars d’investissement et des revenus publicitaires et cloud encore incalculables. Par conséquent, Google a tout intérêt à ce que son programme ne nuise pas à ses propres activités.

Le conseil de Google à ses employés reflète ce qui devient une norme de sécurité pour les entreprises : avertir le personnel de l’utilisation de programmes de chat accessibles au public. De nombreuses entreprises à travers le monde ont mis en place des garde-fous sur les chatbots IA, y compris Samsung, Amazon et Deutsche Bank.

Alors que ces préoccupations persistent, Google a continué à étendre Bard à plus de 180 pays et 40 langues, le positionnant comme un tremplin pour la créativité. Cependant, l’entreprise reste vigilante. Elle a récemment rappelé à ses employés de ne pas inclure d’informations confidentielles ou sensibles dans leurs conversations avec Bard.

La quête de transparence

En dépit de ces limitations, Google a affirmé son engagement à être transparent sur les limites de sa technologie. Il convient de noter que les préoccupations concernant les chatbots ne sont pas uniquement liées à la sécurité des données. Il y a aussi le risque que ces outils puissent générer des informations inexactes ou des données erronées. Par exemple, un chatbot pourrait utiliser du contenu protégé par le droit d’auteur ou publier des données sensibles sans le savoir.

Conclusion

La situation actuelle ressemble à un jeu d’échecs entre la course à l’innovation et la nécessité de sécurité des données. Alors que Google et d’autres géants de la tech explorent le potentiel des chatbots et de l’IA, ils doivent également veiller à ce que ces outils ne deviennent pas une menace pour leurs propres opérations ou la confidentialité des utilisateurs. Comme l’a dit un sage, « avec de grands pouvoirs viennent de grandes responsabilités » – et il semble que cela s’applique parfaitement à l’évolution de l’intelligence artificielle.

Vous pourriez lire également

Laisser un commentaire

Tout Sur Google utilise des cookies fonctionnels et d’autres technologies nécessaires à la navigation du site. Nos partenaires et nous-mêmes utilisons également des cookies permettant de mesurer le trafic et de vous montrer un contenu et des publicités personnalisés Accepter En savoir plus