ChatGPT a été le tout premier chatbot ("robot conversationnel") d'Intelligence Artificielle à bénéficier d'une reconnaissance mondiale. Depuis son lancement, de nombreux autres chatbots IA performants ont vu le jour, offrant un plus large éventail d'options pour répondre à vos besoins spécifiques. Les chatbots IA sont devenus des outils extrêmement populaires et utiles pour obtenir des informations, des conseils et de l'aide sur divers sujets. Vous pouvez les utiliser pour créer un projet d'affaires, gérer votre jardin, écrire des articles ou du code, composer des courriels, générer de l'art, des images, des vidéos et à peu près tout ce que vous pouvez imaginer.
Toutefois, plus ces assistants d'IA sont avancés et intégrés dans nos vies, plus nous devons être prudents avant de leur communiquer des informations personnelles. Pourquoi ? Parce qu'on ne peut pas leur confier des données sensibles.
Pour comprendre les risques pour la vie privée associés aux chatbots d'IA, il est important de savoir comment ils fonctionnent. Ces chatbots recueillent et stockent les transcriptions complètes des conversations qui ont lieu lorsque vous interagissez avec eux. Cela comprend toutes les questions, les invites, les messages que vous envoyez au chatbot et les réponses de ce dernier. Les entreprises à l'origine de ces assistants d'intelligence artificielle analysent et traitent ces données conversationnelles afin d'entraîner et d'améliorer leurs grands modèles de langage.
Imaginez le chatbot comme un étudiant qui prend des notes en classe. Le chatbot écrit mot pour mot tout ce que vous dites, de sorte que le contexte et les détails sont saisis dans leur intégralité. L'entreprise d'IA examine ensuite ces "notes" pour aider le chatbot à apprendre, de la même manière qu'un étudiant étudierait ses notes de cours pour améliorer ses connaissances. Bien que l'objectif soit d'améliorer la compréhension du langage et les capacités de dialogue de l'IA, cela signifie que les données brutes de votre conversation - qui peuvent potentiellement inclure des informations personnelles, des opinions et des détails sensibles que vous divulguez - sont collectées, stockées et étudiées par les entreprises d'IA, au moins temporairement.
Si vous êtes sur Internet, vos données personnelles sont déjà partout. Voulez-vous savoir où elles se trouvent ? Utilisez Bitdefender Digital Identity Protection pour localiser et gérer vos informations personnelles en ligne.
Lorsque vous partagez des informations personnelles ou sensibles avec un chatbot d'IA, vous perdez le contrôle de la destination de ces données et de leur utilisation. Les chatbots d'IA stockent des données sur des serveurs, qui peuvent devenir vulnérables à des tentatives de piratage ou à des violations. Ces serveurs contiennent une mine d'informations que les cybercriminels peuvent exploiter de diverses manières. Ils peuvent s'infiltrer dans les serveurs, voler les données et les vendre sur les places de marché du dark web. En outre, les pirates peuvent utiliser ces données pour déchiffrer des mots de passe et obtenir un accès non autorisé à vos appareils.
Toutes les données que vous fournissez peuvent potentiellement être exposées, piratées ou utilisées à mauvais escient, ce qui peut entraîner une usurpation d'identité, une fraude financière ou l'exposition publique d'informations intimes que vous préféreriez garder secrètes. Pour protéger votre vie privée, vous devez être sélectif quant aux détails que vous divulguez aux chatbots d'IA.
Pour protéger votre vie privée et vos informations personnelles, soyez sélectif sur ce que vous partagez avec les chatbots d'IA.
Soyez extrêmement prudent avec ces types de données :
Informations d'identification personnelle : Évitez de partager des éléments clés d'identification personnelle tels que votre nom complet, votre adresse personnelle, votre numéro de téléphone, votre date de naissance, votre numéro de sécurité sociale ou d'autres numéros d'identification gouvernementaux. Tous ces éléments peuvent être exploités pour usurper votre identité, ce qui peut conduire à une usurpation d'identité, à une fraude financière ou à d'autres utilisations criminelles de vos données personnelles.
Les noms d'utilisateur et les mots de passe : Ne partagez jamais vos mots de passe, codes PIN, codes d'authentification ou autres identifiants de connexion avec des chatbots d'IA. Le simple fait de donner des indices sur vos identifiants pourrait aider les pirates à accéder à vos comptes.
Vos informations financières : Vous ne devez jamais communiquer d'informations financières, de numéros de carte de crédit ou de revenus à des robots conversationnels.
Vous pouvez leur demander des conseils financiers globaux, des questions d'ordre général pour vous aider à établir un budget, ou même des conseils fiscaux, mais ne divulguez pas vos informations financières sensibles, car cela pourrait facilement compromettre vos comptes et vos actifs financiers.
Pensées privées et intimes : Bien que les chatbots puissent vous apporter une oreille attentive, vous devez éviter de révéler des pensées, des expériences ou des opinions profondément personnelles que vous ne seriez pas à l'aise de partager en public. Des opinions politiques ou religieuses, des problèmes relationnels ou de détresse émotionnelle peuvent être révélés si les journaux de conversation sont piratés ou mal gérés.
Informations confidentielles liées au travail : Si vous travaillez avec des informations exclusives, des secrets commerciaux, des connaissances d'initiés ou des données confidentielles sur le lieu de travail, quelles qu'elles soient, n'en discutez pas avec des chatbots d'IA publics. Évitez d'utiliser des chatbots d'IA pour résumer des comptes rendus de réunions ou automatiser des tâches répétitives, car vous risquez d'exposer involontairement des données sensibles ou de violer les accords de confidentialité et les protections de la propriété intellectuelle de votre employeur.
Un rapport de Bloomberg a mis en lumière un cas où des employés de Samsung ont utilisé ChatGPT à des fins de codage et ont accidentellement téléchargé du code sensible sur la plateforme d'IA générative. Cet incident a entraîné la divulgation d'informations confidentielles sur Samsung, ce qui a incité l'entreprise à interdire l'utilisation des chatbots d'IA.
De grandes entreprises technologiques comme Apple, Samsung, JPMorgan et Google ont même mis en œuvre des politiques interdisant à leurs employés d'utiliser des chatbots d'IA dans le cadre de leur travail.
Votre travail créatif : Ne partagez jamais vos idées originales avec des chatbots, sauf si vous êtes d'accord pour qu'elles soient potentiellement partagées avec tous les autres utilisateurs.
Informations relatives à la santé :
Une enquête menée par la société Tebra, spécialisée dans les technologies de la santé, a révélé que :
Protéger ses données de santé signifie protéger son accès à des soins médicaux appropriés, maintenir la confidentialité et se prémunir contre d'éventuelles atteintes à la vie privée ou contre l'utilisation abusive d'informations médicales sensibles. Par conséquent, ne divulguez jamais votre état de santé, vos diagnostics, les détails de votre traitement ou vos schémas thérapeutiques à des robots d'IA. Discutez-en plutôt avec des professionnels de santé qualifiés, dans un cadre sécurisé et privé.
Voici trois choses à faire pour utiliser les chatbots en toute sécurité et protéger votre vie privée.
En général, l'utilisation des modes incognito/privé, l'effacement de l'historique des conversations et l'ajustement des paramètres de données sont les principaux moyens de limiter la collecte de données par les chatbots d'IA. La plupart des grands fournisseurs de chatbots d'IA proposent ces options.
En voici quelques exemples :
OpenAI (ChatGPT, GPT-3) :
Anthropic (Claude) :
Google (Bard, LaMDA) :
La prudence est de mise, mais que diriez-vous d'aller encore plus loin dans la protection de la vie privée en faisant appel à un assistant d'IA explicitement conçu pour vous protéger ?
Scamio est notre chatbot de nouvelle génération alimenté par l'IA, conçu pour détecter les escroqueries et les activités frauduleuses. Vous pouvez envoyer à Scamio le texte, l'e-mail, le message instantané, le lien ou même le code QR que vous avez reçu, et il vous fournira une analyse instantanée pour déterminer s'il s'agit d'une tentative d'escroquerie.
Pour entamer une conversation, rendez-vous sur scamio.bitdefender.com/chat ou discutez directement avec Scamio sur Facebook Messenger.
tags
The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”
Voir toutes les publicationsJuillet 01, 2024
Juin 10, 2024
Juin 03, 2024
Mai 16, 2024