Intelligence artificielle : vos secrets, leur butin. l'alerte de maría aperador
La menace est plus tangible que vous ne le pensez. L'intelligence artificielle, et particulièrement les chatbots, devient un terrain de chasse privilégié pour les cybercriminels. La spécialiste en cybersécurité María Aperador sonne l'alarme : l'utilisation massive de ces outils, souvent sans conscience des risques, ouvre une brèche béante pour l'exploitation de données personnelles.
Selon une étude de l'ENISA, 80% des campagnes de phishing prévoient d'utiliser l'IA en 2025. En 2026, la manière dont nous interagissons avec des assistants comme ChatGPT, Gemini ou Copilot représente un nouveau vecteur de vulnérabilité.

Ce que chatgpt ne doit jamais connaître de vous
Ces assistants ne sont pas des confidentes. Ils stockent chaque interaction, chaque détail de vos conversations. Cette accumulation de données, accessible à des tiers, représente un risque majeur.
María Aperador met en garde contre cinq catégories d'informations à absolument éviter de partager avec l'IA : les données de santé mentale et médicales, les informations financières (numéros de carte bancaire, comptes), les documents d'identité (numéro de sécurité sociale, papiers d'identité), les informations de localisation et les contenus multimédias personnels (photos, vidéos). Même les images transformées par des filtres comme Ghibli ou Funko Pop sont stockées et utilisées pour entraîner les modèles.
La technique de l'injection de prompts – qui manipule le système avec des formulations astucieuses – et les malwares capables de surveiller l'écran ouvrent des portes aux attaquants. Certains hackers accèdent directement aux comptes des utilisateurs, collectant chaque détail échangé avec un chatbot pour des activités malveillantes.
La situation est préoccupante. Un rapport récent révèle que la société OpenAI a été dénoncée pour détenir le « plus grand fichier de pensées intimes de l’histoire ». Et la tendance ne fait que s’accélérer : 32,7% de la population européenne (16-74 ans) a utilisé l'IA générative en 2025, une part qui dépasse les 80% chez les jeunes de 16 à 24 ans dans certains pays comme la Grèce et l'Estonie. Les conversations avec des assistants comme Copilot ou Gemini sont, pour beaucoup, une partie intégrante de leur quotidien.
Ces outils sont puissants : ils génèrent des images et des vidéos réalistes, rédigent des contenus, assistent dans le codage. Mais cette facilité d'utilisation cache des dangers bien réels. L'IA n'est pas un ami, c'est un système qui accumule. Et cette accumulation pourrait bien être votre ruine.
La vigilance est primordiale. Ne sous-estimez pas les conséquences de ces conversations. Car le prix de vos données pourrait bien être bien plus élevé que ce que vous imaginez.
