Une étude récente a révélé que l’interface de programmation d’application vocale de l’assistant ChatGPT-4o d’OpenAI pouvait être utilisée comme outil par les cybercriminels pour exécuter des escroqueries financières, avec des taux de réussite variant de faibles à moyens. ChatGPT-4o est le dernier modèle d’intelligence artificielle d’OpenAI, qui se distingue par sa capacité à traiter de manière intégrée les textes, les sons et les images.
Problèmes de sécurité liés à l’utilisation des technologies d’intelligence artificielle
Malgré les efforts déployés par OpenAI pour intégrer des mécanismes de sécurité avancés pour détecter le contenu malveillant et empêcher l’utilisation de voix non autorisées, l’augmentation de la diffusion des technologies de deepfake audio et des outils de conversion de texte en parole amplifie les risques associés aux escroqueries vocales, dont les pertes se chiffrent en millions.
Un groupe de chercheurs de l’Université de l’Illinois a publié un article scientifique démontrant que les outils technologiques modernes disponibles au grand public manquent de protections suffisantes contre les abus dans les escroqueries. L’étude a examiné différents types d’escroqueries, notamment les transferts bancaires, le vol de cartes-cadeaux, le transfert de crypto-monnaies, le vol de données de comptes de réseaux sociaux et de messagerie électronique.
Comment les escroqueries sont mises en œuvre
Les escroqueries exploitent les outils programmés basés sur la voix dans ChatGPT-4o pour effectuer des actions telles que la navigation entre les pages Web, la saisie de données et la gestion des codes d’authentification à deux facteurs. Bien que le modèle GPT-4o refuse généralement de traiter les données sensibles, les chercheurs ont réussi à contourner certaines limitations en utilisant des techniques simples pour inciter le modèle à répondre.
Pour démontrer l’efficacité des escroqueries, les chercheurs ont simulé les rôles des victimes dans leurs expériences, utilisant des sites Web tels que « Bank of America » pour vérifier le succès des transferts bancaires. Ils n’ont pas évalué la capacité du modèle à persuader, mais les expériences ont montré que les taux de réussite se situaient entre 20 % et 60 %.
Résultats et statistiques
Chaque tentative d’escroquerie nécessitait jusqu’à 26 étapes successives via le navigateur et prenait environ trois minutes dans les cas les plus complexes. Les résultats ont montré que les opérations de vol de données de comptes Gmail ont atteint un taux de réussite de 60 %, tandis que les opérations de transfert de crypto-monnaies et de vol de données Instagram ont atteint 40 %.
Coûts et impacts économiques
Les coûts de mise en œuvre d’escroqueries sont relativement bas, le coût de chaque opération réussie s’élevant à environ 0,75 dollar américain, tandis que les opérations les plus complexes, telles que les transferts bancaires, ont coûté seulement 2,51 dollars.
Commentaire d’OpenAI
Dans un commentaire d’OpenAI, publié par le site Web technologique BleepingComputer, la société a affirmé que son dernier modèle « o1-preview » possédait des capacités supérieures en matière de résistance aux tentatives d’escroquerie par rapport aux modèles précédents, avec un score de sécurité de 93 % contre 71 % pour le modèle GPT-4o. OpenAI a indiqué que les recherches universitaires telles que celle présentée par l’Université de l’Illinois contribuent à améliorer ChatGPT pour lutter contre les utilisations malveillantes, et a affirmé son engagement à renforcer les mécanismes de sécurité dans ses modèles futurs.
L’utilisation croissante des technologies d’intelligence artificielle met en évidence l’importance de se concentrer sur la sécurité et la protection contre les abus. Les efforts d’OpenAI sont essentiels pour faire face aux menaces d’escroqueries financières, et la nécessité d’une plus grande collaboration entre les entreprises et les chercheurs se fait sentir pour garantir l’utilisation sûre de la technologie.
Questions et réponses concernant l’utilisation de ChatGPT-4o dans les escroqueries :
1. Qu’est-ce que ChatGPT-4o et quelle est sa capacité à être utilisé pour des escroqueries ?
Réponse : ChatGPT-4o est un modèle de langage avancé développé par OpenAI, capable de générer du texte, de traduire des langues et de répondre à des questions de manière convaincante. Son interface de programmation vocale peut être exploitée par des cybercriminels pour automatiser des tâches liées à des escroqueries, comme la navigation sur le web, la saisie de données et l’utilisation de l’authentification à deux facteurs.
2. Quels types d’escroqueries peuvent être réalisés avec ChatGPT-4o ?
Réponse : Les escroqueries utilisant ChatGPT-4o peuvent prendre différentes formes, notamment :
* Le vol de données : Accéder aux comptes Gmail, Instagram, etc.
* Les transferts bancaires frauduleux : Dérober des fonds en utilisant des informations personnelles.
* Le vol de cartes-cadeaux : Obtenir des codes de cartes-cadeaux via des manipulations.
* Le transfert de crypto-monnaies : Pirater des portefeuilles numériques.
3. Quelles sont les mesures de sécurité prises par OpenAI pour lutter contre ces escroqueries ?
Réponse : OpenAI a mis en place des mécanismes de sécurité pour détecter et empêcher les utilisations malveillantes de ChatGPT-4o, notamment la détection de contenu malveillant, la limitation de l’accès à des données sensibles et l’amélioration de la capacité du modèle à résister aux tentatives d’escroquerie.
4. Quelle est la fréquence et le coût des escroqueries réalisées avec ChatGPT-4o ?
Réponse : L’étude de l’Université de l’Illinois a démontré que les taux de réussite des escroqueries variaient de 20% à 60%, avec des coûts de mise en œuvre relativement bas (environ 0,75 dollar par escroquerie réussie).
5. Quelles sont les implications de ces escroqueries sur la sécurité et la confiance envers l’intelligence artificielle ?
Réponse : Ces escroqueries soulèvent des questions essentielles concernant la sécurité et l’éthique de l’utilisation de l’intelligence artificielle. Il est crucial de développer des systèmes de sécurité robustes et de sensibiliser les utilisateurs aux risques potentiels liés à l’utilisation de technologies comme ChatGPT-4o.
6. Comment se protéger des escroqueries utilisant ChatGPT-4o ?
Réponse : Pour se protéger, il est important de :
* Se méfier des appels ou des emails suspects.
* Ne jamais partager d’informations personnelles sensibles (mots de passe, numéros de carte de crédit, etc.).
* Utiliser des mots de passe forts et uniques pour chaque compte en ligne.
* Activer l’authentification à deux facteurs sur tous ses comptes.
* Rester vigilant et informer les autorités en cas de suspicion d’escroquerie.
7. Quels sont les efforts futurs pour améliorer la sécurité de ChatGPT-4o ?
Réponse : OpenAI s’engage à renforcer la sécurité de ses modèles d’IA en intégrant des mécanismes de sécurité plus robustes et en collaborant avec les chercheurs et les entreprises pour développer des solutions contre les utilisations malveillantes de l’IA.
8. Comment les utilisateurs peuvent-ils contribuer à lutter contre les escroqueries utilisant ChatGPT-4o ?
Réponse : Les utilisateurs peuvent contribuer en :
* Signaler tout comportement suspect ou escroquerie potentielle à OpenAI ou aux autorités compétentes.
* S’informer sur les risques liés à l’utilisation de l’IA et partager ces informations avec leur entourage.
* Soutenir les initiatives visant à améliorer la sécurité et l’éthique de l’utilisation de l’IA.
9. Quelles sont les limites des technologies de détection des deepfakes audio pour lutter contre les escroqueries utilisant ChatGPT-4o ?
Réponse : Bien que des efforts soient déployés pour développer des technologies de détection des deepfakes audio, elles ne sont pas encore parfaites. Les deepfakes peuvent être de plus en plus réalistes et difficiles à détecter, surtout pour les personnes non expertes. De plus, les techniques d’escroquerie peuvent évoluer et contourner les systèmes de détection existants.
10. Quelles sont les responsabilités d’OpenAI et des entreprises qui utilisent ChatGPT-4o dans le contexte des escroqueries ?
Réponse : OpenAI a une responsabilité dans le développement et la mise en place de mesures de sécurité pour minimiser les risques d’utilisation malveillante de ChatGPT-4o. Les entreprises utilisant cette technologie ont également une responsabilité de s’assurer qu’elle est utilisée de manière responsable et éthique, en mettant en place des protocoles de sécurité et des formations pour leurs employés.
11. Est-ce que les réglementations actuelles suffisent pour lutter contre les escroqueries utilisant ChatGPT-4o ?
Réponse : Les réglementations actuelles concernant la sécurité et la protection des données ne sont pas nécessairement adaptées à l’évolution rapide des technologies d’intelligence artificielle et des escroqueries qui les exploitent. De nouvelles réglementations et lois pourraient être nécessaires pour mieux encadrer l’utilisation de l’IA et lutter contre les abus.
12. Quelle est l’importance de la sensibilisation du public aux risques liés aux escroqueries utilisant ChatGPT-4o ?
Réponse : La sensibilisation du public est essentielle pour prévenir les escroqueries. Les individus doivent être conscients des techniques utilisées par les cybercriminels, des signaux d’alarme à repérer et des mesures de sécurité à prendre pour se protéger. La sensibilisation permet de réduire la vulnérabilité des populations aux escroqueries.
13. Quels sont les défis éthiques liés à l’utilisation de ChatGPT-4o dans les escroqueries ?
Réponse : L’utilisation de ChatGPT-4o pour manipuler et tromper des personnes soulève des questions éthiques importantes. La capacité de l’IA à générer des textes et des voix réalistes peut être utilisée pour nuire à la réputation d’individus, à la sécurité financière ou à la confiance du public envers l’IA.
14. Comment l’évolution de la technologie d’IA pourrait-elle influencer les escroqueries à l’avenir ?
Réponse : L’évolution de la technologie d’IA pourrait conduire à des escroqueries plus sophistiquées et difficiles à détecter. Les escrocs pourraient utiliser des modèles d’IA plus avancés pour créer des deepfakes plus réalistes, des interactions conversationnelles plus convaincantes et des attaques plus ciblées.
15. Quels sont les domaines de recherche et développement nécessaires pour lutter contre les escroqueries utilisant l’IA ?
Réponse : La recherche et le développement sont essentiels pour lutter contre les escroqueries utilisant l’IA. Il est important de se concentrer sur :
* L’amélioration des technologies de détection des deepfakes et des attaques d’IA.
* Le développement de méthodes d’atténuation des risques liés aux escroqueries d’IA.
* L’éducation et la sensibilisation du public aux risques liés à l’IA.
* Le développement de politiques et de réglementations éthiques pour encadrer l’utilisation de l’IA.
Ces questions et réponses illustrent la complexité et l’importance des enjeux liés à l’utilisation de ChatGPT-4o dans les escroqueries. Il est crucial de poursuivre les efforts de recherche, de développement et de sensibilisation pour garantir un usage responsable et sécurisé de l’intelligence artificielle.
[…] a annoncé le lancement d’une nouvelle fonctionnalité pour son célèbre chatbot ChatGPT, visant à renforcer ses capacités d’accès à des informations récentes. Cette […]
[…] est important de compléter la formation avec ChatGPT par une expérience d’entretiens réels, que ce soit avec des amis ou des mentors […]