La récente sortie de ChatGPT-4 par le développeur d'intelligence artificielle OpenAI a de nouveau choqué le monde, mais ce que cela signifie dans le domaine de la sécurité des données reste à déterminer. D’une part, générer des malwares et des ransomwares est plus facile que jamais. D'un autre côté, ChatGPT peut également fournir une série de nouveaux cas d'utilisation de défense.
La récente sortie de ChatGPT-4 par le développeur d'intelligence artificielle OpenAI a de nouveau choqué le monde, mais ce que cela signifie dans le domaine de la sécurité des données n'a pas encore été déterminé. D’une part, générer des malwares et des ransomwares est plus facile que jamais. D'un autre côté, ChatGPT peut également fournir une série de nouveaux cas d'utilisation de défense.
Les médias du secteur ont récemment interviewé certains des meilleurs analystes mondiaux en matière de cybersécurité, et ils ont fait les prédictions suivantes sur le développement de ChatGPT et de l'intelligence artificielle générative en 2023 :
Voici quelques prédictions d'analystes en cybersécurité.
Steve Grobman, vice-président directeur et directeur de la technologie de McAfee, a déclaré : « ChatGPT abaisse le seuil d'utilisation, rendant ainsi certaines technologies qui nécessitent traditionnellement l'investissement de talents hautement qualifiés et de grosses sommes d'argent. accessible à tous. Toute personne ayant accès à Internet peut désormais l'utiliser. Les cyberattaquants non qualifiés ont désormais les moyens de générer du code malveillant en masse
Par exemple, ils peuvent demander à un programme d'écrire du code pour générer des messages texte qui sont envoyés à des centaines de personnes. C'est ce que fait une équipe marketing non criminelle. Au lieu de diriger les destinataires vers un site Web sécurisé, ils les dirigent vers un site Web contenant des menaces malveillantes. Bien que le code lui-même ne soit pas malveillant, il peut l'être.
Comme toute technologie ou application émergente, qui présente des avantages et des inconvénients, ChatGPT sera utilisé à la fois par de bons et de mauvais acteurs, la communauté de la cybersécurité doit donc rester vigilante sur la manière dont elle peut être exploitée »
Justin Greis, associé chez McKinsey & Company, a déclaré : « D'une manière générale, l'IA générative est un outil qui, comme tous les outils, peut être utilisé à bon escient. des chercheurs curieux élaborent des e-mails de phishing plus convaincants, générant du code et des scripts malveillants pour lancer des cyberattaques potentielles ou même simplement pour interroger afin d'obtenir des renseignements meilleurs et plus rapides
Mais à chaque cas d'abus, des contrôles continueront d'être mis en place pour les contrer, c'est la nature de la cybersécurité, c'est une bataille sans fin pour déjouer l'adversaire. Une course aux défenseurs.
Comme pour tout outil pouvant être utilisé à des fins malveillantes, les entreprises doivent mettre en place des garde-fous et des garanties pour protéger le public contre les abus. ”
David Hoelzer, chercheur SANS à l’Institut SANS, a déclaré : « ChatGPT est actuellement populaire dans le monde entier, mais nous n’en sommes qu’à ses balbutiements. impact sur le paysage de la cybersécurité. Cela marque le début d’une nouvelle ère d’adoption de l’IA/ML des deux côtés, non pas tant à cause de ce que ChatGPT peut faire, mais parce qu’il met l’IA/ML sous les projecteurs
Sur le D'un côté, ChatGPT peut potentiellement être utilisé pour démocratiser l'ingénierie sociale, en donnant aux acteurs de menace inexpérimentés de nouvelles capacités pour générer rapidement et facilement des excuses ou des escroqueries, et déployer des attaques de phishing sophistiquées à grande échelle.
D'un autre côté, lorsqu'il s'agit de créer ChatGPT, c'est possible. beaucoup moins capable lorsqu'il s'agit de nouvelles attaques ou de défenses. Ce n'est pas un échec, c'est parce que les gens lui demandent de faire des choses pour lesquelles il n'est pas formé.
Qu'est-ce que cela signifie pour les professionnels de la sécurité ? ignorer ChatGPT ? Non. En tant que professionnels de la sécurité, beaucoup d'entre nous ont testé ChatGPT pour voir à quel point il remplit les fonctions de base. Peut-il écrire des scénarios de test Pen ? Peut-il écrire des excuses de phishing ? Comment peut-il aider à créer une infrastructure d'attaque et C2 ? Jusqu'à présent, les résultats de ses tests ont été mitigés.
Cependant, la conversation plus large sur la sécurité ne concerne pas ChatGPT. Il s’agit de savoir si nous disposons actuellement de rôles de sécurité qui comprennent comment créer, utiliser et interpréter les technologies IA/ML. "
L'analyste de Gartner, Avivah Litan, a déclaré : "Dans certains cas, lorsque le personnel de sécurité ne peut pas vérifier le contenu de sa sortie, les problèmes causés par ChatGPT seront plus importants. que cela résout plus de problèmes. Par exemple, cela manquera inévitablement de détecter certaines vulnérabilités et donnera aux entreprises un faux sentiment de sécurité.
De même, il peut également manquer les détections détectées d'attaques de phishing et fournir des informations sur les menaces incorrectes ou obsolètes.
Nous verrons donc certainement en 2023 que ChatGPT sera tenu responsable des cyberattaques manquées et des vulnérabilités conduisant à des violations de données pour les entreprises qui l'utilisent. "
Rob Hughes, responsable de la sécurité de l'information chez RSA, a déclaré : "Comme beaucoup de nouvelles technologies, je ne pense pas que ChatGPT apportera de nouvelles menaces. Je pense que le plus grand changement que cela apportera au paysage de la sécurité sera d’amplifier, d’accélérer et de renforcer les menaces existantes, en particulier le phishing.
À un niveau basique, ChatGPT peut fournir aux cyberattaquants des e-mails de phishing syntaxiquement corrects, ce que nous ne voyons pas très souvent de nos jours.
Bien que ChatGPT reste un service hors ligne, ce n'est qu'une question de temps avant que les auteurs de cybermenaces commencent à combiner l'accès Internet, l'automatisation et l'intelligence artificielle pour créer des attaques persistantes et avancées.
Avec les chatbots, les humains n’ont pas besoin d’écrire des appâts pour le spam. Au lieu de cela, ils pourraient écrire un script qui dit : « Utilisez les données Internet pour vous familiariser avec tel ou tel et continuez à lui envoyer des messages jusqu'à ce qu'il clique sur le lien.
Le phishing reste l'une des principales causes de violations de cybersécurité. Lorsqu'un robot en langage naturel utilise un outil de spear phishing distribué tout en travaillant à grande échelle sur les machines de centaines d'utilisateurs, il sera plus difficile pour les équipes de sécurité de faire leur travail. "
Matt Miller, responsable des services de cybersécurité chez KPMG, a déclaré qu'à mesure que de plus en plus d'entreprises explorent et adoptent ChatGPT, la sécurité sera une préoccupation majeure. Voici quelques étapes pour aider les entreprises. prenez une longueur d'avance en 2023 :
(1) Définir les attentes quant à la manière dont ChatGPT et les solutions similaires doivent être utilisées dans les environnements d'entreprise. Développer une politique d'utilisation acceptable, définir toutes les solutions approuvées, les cas d'utilisation et une liste de données sur lesquelles les employés peuvent s'appuyer. et exiger des contrôles pour vérifier l'exactitude des réponses
(2) Établir des processus internes pour examiner l'impact et l'évolution des réglementations concernant l'utilisation des solutions d'automatisation cognitive, notamment la propriété intellectuelle, la gestion des données personnelles, ainsi que leur inclusion appropriée. et la diversité.
(3) Mettre en œuvre des contrôles techniques du réseau, en accordant une attention particulière au test de la résilience opérationnelle du code et à la recherche de charges utiles malveillantes, notamment : l'authentification multifacteur et l'autorisation de l'accès des utilisateurs ; de programmes de prévention des pertes de données pour garantir que tout le code généré par les outils passe par un processus de révision standard et ne peut pas être copié directement dans les environnements de production ; et la configuration du filtrage du réseau pour alerter les employés lorsqu'ils accèdent à des solutions non approuvées
Doug Cahill, vice-président senior et analyste senior chez ESG Corp. Analyst Services, a déclaré : « Comme la plupart des nouvelles technologies, ChatGPT deviendra une ressource pour les cyber-attaquants et les défenseurs. Les cas d'utilisation contradictoires incluent la reconnaissance et les défenseurs recherchant les meilleures pratiques et le marché du renseignement sur les menaces. Comme pour d’autres cas d’utilisation de ChatGPT, la fidélité des réponses aux tests utilisateur variera à mesure que le système d’IA est formé sur un corpus de données déjà important et croissant.
Bien que le cas d'utilisation de ChatGPT soit largement utilisé, le partage de renseignements sur les menaces entre les membres de l'équipe pour la recherche des menaces et la mise à jour des règles et des modèles de défense est prometteur. Cependant, ChatGPT est un autre exemple d’IA augmentant (plutôt que remplaçant) l’élément humain requis dans tout type de scénario d’application d’enquête sur les menaces. "
Candid Wuest, vice-président de la recherche mondiale chez Acronis, a déclaré : "Bien que ChatGPT soit un modèle de génération de langage puissant, cette technologie n'est pas un outil autonome et ne peut pas fonctionner indépendamment. Il repose sur la saisie de l'utilisateur et est limité par les données sur lesquelles il est formé.
Par exemple, le texte de phishing généré par ce modèle doit toujours être envoyé depuis un compte de messagerie et dirigé vers un site Web. Ce sont des indicateurs traditionnels qui peuvent être analysés pour aider à les détecter.
Bien que ChatGPT ait la capacité d'écrire des exploits et des charges utiles, les tests ont montré que ces fonctionnalités ne sont pas aussi performantes que suggérées initialement. La plateforme peut également être utilisée pour écrire des logiciels malveillants, et bien que ce code soit déjà disponible en ligne et sur divers forums, ChatGPT le rend plus accessible au grand public.
Cependant, ses modifications sont encore limitées, ce qui rend ce malware facilement détectable par la détection basée sur le comportement et d'autres méthodes. ChatGPT n'est pas spécifiquement conçu pour cibler ou exploiter les vulnérabilités, mais il peut augmenter la fréquence des messages automatisés ou simulés. Il abaisse les barrières à l’entrée pour les cybercriminels, mais il n’introduit pas de méthodes d’attaque entièrement nouvelles pour les entreprises établies. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!