Maison > Périphériques technologiques > IA > Est-il fiable d'utiliser ChatGPT pour rédiger des articles ? Certains chercheurs l'ont essayé : plein de failles, mais un 'bon' outil pour l'injection d'eau

Est-il fiable d'utiliser ChatGPT pour rédiger des articles ? Certains chercheurs l'ont essayé : plein de failles, mais un 'bon' outil pour l'injection d'eau

PHPz
Libérer: 2023-04-08 11:41:16
avant
2010 Les gens l'ont consulté

​ChatGPT, avec ses puissantes capacités de création de texte, aspire directement à devenir le modèle de questions et réponses le plus puissant de la planète.

Mais une IA puissante aura également des impacts négatifs, comme écrire de mauvaises réponses dans les communautés de questions-réponses, aider les étudiants à rédiger des articles, etc.

Un article récent sur arXiv a attiré l'attention de l'industrie. Des chercheurs de l'Université de Saint-Jacques-de-Compostelle en Espagne ont cité « Défis, opportunités et stratégies de l'intelligence artificielle dans la découverte de médicaments ». que l'auteur utilise ChatGPT pour l'aider à rédiger l'article.

Est-il fiable dutiliser ChatGPT pour rédiger des articles ? Certains chercheurs lont essayé : plein de failles, mais un bon outil pour linjection deau

Lien du papier : https://arxiv.org/abs/2212.08104

L'équipe d'auteurs a déclaré dans le dernier paragraphe du résumé, "Note des auteurs humains", cet article a été créé pour testez si les capacités d'écriture de ChatGPT, un chatbot basé sur le modèle de langage GPT-3.5, peuvent aider les auteurs humains à rédiger des articles de synthèse.

L'auteur a conçu une instruction comme invite initiale pour la génération de texte, puis a évalué le contenu généré automatiquement. Après un examen approfondi, les auteurs humains ont réécrit le manuscrit dans le but de maintenir un équilibre entre la proposition originale et les normes scientifiques. L'article se termine par une discussion sur les avantages et les limites de l'utilisation de l'intelligence artificielle pour atteindre cet objectif.

Mais il y a une autre question, pourquoi n'y a-t-il pas ChatGPT dans la liste des auteurs ? (Tête de chien manuelle)

Comment rédiger un article

Cet article a été généré avec l'aide de ChatGPT, un système de traitement du langage naturel sorti le 30 novembre 2022. Il a été formé par OpenAI à l'aide d'un grand nombre de corpus de textes. Capable de générer un texte qui ressemble à une écriture humaine en fonction des informations qui lui sont fournies.

Pour cet article, les contributions fournies par les auteurs humains comprenaient le sujet de l'article (Applications de l'intelligence artificielle dans la découverte de médicaments), le nombre de chapitres à considérer, ainsi que des conseils et instructions spécifiques pour chaque chapitre.

Est-il fiable dutiliser ChatGPT pour rédiger des articles ? Certains chercheurs lont essayé : plein de failles, mais un bon outil pour linjection deau

Le texte généré par ChatGPT doit être modifié manuellement avant de pouvoir être finalisé pour corriger et enrichir le contenu et éviter les duplications et les incohérences et les humains doivent également modifier toutes les références suggérées par l'intelligence artificielle modifiée.

La version finale de cet ouvrage est le résultat de révisions répétées par des auteurs humains avec l'aide de l'intelligence artificielle. La similarité totale entre le texte préliminaire obtenu directement de ChatGPT et la version actuelle du manuscrit est : identique 4,3%, Petits changements 13,3 %, signification pertinente 16,3 %. Dans le texte préliminaire obtenu directement de ChatGPT, la proportion de références correctes n'était que de 6 %.

La version originale générée par ChatGPT et les informations d'entrée utilisées pour créer cette version sont couvertes en tant qu'informations de support

L'illustration dans le résumé de l'article a été générée par DALL-E.

Contenu du papier

Le document comprend un total de 10 sections et 56 références, dont les sections 1 à 9 ne contiennent que 1 à 2 paragraphes, décrivant principalement le sujet du document ""Les défis, opportunités et défis de l'artificiel intelligence in drug découverte" Contenu lié à la "Stratégie" ; la dixième section traite principalement des "opinions d'experts d'auteurs humains sur les outils de rédaction scientifique basés sur ChatGPT et l'IA" ; seule la partie abstraite de l'article contient une illustration.

Abstrait

L'intelligence artificielle a le potentiel de révolutionner le processus de découverte de médicaments, en offrant une meilleure efficacité, précision et rapidité. Cependant, le succès de l’application de l’IA dépend de la disponibilité de données de haute qualité, de la gestion des questions éthiques et de la prise de conscience des limites des méthodes basées sur l’IA.

Cet article passe en revue les avantages, les défis et les lacunes de l'intelligence artificielle dans ce domaine et propose des stratégies et méthodes possibles pour surmonter les obstacles actuels.

L'article traite également de l'utilisation de l'augmentation des données, de l'intelligence artificielle explicable, de l'intégration de l'intelligence artificielle avec les méthodes expérimentales traditionnelles et des avantages potentiels de l'intelligence artificielle dans la recherche médicale.

Dans l'ensemble, cette revue met en évidence le potentiel de l'intelligence artificielle dans la découverte de médicaments et propose une exploration approfondie des défis et des opportunités pour réaliser son potentiel dans ce domaine.

Avis d'experts d'auteurs humains sur les outils de rédaction scientifique basés sur ChatGPT et l'IA

ChatGPT est un chatbot basé sur le modèle de langage GPT-3.5. Il n'est pas conçu pour être un assistant de rédaction d'articles scientifiques, mais il. est compatible avec la capacité de l'humanité à tenir des conversations cohérentes et à fournir de nouvelles informations sur un large éventail de sujets, ainsi qu'avec sa capacité à corriger, voire à générer du code informatique, a étonné la communauté scientifique.

Nous avons donc décidé de tester son potentiel et de contribuer à la rédaction d'une brève revue sur le rôle des algorithmes d'intelligence artificielle dans la découverte de médicaments.

En tant qu'assistant de rédaction d'articles scientifiques, ChatGPT présente plusieurs avantages, notamment la capacité de générer et d'optimiser rapidement du texte, ainsi que d'aider les utilisateurs à accomplir plusieurs tâches, notamment l'organisation des informations et même la connexion d'idées dans certains cas.

Cependant, cet outil n'est en aucun cas idéal pour générer du nouveau contenu.

Est-il fiable dutiliser ChatGPT pour rédiger des articles ? Certains chercheurs lont essayé : plein de failles, mais un bon outil pour linjection deau

Après avoir saisi les instructions, les humains doivent encore modifier le texte généré par l'intelligence artificielle, et il s'agit d'une édition et d'une correction à grande échelle, incluant le remplacement de presque toutes les références, car les références fournies par ChatGPT sont évidemment incorrectes.

C'est également un gros problème actuellement avec ChatGPT. Il présente une différence essentielle par rapport aux autres outils informatiques (tels que les moteurs de recherche), qui fournissent principalement des références fiables pour les informations requises.

Il existe un autre problème important lié à l'utilisation d'outils d'aide à la rédaction basés sur l'intelligence artificielle : ils ont été formés en 2021, ils n'incluent donc pas les dernières informations.

Les résultats fournis par cette expérience d'écriture sont : on peut dire que ChatGPT n'est pas un outil utile pour rédiger des textes scientifiques fiables sans intervention humaine forte.

ChatGPT ne dispose pas des connaissances et de l'expertise nécessaires pour communiquer de manière précise et adéquate des concepts et des informations scientifiques complexes.

De plus, le langage et le style utilisés par ChatGPT peuvent ne pas convenir à la rédaction académique, et afin de générer un texte scientifique de haute qualité, la contribution et la révision humaines sont essentielles.

L'une des principales raisons pour lesquelles ce type d'intelligence artificielle ne peut pas encore être utilisé pour produire des articles scientifiques est qu'elle n'a pas la capacité d'évaluer l'authenticité et la fiabilité des informations traitées. Par conséquent, les textes scientifiques générés par ChatGPT contiendront certainement des erreurs. ou des informations trompeuses.

Notez également que les critiques peuvent avoir du mal à faire la distinction entre les articles écrits par des humains et cette intelligence artificielle.

Cela signifie que le processus d'examen doit être minutieux pour éviter la publication d'informations fausses ou trompeuses.

Est-il fiable dutiliser ChatGPT pour rédiger des articles ? Certains chercheurs lont essayé : plein de failles, mais un bon outil pour linjection deau

Un risque réel est que des revues prédatrices profitent de la production rapide d'articles scientifiques pour produire de grandes quantités de contenu de mauvaise qualité. Ces revues sont souvent motivées par le profit plutôt que par un engagement en faveur du progrès scientifique. L’intelligence artificielle peut être utilisée pour produire rapidement des articles, inondant le marché de recherches de qualité inférieure et sapant la crédibilité de la communauté scientifique.

L'un des plus grands dangers est la prolifération potentielle de fausses informations dans les articles scientifiques, qui peuvent conduire à la dévaluation de l'entreprise scientifique elle-même, à une perte de confiance dans l'exactitude et l'intégrité de la recherche scientifique et nuire aux progrès. des sciences.

Il existe plusieurs solutions possibles pour atténuer les risques liés à l'utilisation de l'intelligence artificielle pour produire des articles scientifiques.

Une solution consiste à développer des algorithmes d’intelligence artificielle spécifiquement destinés à produire des articles scientifiques. Ces algorithmes peuvent être formés sur de vastes ensembles de données issus de recherches de haute qualité évaluées par des pairs, ce qui contribuera à garantir l’authenticité des informations qu’ils génèrent.

De plus, ces algorithmes peuvent être programmés pour signaler des informations potentiellement problématiques, telles que la citation de sources peu fiables, ce qui alertera les chercheurs de la nécessité d'un examen et d'une vérification plus approfondis.

Une autre approche consiste à développer des systèmes d’intelligence artificielle plus à même d’évaluer la véracité et la fiabilité des informations qu’ils traitent. Cela peut impliquer de former l'IA sur de vastes ensembles de données d'articles scientifiques de haute qualité, ainsi que d'utiliser des techniques telles que la validation croisée et l'examen par les pairs pour garantir que l'IA produit des résultats précis et fiables.

Une autre solution possible consiste à élaborer des lignes directrices et des réglementations plus strictes pour l'utilisation de l'intelligence artificielle dans la recherche scientifique, notamment en exigeant que les chercheurs divulguent leur utilisation de l'intelligence artificielle lors de la production d'articles et en mettant en œuvre des procédures d'examen pour garantir que le contenu généré par l'IA répond à une certaine qualité. et les normes de précision.

De plus, cela pourrait inclure l'obligation pour les chercheurs d'examiner et de vérifier minutieusement toute information générée par l'IA avant leur publication, ainsi que des sanctions pour ceux qui ne le font pas, l'éducation du public sur les limites de l'IA et le potentiel Les dangers liés au recours à l’IA pour la recherche scientifique peuvent également être utiles pour contribuer à prévenir la propagation de la désinformation et garantir que le public soit mieux à même de faire la distinction entre les sources d’informations scientifiques fiables et non fiables.

Les agences de financement et les établissements universitaires peuvent jouer un rôle dans la promotion de l'utilisation responsable de l'IA dans la recherche scientifique en fournissant une formation et des ressources pour aider les chercheurs à comprendre les limites de la technologie.

Dans l’ensemble, lutter contre les risques associés à l’utilisation de l’intelligence artificielle dans la production d’articles scientifiques nécessitera une combinaison de solutions techniques, de cadres réglementaires et d’éducation du public.

En mettant en œuvre ces mesures, nous pouvons garantir que l'utilisation de l'intelligence artificielle dans la communauté scientifique soit responsable et efficace. Les chercheurs et les décideurs politiques doivent examiner attentivement les dangers potentiels liés à l’utilisation de l’intelligence artificielle dans la recherche scientifique et prendre des mesures pour réduire ces risques.

Jusqu'à ce que l'on puisse faire confiance à l'IA pour produire des informations fiables et précises, son utilisation dans la communauté scientifique doit être prudente et les informations fournies par les outils d'IA doivent être soigneusement évaluées et vérifiées à l'aide de sources fiables.

Référence : https://arxiv.org/abs/2212.08104

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal