기술 대기업들이 ChatGPT를 위해 싸우는 동안 학계에서도 ChatGPT에 점점 더 많은 관심을 기울이고 있습니다.
1주일 만에 Nature는 ChatGPT와 생성 AI에 대해 논의하는 두 개의 기사를 게시했습니다.
ChatGPT는 먼저 학계에 파장을 일으켰습니다. 일부 학자들은 이를 사용하여 초록을 작성하고 논문을 수정했습니다.
Nature는 이에 대해 특별 금지령을 내렸습니다. ChatGPT는 논문의 저자가 될 수 없습니다. Science는 ChatGPT를 사용하여 텍스트를 생성하는 제출을 직접적으로 금지합니다.
하지만 트렌드는 이미 와있습니다.
지금 우리가 해야 할 일은 과학계에 있어서 ChatGPT의 중요성과 그것이 어떤 위치를 차지해야 하는지를 명확히 하는 것일 것입니다.
자연이 말했듯이:
생성 AI와 그 이면의 기술은 매달 혁신이 나타나며 매우 빠르게 발전하고 있습니다. 연구자들이 이를 어떻게 사용하느냐에 따라 기술과 학계의 미래가 결정될 것입니다.
"ChatGPT: 다섯 가지 우선순위 연구 문제"에서 연구원들은 다음과 같이 제안했습니다.
ChatGPT가 학계에 진입하는 것을 막을 수 있는 방법은 없습니다. 그것이 가져올 잠재적인 영향을 연구하고 탐구합니다.
ChatGPT가 나중에 실험 설계, 동료 검토 수행, 출판 지원, 편집자의 기사 수락 여부 결정에 도움이 된다면... 이러한 애플리케이션에서 주의해야 할 문제는 무엇입니까? 이제 인간은 어떤 경계를 명확히 해야 할까요?
연구원들은 우선순위로 두어야 할 5가지 측면이 있다고 믿고 그 이유를 설명했습니다.
ChatGPT 등 대화형 AI의 특징 중 하나는 답변 내용의 정확성을 보장할 수 없다는 점입니다. 더욱이 꾸며낸 거짓말은 매우 자연스럽고 사람들을 쉽게 오도할 수 있습니다.
예를 들어, 연구자들은 ChatGPT에 인지 행동 치료(CBT)가 불안 및 기타 증상 치료에 효과적인지에 대한 논문을 요약하고 요약해 달라고 요청했습니다.
ChatGPT의 답변에는 사실과 관련된 오류가 많이 있습니다. 예를 들어, 이 리뷰는 46개의 연구를 기반으로 한다고 말하지만 실제로는 69개이며 CBT의 효과를 과장합니다.
연구원들은 일부 학자들이 연구를 돕기 위해 ChatGPT를 사용하면 잘못된 정보로 인해 오해를 받을 수 있다고 믿습니다. 학자들이 자신도 모르게 다른 사람의 연구를 표절하는 경우도 있습니다.
따라서 연구자들은 인간이 논문을 검토하는 과정에서 자동화 시스템에 지나치게 의존할 수 없으며 궁극적으로 인간 자신이 과학적 실천에 대한 책임을 져야 한다고 믿습니다.
생성 AI의 남용을 처리하기 위해 텍스트가 인간이 쓴 것인지 쉽게 구별할 수 있는 많은 AI 텍스트 식별 도구가 탄생했습니다.
그러나 연구자들은 이러한 '군비 경쟁'이 불필요하다고 믿습니다. 실제로 해야 할 일은 학계와 출판사가 AI 도구를 보다 공개적이고 투명하게 사용할 수 있도록 하는 것입니다.
논문 저자는 AI가 어떤 작업을 수행하는지 명확하게 표시해야 하며, 저널도 리뷰에 AI를 사용하는 경우 이를 공개해야 합니다.
특히 생성 AI로 인해 특허 문제에 대한 논의가 촉발된 지금, AI가 생성한 이미지의 저작권은 어떻게 계산되어야 할까요?
그러면 AI가 발생시킨 문제의 저작권은 AI에 훈련 데이터를 제공하는 사람에게 있어야 한다는 건가요? AI 뒤에 있는 제작사? 아니면 AI를 사용해 기사를 쓰는 학자인가요? 저자권 문제도 엄격하게 정의되어야 합니다.
현재 거의 모든 고급 대화형 AI는 거대 기술 기업이 제공하고 있습니다.
AI 도구 뒤에 있는 알고리즘의 작동 원리에 대한 많은 부분이 아직 알려지지 않았습니다.
거인들의 독점 행위가 과학계의 개방 원칙을 심각하게 위반하기 때문에 이는 각계각층의 우려를 불러일으켰습니다.
이는 학계에서 대화형 AI의 단점과 기본 원리를 탐구하는 데 영향을 미치고, 과학 기술의 발전에 더욱 영향을 미칠 것입니다.
이러한 불투명성을 극복하기 위해 연구자들은 오픈소스 AI 알고리즘의 개발과 적용이 현시점에서 우선되어야 한다고 믿습니다. 예를 들어, 오픈 소스 대형 모델 BLOOM은 1,000명의 과학자가 공동으로 시작했으며 성능 측면에서 GPT-3에 필적할 수 있습니다.
제한해야 할 측면이 많지만 AI가 실제로 학계의 효율성을 향상시킬 수 있다는 것은 부인할 수 없습니다.
예를 들어 AI는 일부 검토 작업을 신속하게 처리할 수 있고, 학자들은 실험 자체에 더 집중할 수 있으며, 결과가 더 빨리 출판될 수 있어 학계 전체가 더 빠르게 움직일 수 있습니다.
일부 창의적인 작업에서도 연구자들은 AI가 유용할 수 있다고 믿습니다.
1991년의 한 세미나에서는 인간과 AI 사이에 형성된 '지능형 파트너십'이 인간의 지능과 능력을 능가할 수 있다고 제안했습니다.
이 관계는 상상할 수 없는 수준으로 혁신을 가속화할 수 있습니다. 하지만 문제는 이 자동화가 어디까지 갈 수 있느냐는 것입니다. 얼마나 멀리 가야합니까?
따라서 연구자들은 지식 콘텐츠 생성에 있어서 오늘날 AI의 경계에 대해 논의할 것을 윤리학자를 비롯한 학자들에게도 촉구합니다.
LLM의 현재 영향을 고려할 때, 연구자들은 학계가 시급히 큰 토론을 조직해야 한다고 믿습니다.
그들은 모든 연구 그룹에 즉시 그룹 회의를 열어 ChatGPT를 논의하고 직접 사용해 볼 것을 요청했습니다. 대학 교사는 학생들과 ChatGPT의 사용 및 윤리적 문제에 대해 주도적으로 논의해야 합니다.
규칙이 아직 명확하지 않은 초기 단계에서는 연구팀의 리더가 모든 사람에게 ChatGPT를 보다 공개적이고 투명하게 사용하고 몇 가지 규칙을 만들도록 요청하는 것이 중요합니다. 그리고 모든 연구자는 ChatGPT에서 생성되었는지 여부에 관계없이 자신의 작업에 대해 책임을 져야 함을 상기시켜야 합니다.
더 나아가 연구원들은 LLM의 연구와 활용에 대해 논의하기 위해 즉시 국제 포럼이 개최되어야 한다고 믿습니다.
구성원에는 다양한 분야의 과학자, 기술 회사, 연구 기관의 투자자, 과학 아카데미, 출판사, NGO, 법률 및 개인 정보 보호 전문가가 포함되어야 합니다.
설레기도 하고 걱정스럽기도 한데, 이것이 아마도 ChatGPT에 대해 느끼는 연구자의 수일 것입니다.
지금까지 ChatGPT는 많은 학자들의 디지털 보조자가 되었습니다.
컴퓨터 생물학자인 Casey Greene과 다른 사람들은 ChatGPT를 사용하여 논문을 수정했습니다. AI는 5분 안에 원고를 검토하고 참고문헌 부분의 문제점까지 찾아낼 수 있습니다.
아이슬란드 학자인 Hafsteinn Einarsson은 거의 매일 ChatGPT를 사용하여 PPT를 만들고 학생들의 숙제를 확인합니다.
또한 신경생물학자인 Almira Osmanovic Thunström은 대규모 언어 모델을 사용하여 학자들이 보조금 신청서를 작성하는 데 도움을 주고 과학자들은 더 많은 시간을 절약할 수 있다고 믿습니다.
그러나 Nature는 ChatGPT의 결과를 다음과 같이 훌륭하게 요약했습니다.
부드럽지만 부정확합니다.
ChatGPT의 주요 단점은 생성되는 콘텐츠가 사실이거나 정확하지 않을 수 있으며 이는 학계에서의 사용에 영향을 미칠 수 있다는 점을 알아야 합니다.
해결될 수 있나요?
이제부터 답변이 좀 헷갈리네요.
OpenAI의 경쟁사인 Anthroic은 ChatGPT의 일부 문제를 해결했다고 주장하지만 Nature와의 인터뷰를 수락하지 않았습니다.
Meta는 4,800만 개의 학술 논문과 작품으로 만들어진 Galactica라는 대규모 언어 모델을 출시했습니다. 이 모델은 학문적 콘텐츠를 생성하고 연구 문제를 더 잘 이해한다고 주장합니다. 그러나 사용자가 사용 중에 인종차별적이라고 판단했기 때문에 데모는 더 이상 공개되지 않습니다(코드는 계속 사용 가능).
"예의바른 행동"을 훈련받은 ChatGPT조차도 의도적으로 위험한 발언을 출력하도록 유도할 수도 있습니다.
ChatGPT를 더욱 자비롭게 만드는 OpenAI의 방법도 매우 간단하고 투박합니다. 말뭉치에 주석을 달기 위해 많은 수작업을 찾는 것입니다. 어떤 사람들은 이런 종류의 유독한 말뭉치를 읽기 위해 사람을 고용하는 것도 일종의 착취라고 생각합니다.
그러나 어쨌든 ChatGPT와 생성 AI는 인간 상상력의 새로운 문을 열었습니다.
의학학자 에릭 토폴(Eric Topol)은 미래에는 학술 문헌의 텍스트와 이미지를 교차 확인하여 인간이 암을 진단하고 질병을 이해하는 데 도움을 줄 수 있는 LLM을 포함한 인공 지능이 있기를 희망한다고 말했습니다. 물론 이 모든 것은 전문가의 감독을 받아야 한다.
2023년 초에 이런 추세가 나타날 거라고는 정말 예상하지 못했다고 하더군요.
그리고 이것은 시작에 불과합니다.
참조 링크:
[1]//m.sbmmt.com/link/492284833481ed2fd377c50abdedf9f1
[2]//m.sbmmt.com/link/ 04f19115dfa286fb61ab634a2717ed37
위 내용은 ChatGPT는 Nature에게 일주일에 두 편의 기사를 게시하여 논의하도록 요청했습니다. 학계에서 사용이 불가피하며 사용 사양을 명확히 할 때입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!