챗봇에 사용되는 것과 같은 대규모 언어 모델(LLM)은 환각을 일으키는 놀라운 경향이 있습니다. 즉, 정확하다고 주장하는 허위 콘텐츠를 생성하는 것입니다. 옥스퍼드 인터넷 연구소(Oxford Internet Institute)의 연구원들은 다른 위험 중에서도 이러한 AI 환각이 과학과 과학적 진실에 직접적인 위협을 가한다고 경고합니다. Nature Human Behavior에 게재된 논문에 따르면 “LL.M.은 유용하고 설득력 있는 답변을 제공하는 것을 목표로 하지만 그 정확성이나 사실과의 일관성에 대한 최우선적인 보장은 없습니다.”라고 합니다. 지식의 원천을 찾고 질문이나 프롬프트를 기반으로 정보를 생성합니다. 하지만 그들의 데이터는…
이 이야기는 다음 네트워크에서 계속됩니다
정보 출처: THENEXTWEB에서 0x 정보로 정리.저작권은 원작자에게 있으며, 무단전재를 금합니다.