banner
뉴스 센터
24시간 온라인 서비스로 언제든지 지원을 받으세요.

연구원들은 AI 환각을 완전히 제거할 수 있는지 말할 수 없습니다: '불일치' 사용의 '내재된' 부분

Dec 20, 2023

Clearbrief의 CEO이자 설립자인 전직 소송 변호사 Jacqueline Schafer는 AI가 법정에서 자주 사용되며 생성 AI가 생성한 인용문과 법원 문서를 사실 확인하기 위해 Clearbrief를 만들었다고 말했습니다.

일부 연구자들은 대규모 대중 수용에 상당한 장애물로 남아 있는 인공 지능(AI) 모델에서 환각을 제거할 수 없을 것이라고 점점 더 확신하고 있습니다.

양자 암호화 회사 American Binary의 CEO인 Kevin Kane은 Fox News Digital에 "현재 우리는 기계 학습이 어떻게 결론에 도달하는지에 대한 블랙박스 특성을 많이 이해하지 못합니다."라고 말했습니다. "AI의 길을 걷기 위한 현재 접근 방식에서는 우리가 어떻게 그렇게 할 것인지 명확하지 않습니다. 우리는 AI가 작동하는 방식을 많이 바꿔야 할 것입니다."

AI가 생성할 수 있는 부정확한 정보 또는 말도 안되는 텍스트를 일컫는 환각은 거의 대중에게 노출되는 동안 ChatGPT와 같은 대규모 언어 모델을 괴롭혀 왔습니다.

AI 비평가들은 다양한 플랫폼의 유용성을 의심하는 이유로 환각에 즉시 초점을 맞추며 환각이 잘못된 정보로 인해 이미 심각한 문제를 악화시킬 수 있다고 주장했습니다.

인기 있는 AI 기반 프로그램이 법정을 혼란에 빠뜨리고 있다고 전문가들은 주장합니다.

2023년 5월 4일자 삽화 (Reuters/Dado Ruvic/Illustration)

연구원들은 환각을 제거하고 이 "알려진 문제"를 개선하기 위한 노력을 신속하게 추구했지만 AI가 일부 주제에 문제가 있을 수 있다는 사실인 "사용 사례"로 인해 이 "데이터 처리 문제"는 절대 사라지지 않을 수도 있다고 수석 분석가인 크리스토퍼 알렉산더(Christopher Alexander)가 말했습니다. 개척자 개발 그룹의 임원.

알렉산더는 폭스뉴스디지털과의 인터뷰에서 "모든 문제를 결코 고칠 수 없다고 말하는 것처럼 모든 문제를 해결할 수 있다고 말하는 것은 터무니없다"고 말했다. “진실은 그 사이 어딘가에 있다고 생각하며, 경우에 따라 크게 달라질 것이라고 생각합니다.

인공 지능(AI)이란 무엇입니까?

"그리고 문제를 문서화할 수 있다면 고칠 수 없다는 게 믿기지 않네요."

언어학 교수이자 워싱턴 대학교 전산 언어학 연구소 소장인 에밀리 벤더(Emily Bender)는 AP 통신과의 인터뷰에서 환각은 "기술과 제안된 사용 사례" 사이의 "내재적인" 불일치에서 발생하기 때문에 "고칠 수 없을" 수 있다고 말했습니다.

알렉산더에 따르면, 연구자들이 AI를 다양한 사용 사례와 상황에 적용하려고 했기 때문에 이러한 불일치가 존재한다고 합니다.

ChatGPT는 인터넷에서 사용 가능한 정보의 대규모 데이터 세트를 분석하여 작동하는 대규모 언어 모델입니다. (레온 닐/게티 이미지)

특정 문제를 해결하기 위해 AI를 개발하는 동안 Alexander의 팀은 전체 모델을 구축하는 대신 작업을 수행하기 위해 용도를 변경하기 위해 기존 모델을 살펴보았습니다. 그는 자신의 팀이 프로그램이 이상적인 결과를 창출하지 못할 것이라는 것을 알고 있다고 주장했지만, 많은 그룹이 결과적으로 제한된 성과를 이해하지 못한 채 유사한 접근 방식을 취하고 있다고 의심했습니다.

"[연구원들이] 무언가의 조각을 모았는데 반드시 그렇게 하도록 만들어진 것은 아니었습니다. 이제 AI가 상황에 맞게 무엇을 하게 될까요? 아마도 완전히 수행하지는 못할 것입니다."라고 Alexander는 설명했습니다. 향후 특정 작업이나 산업에 맞게 AI를 개선하거나 맞춤형 모델을 구축하려고 할 수도 있습니다. "그래서 나는 그것이 보편적이라고 생각하지 않습니다. 나는 그것이 사례별로 다르다고 생각합니다."

CHATGPT란 무엇인가요?

케인은 연구원들이 AI의 알고리즘이 어떻게 작동하는지 완전히 이해하지 못하지만 그 중 일부는 AI가 전반적으로 작동하는 방식을 이해하는 데 결함이 있기 때문에 환각을 없애겠다는 목표를 설정하는 것은 "위험하다"고 말했습니다.

Kane은 "많은 기계 학습이 우리 이미지에 담겨 있습니다."라고 설명했습니다. "우리는 우리가 서로 대화하는 것처럼 우리에게도 이야기하기를 원합니다.

휴대폰 화면과 마이크로칩에 표시된 Nvidia 로고는 2023년 7월 19일 폴란드 크라쿠프에서 찍은 이 그림에서 볼 수 있습니다. (Jakub Porzycki/NurPhoto via Getty Images)

"우리는 일반적으로 인간이 지능을 이해하는 방식을 모방하는 시스템을 설계하려고 노력합니다. 그렇죠?" 그는 덧붙였다. “인간도 블랙박스이고, 그들도 같은 현상을 갖고 있어요. 그렇다면 문제는 우리가 인공지능을 발전시키고 싶다면 인간처럼 되고 싶다는 뜻이겠죠.