본문 바로가기
1. SW 개발 & IT 트렌드

대규모 언어 모델(LLM)의 문제들 - Hallucinations

by soosun 2023. 5. 30.

Large AI 에 대한 균형 잡힌 시각이 필요한 시점이다.

LLM 모델의 문제를 논의할때 많은 사람들이 혼란을 겪을 수 있기대문에

합리적인 대화를 위해 특정 주제로 접근할수 밖에 없다.

그래서 가장 많이 논제로 등장하는 것이 "Hallucinations" 이고, 이에 대해 다양한 내용들을 살펴볼 필요가 있다. 

 

"대규모 언어 모델(LLM)은 2018년 Google AI 연구원 이 대중화한 개념인 Hallucinations 을 나타냅니다 . 이 맥락에서 Hallucinations 은 의미론적으로 또는 구문론적으로 타당하지만 실제로는 부정확하거나 무의미한 생성된 텍스트의 실수를 말합니다. 요컨대, 기계가 말하는 것을 신뢰할 수 없습니다."
"언어는 우리 모두가 상식이라고 부르는 엄청난 양의 배경 지식 위에 구축됩니다."라고 LeCun은 말했습니다. 그는 컴퓨터가 이러한 종류의 비언어적 지식을 습득하려면 관찰을 통해 학습해야 한다고 믿습니다. - 출처: https://spectrum.ieee.org/ai-hallucination -

 

 

[기사] Hallucinations Could Blunt ChatGPT’s Success OpenAI says the problem’s solvable, Yann LeCun says we’ll see

https://spectrum.ieee.org/ai-hallucination

 

ChatGPT's Hallucinations Could Keep It from Succeeding

OpenAI says the problem’s solvable, Yann LeCun says we’ll see

spectrum.ieee.org

 

[기사] 글로벌 칼럼ㅣ대규모 언어 모델(LLM)은 ‘척척박사’가 아니다

https://www.itworld.co.kr/news/291961

 

글로벌 칼럼ㅣ대규모 언어 모델(LLM)은 ‘척척박사’가 아니다

매우 유창하고 자신감 있게 텍스트를 생성하는 GPT-4 같은 ‘대규모 언어 모델(LLM)’의 부상은 분명 놀라운 일이다. 하지만 과대포장 역시

www.itworld.co.kr

댓글