Large AI1 대규모 언어 모델(LLM)의 문제들 - Hallucinations Large AI 에 대한 균형 잡힌 시각이 필요한 시점이다. LLM 모델의 문제를 논의할때 많은 사람들이 혼란을 겪을 수 있기대문에 합리적인 대화를 위해 특정 주제로 접근할수 밖에 없다. 그래서 가장 많이 논제로 등장하는 것이 "Hallucinations" 이고, 이에 대해 다양한 내용들을 살펴볼 필요가 있다. "대규모 언어 모델(LLM)은 2018년 Google AI 연구원 이 대중화한 개념인 Hallucinations 을 나타냅니다 . 이 맥락에서 Hallucinations 은 의미론적으로 또는 구문론적으로 타당하지만 실제로는 부정확하거나 무의미한 생성된 텍스트의 실수를 말합니다. 요컨대, 기계가 말하는 것을 신뢰할 수 없습니다." "언어는 우리 모두가 상식이라고 부르는 엄청난 양의 배경 지식 위에 .. 2023. 5. 30. 이전 1 다음