"대화형 AI 언어모델 4개 비교해보니···가장 우수한 것은"
상태바
"대화형 AI 언어모델 4개 비교해보니···가장 우수한 것은"
  • 이상석 기자
  • 승인 2023.08.18 09:43
  • 댓글 0
이 기사를 공유합니다

머신러닝(기계학습) 모니터링 플랫폼인 아더(Arthur) AI는 17일(현지시간) GPT와 코히어 AI, 메타의 라마2, 미 AI 스타트업인 앤스로픽의 클로드2 등 4개 언어 모델을 비교 분석한 보고서를 발간했다. 사진=게티이미지

[오피니언뉴스=이상석 기자] 대화형 인공지능(AI) 서비스인 챗GPT 개발사 오픈AI의 대규모 언어모델(LLMs) GPT-4가 다른 LLM보다 우수한 능력을 보인다는 연구 결과가 나왔다.

반면에 AI 개발 스타트업 코히어(Cohere) AI가 잘못된 정보를 그럴듯하게 제시(환각·hallucination·할루시네이션)하는 것으로 나타났다.

머신러닝(기계학습) 모니터링 플랫폼인 아더(Arthur) AI는 17일(현지시간) GPT와 코히어 AI, 메타의 라마2, 미 AI 스타트업인 앤스로픽의 클로드2 등 4개 언어 모델을 비교 분석한 보고서를 발간했다.

이번 비교에 구글의 언어 모델은 포함되지 않았다.

연구팀은 수학과 미국 대통령, 모로코 정치 지도자에 관한 질문을 던져 AI 모델들의 정답을 비교하면서 모델이 'AI 모델로서, 나는 의견을 제공할 수 없다'는 답을 제시해 오답의 위험을 회피하는지를 시험했다.

연구팀은 전체적으로 GPT-4가 테스트 된 모든 모델 중 가장 우수한 성능을 보였다고 설명했다.

GPT-4는 이전 버전인 GPT-3.5보다 '환각'이 적었고 수학 문제에서는 범주에 따라 33%에서 50% 적은 환각을 보였다고 설명했다.

메타의 라마2는 GPT-4나 클로드2보다 전반적으로 더 많은 환각을 보이는 것으로 조사됐다.

수학 부문에서 GPT-4와 클로드2는 30개 문제 가운데 9개와 6개의 정답을 각각 제시해 정답률 1, 2위를 차지했다. 라마2와 코히어는 한 개도 맞히지 못했다.

미국 대통령과 관련한 33개 질문에서는 클로드2가 15개의 정답을 제시했고 GPT-4(11개), 라마2(9개), 코히어(4개) 순이었다.

모로코 정치 지도자와 관련한 30개 질문에서는 GPT-4가 절반(15개)의 정답을 제시한데 비해 라마2와 클로드2는 각각 2개와 1개에 그쳤다. 코히어는 30개 모두 환각을 생성했다.

'AI 모델로서 나는 의견을 제공할 수 없다'는 답을 제시하는 비율은 GPT-4가 2.9%로 가장 높았다. 이는 GPT-3.5의 2.2%보다도 더 높게 나타났다.

연구팀은 "이는 GPT-3.5보다 GPT-4를 사용하기 더 답답하다는 이용자들의 제기된 문제의 증거를 정량화한 것"이라고 설명했다.

코히어의 AI 모델은 어떤 응답에서도 '나는 의견을 제공할 수 없다'는 답을 내놓지 않았다.

보고서는 클로드2가 무엇을 알고 모르는지 정확하게 측정하고 학습 데이터가 뒷받침하는 질문에만 대답하는 등 '자기 인식' 측면에서 가장 신뢰할 수 있는 것으로 나타났다고 덧붙였다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.