과학·경영인 350여명, AI 위험성 경고···‘핵무기·전염병에 비유’
상태바
과학·경영인 350여명, AI 위험성 경고···‘핵무기·전염병에 비유’
  • 이상석 기자
  • 승인 2023.05.31 08:40
  • 댓글 0
이 기사를 공유합니다

"AI로 인한 인류 절멸 위험성 낮추기 시급한 글로벌 과제"
비영리단체 'AI안전센터'(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다. 사진=셔터스톡
비영리단체 'AI안전센터'(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다. 사진=셔터스톡

[오피니언뉴스=이상석 기자] 정보기술(IT)기업 경영인과 과학자 350여명이 급속도로 발전하는 인공지능(AI)의 위험성에 대해 경고의 목소리를 냈다.

비영리단체 'AI안전센터'(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다고 월스트리트저널(WSJ)이 30일(현지시간) 보도했다.

CAIS는 성명에서 "AI로 인한 인류 절멸의 위험성을 낮추는 것은 글로벌 차원에서 우선순위로 삼아야 한다"고 촉구했다. 그러면서 AI의 위험성을 핵무기와 신종 전염병에 비견했다.

성명은 대중도 AI 기술이 지닌 위험성을 인식해왔지만, 훨씬 다양한 분야에 대한 해결책이 논의돼야 한다고 강조하면서 공개적인 토론 필요성을 강조했다.

이 성명에는 대화형 AI 챗GPT의 창시자 샘 올트먼 오픈AI 최고경영자(CEO)와 미라 무라티 최고기술분야대표(CTO)가 서명했다.

또한 케빈 스콧 마이크로소프트(MS) CTO와 구글의 AI 분야 책임자인 릴라 이브라힘, 메리언 로저스도 이름을 올렸다.

이와 함께 유엔에서 군축 분야를 담당했던 앤젤라 케인도 서명하는 등 각 분야 전문가도 동참했다.

CAIS는 서명에 동참할 전문가들을 추가로 모집중이다.

앞서 올트먼 오픈AI CEO의 경우 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA) 같은 국제기구가 필요하다는 방안을 제시했다.

최근 챗GTP가 AI에 대한 대중의 관심을 촉발한 이후 AI의 위험성에 대한 우려도 확산하고 있다.

이달 초에는 백악관이 오픈AI를 비롯해 구글 등 핵심 기업을 초청해 카멀라 해리스 부통령 주관으로 대책 회의를 개최했다. 

이어 열린 상하원 청문회에서는 AI의 위험을 완화하기 위해 정부 차원의 규제와 개입, 국제 표준 마련이 필요하다는 주장이 제기됐다.
 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.