AI의 3대 위험은?…"허위정보·일자리 축소·통제 불능"
허위정보 문제는 이미 당면한 위험이며
일자리 80% 업무의 10% 이상 대체 가능
프로그램 능력 통제불능…인류 위협할 수도
지난 3월 말 1000 명 이상의 기술자, 연구자, 유명인들이 인공지능 기술이 '사회와 인류에 심각한 위협'을 제기한다고 경고하는 서한에 서명했다.
![[서울=뉴시스]챗GPT를 발표해 선풍을 일으킨 미국의 인공지능 개발회사 오픈AI가 4개월 만에 새로 내놓은 GPT-4를 발표한 홈페이지. 2023.3.15.](https://img1.newsis.com/2023/03/15/NISI20230315_0001217337_web.jpg?rnd=20230315110313)
[서울=뉴시스]챗GPT를 발표해 선풍을 일으킨 미국의 인공지능 개발회사 오픈AI가 4개월 만에 새로 내놓은 GPT-4를 발표한 홈페이지. 2023.3.15.
일론 머스크 테슬라 회장 등 서명자들은 인공지능연구소들이 6개월 동안 개발을 중단하고 인공지능 기술의 위험을 평가할 것을 촉구했다.
이후 2만7000여명이 동조 서명하기까지 얼마 걸리지 않았다. 최근 AI 개발에 뛰어든 머스크처럼 양다리를 걸친 사람들도 서명한 이 서한은 GPT-4로 대표되는 인공지능이 사회에 미칠 위험을 경고하고 있다. 이미 발생하는 위험도 있고 앞으로 다가올 위험들도 있다.
우려하는 이유
LLM은 문장의 패턴을 파악해 자체적으로 문장을 만들어낸다. 대화도 이끌 수 있다. 컴퓨터 프로그램, 작가 등 여러 분야의 업무에 도움이 되지만 바람직하지 않은 예상치 못한 행동도 할 것이라는 우려가 있다.
믿을 수 없고 편파적인 등 여러 가지로 해로운 정보를 만들어낼 수 있는 것이다. GPT-4와 같은 시스템은 잘못된 정보를 습득하고 엉터리 정보를 만들어내는 등 “할루시네이션(hollucination; 환각)” 현상을 보인다.
벤지오 교수 등 전문가들은 인공지능이 강력해질수록 위험도 커질 것으로 예상한다.
단기 위험: 허위 정보
전문가들은 또 인공지능을 악용해 허위 정보를 퍼트리는 사람도 있을 것으로 우려한다. 사람처럼 대화하는 능력이 있고 설득력이 뛰어나기 때문이다.
중기 위험: 실업 문제
당장 변호사, 회계사, 의사까지는 아니더라도 법률 보조원이나 개인 비서, 번역가의 업무를 대신할 수 있다.
오픈AI사의 보고서에 따르면 미국 노동자 업무의 80%가 업무의 최소 10%를 인공지능으로 대체할 수 있고 19%는 업무의 50%를 대체할 수 있다.
▲장기 위험: 통제 불가능
인공지능이 엄한 길로 빠지면서 인류를 파괴할 수 있다고 우려하는 사람들도 있다. 그러나 전문가들은 대부분 지나친 우려로 치부한다.
서한 작성자들은 생명의 미래 인구소 등 인류에 대한 위협을 탐구하는 단체 구성원들이다. 이들은 인공지능이 엄청난 자료를 가지고 학습하면서 예상하기 어려운 심각한 위험을 제기할 수 있을 것으로 본다.
인공지능이 자체적으로 컴퓨터 프로그램을 작성할 수 있는 탓에 예상치 못한 힘을 가질 수 있게 된다는 우려가 있다.
캘리포니아 산타크루즈대 이론 우주물리학자 겸 생명의 미래 연구소 설립자는 “3년 전과 비교할 때 상황이 매우 우려스럽다”고 말했다.
그는 “가능성이 낮은 시나리오지만 무정부 상태가 벌어져 인공지능이 더욱 막강한 힘을 발휘할 수 있게 되면 정말로 위험해질 것”이라고 강조했다.
앨런 인공지능 연구소 설립자 오렌 에치오니 박사는 위험이 가설이 아닌 실제 상황이라면서 대표적으로 허위 정보 문제를 꼽고 규제 법제화가 필요하다고 밝혔다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지





























