7일 암호화폐 전문매체 코인텔레그래프에 따르면, 오픈AI가 10년 안에 구현될 것으로 예상되는 ‘초지능 AI 시스템’에서 발생할 수 있는 위험을 전담할 팀을 만들 계획이라고 밝혔다.

인기있는 인공 지능(AI) 챗봇 GPT의 제작사인 오픈AI가 초지능 AI 시스템의 위험을 통제하고 관리하기 위한 팀을 구성할 것이라고 발표해 눈길을 끈다.
5일(현지시간) 오픈AI는 자사 블로그 발표에서 “현재의 팀 보다 훨씬 더 똑똑하게 AI 시스템을 조종하고 제어하기 위한” 새로운 팀이 만들어질 것이라고 전했다.
비영리 기업인 오픈AI는 ‘초지능’이 “인류가 발명한 가장 영향력 있는 기술”이 될 것이며, “위험이 있지만 많은 문제를 해결하는 데 도움이 될 것”이라 믿는다.
다만 그러면서도 “초지능의 막대한 힘은 또한 매우 위험할 수 있으며, 인류의 무력화 또는 심지어 인류의 멸종으로 이어질 수도 있다”고 지적했다.
오픈AI는 초지능이 향후 10년 안에 도래할 수 있을 것으로 본다는 전망을 내놓기도 했다.
한편, 오픈AI는 이미 확보한 컴퓨팅 파워의 20%를 투입해 ‘인간 수준’의 자동화 얼라인먼트(alignment) 연구원을 만드는 것을 목표로 하고 있다.
이론적으로 이 자동화된 연구원은 팀이 초지능 안전을 관리하고 시스템 수준을 ‘인간의 의도’에 맞추는 데 도움을 줄 것이다.
이를 위해 오픈AI는 수석 과학자인 일리야 수츠케버와 연구소의 얼라인먼트 책임자인 얀 레이케를 공동 리더로 지명했으며, 머신 러닝 연구원과 엔지니어를 공개 모집하여 팀에 합류시킨 것으로 알려졌다.