20일(현지시간) 메타(Meta, 구 페이스북)가 인공지능 개발에 관한 접근 방식의 전략적 변화를 반영하여 리스폰서블(Responsible, 책임있는) AI 팀 재구성에 나섰다.
더 인포메이션이 최초 보도한 이러한 메타의 움직임은 사회에서 AI의 역할이 점점 더 면밀히 조사되고 있는 환경에서 보다 다각화된 접근 방식을 취하는 것을 목표로 한다. 현재 메타는 책임있는 AI 팀 구성원을 회사 내 별도 부서로 통합하여 AI 안전 고려사항을 핵심 제품 및 기술 개발에 직접적으로 포함시키고 있다.
현재 생성(generative) AI의 영향은 개인정보 보호 문제부터 잠재적 AI 오용에 이르기까지 전 세계적으로 경각심을 불러일으킨 상태다. 다만, 메타는 책임있는 AI 팀을 해산시키기로 한 결정이 회사가 AI 개발을 포기한다는 의미는 아니라고 강조한다.
이와 관련해 메타의 전 연구원인 데이비드 이반 해리스는 주택 식별, 인종차별주의자 협회, 성별에 따른 채용 목록 제외 등 AI 기술의 ‘오용 가능성’에 대한 경고를 제기했다.
또한 메타는 단순히 개발 및 배포 과정에서 인공 지능 벤처의 안전을 규제하는 데 전념하는 RAI(Responsible AI) 부서를 해체한 것일 뿐이며, 많은 RAI 팀원이 회사의 Generative AI 제품 부서 내 역할로 전환 및 일부는 AI 인프라 팀에 합류한 상태다.
지난 2월에 설립된 메타의 Generative AI 팀은 인간이 만든 버전을 모방하기 위한 언어와 이미지 생성 제품 개발에 중점을 두고 있다.
한편, 이러한 구조 조정은 메타의 마크 주커버그 CEO가 명명한 “효율성의 해” 일환으로 운영을 보다 간소화 하고자 하는 메타의 현 이니셔티브와도 일치한다.
또 이러한 움직임은 메타가 집중적으로 투자해 온 기술 분야에서 생성 AI 도구의 중요성이 점차 더 커지는 것에 대한 대응으로 간주될 것이다.
메타는 최근 광고주를 위한 생성 AI 도구를 출시했으며, 오픈소스 대형 언어 모델 Llama 2, 텍스트-비디오 생성기, 인페인트 도구 및 새로운 AI 어시스턴트의 개발과 같은 성과 외에도, 내년에 출시될 Llama 3 출시에 대한 기대감도 큰 상황이다.