|
제2차 세계 대전 암호 해독자들은 영국 시골의 한 장원에서 나치의 에니그마 (Enigma) 암호기를 해독했는데, 오늘날 세계 각국 지도자들은 이곳에서 그들이 심각하게 위협이 된다고 생각하는 기술로 인한 위험을 낮추기 위해 함께 노력하겠다고 약속했다.
지도자들은 최첨단 인공지능 (AI) 이 사이버 안보와 바이오 테크놀로지 등 분야에서 재앙적인 위험을 초래할 수 있으며 심지어 인간의 통제에서 벗어날 수도 있다고 말한다.
미셸 도넬란 (Michelle Donelan) 영국 과학, 혁신 및 기술부 장관은 이 장원에서 일했던 암호 해독자의 말을 인용해"때로는 공상 과학 소설을 진지하게 대할 가치가 있다"고 말했다.
이틀간의 이번 정상회의는 수요일 런던 교외 약 40마일 떨어진 곳에서 막을 올렸다. 정상회의 개막식에서 발표한 성명에서 미국, 중국, 기타 20여개 국가는 협력을 강화하여 미래의 AI 시스템 (모델이라고 함.) 에 따른 위험을 공동으로 평가하고 이런 시스템의 배치를 관리하기 위한 법률틀을 제정하는것을 고려하겠다고 약속했다.이 시스템들은 현재의 AI 시스템보다 더 강력하다.
공동성명은 "이들 AI 모델의 가장 중요한 능력은 의도적이든 의도하지 않든 심각하고 심지어 재앙적인 피해를 초래할 가능성이 있다"고 밝혔다. 성명에 언급된 이유는 강력한 AI 시스템이 불량분자에 의해 남용될 가능성이 있거나 인간이 완전히 이해하지 못하고 예측하기 어려워 AI 시스템에 대한 통제력을 잃을 가능성이 크기 때문이다.
이 약속은 국제사회가 처음으로 AI 위험에 대해 중요한 성명을 내고 강력한 새로운 AI 모델이 인류에게 생존 위험을 초래할 수 있다는 경고에 대응한 것이다.
이러한 경고를 얼마나 중시해야 하는지, 그리고 이러한 경고에 어떻게 대응해야 하는지에 대한 토론은 이번 회의의 주요 의제이며, 참석자들은 카말라 해리스 (Kamala Harris) 부통령이 이끄는 미국 대표단과 머스크 (Elon Musk) 와 OpenAI CEO 샘 알트먼을 포함한 선도적인 AI 기업의 임원들을 포함한다.
이 두 과학기술 임원은 모두 그들이 말하는 AI의 잠재적 파괴 능력에 대해 경고한 적이 있다;그들이 이끄는 회사는 각자의 AI를 만들기 위해 노력하고 있다.
메타 플랫폼스 정책 집행관인 닉 클레그 (Nick Clegg) 전 영국 부총리를 비롯한 다른 사람들은 화요일 공개석상에서 이런 추측의 위험이 AI가 만든 허위 동영상으로부터 선거를 보호하는 등 당면 문제에 대한 관심을 분산시켰다고 밝혔다.
클레그는 "먼 미래에 대한 걱정을 너무 많이 하면 눈앞의 위험에 대한 관심이 줄어들 것"이라고 말했다.
수요일부터 이틀간 열린 영국 AI 안보 정상회의에서 세계 각국 지도자들은 인공지능의 위험을 낮추기 위해 함께 노력하겠다고 약속했다.
미국은 수요일 상무부 소속으로 AI 안전센터를 설립하겠다고 밝혔으며 영국 동료들과 협력해 AI 시스템 능력을 측정하는 기본 기준을 마련하고 바이든 행정부의 새로운 행정명령에 따라 AI 회사가 보고한 데이터를 수집하겠다고 약속했다.
영국은 내년 한국과 프랑스에서 AI 안보 정상회의를 개최하기 위한 장기 계획도 발표했다.
서방 관리들과 업계 임원들은 AI가 세계 초강대국 간 군비 경쟁의 일부가 될 수 있다는 우려 때문에 중국이 이번 정상회의에 참여하는 것은 주목할 만한 일이라고 보고 있다.
리시 수낙 (Rishi Sunak) 영국 총리는 지난주 연설에서 "적어도 전 세계 모든 선도적인 AI 강대국을 참여시키려 시도하지 않으면 심각한 AI 전략이 나올 수 없다"고 말했다.
우차오후이 중국과학기술부 부부장은 이번 정상회의 개막식에서"중국은 국제사회의 AI 테스트와 평가 시스템 구축 작업을 지지한다"고 말했다.
오랫동안 기계가 가져올 수 없는 것이 없는 AI 종말론 위협은 유행문화에서 매혹적인 의제였다.그러나 OpenAI의 ChatGPT가 출시된 이후 의사결정권자가 어떤 우선순위를 정해야 하는지에 대한 논쟁거리가 되기도 했다.ChatGPT는 이 신기술의 불가사의한 능력을 보여주었으며 거의 모든 주제의 문제에 대해 믿음직하고 서술이 류창한것 같은 답안을 줄수 있다.
해리스는 수요일 한 강연에서 전문가들은 AI 안전에 대한 정의를 확대하고 그가 말한 이미 존재하는 사회적 위해, 예를 들면 편견, 차별 또는 잘못된 정보를 전파하는 능력을 포함한 더욱 광범위한 위험에 관심을 가져야 한다고 말했다.이번 주 초 서명된 미국 행정명령은 이 중 몇 가지 문제에 대해 이번 정상회의 주최자들도 수요일에 이 문제들을 언급했다.
일부 디지털 권리와 노조 단체들도 이런 우려에 호응했다.이들 단체는 월요일에 공개서한을 발표하여 이 정상회의의 우선사항에 대해 비판을 제기했다.
"이것은 당신이 알고리즘에 의해 해고되거나 당신의 신분이나 우편번호 때문에 불공평하게 대출 분석을 받지 않느냐에 관계된다."라고 편지에 썼다."소수의 대형 기술 회사들이 더 큰 권력과 영향력을 탈취하면서 소기업과 예술가들이 시장에서 밀려나고 혁신이 말살되고 있다."
이와 함께 일부 AI 연구자들은 자신들이 생각하는 AI가 가져올 재앙적 위험을 우려하며 의사결정자들에게 최첨단 AI 시스템 개발을 통제하라고 촉구했다.
비영리 단체인 퓨처 오브 라이프 연구소 (Future of Life Institute) 는 앞서 말한 정상회의에서 회사가 시스템이 안전하고 잠재적인 생존 위험에 직면하지 않는다는 것을 증명하도록 하기 위해 구속력 있는 규칙 제정을 추진하고 있으며, 정부 규제 기관이 한 시스템에 위협이 있다는 것을 반드시 증명하지 않도록 하고 있다.미래생명연구소는 봄에 최첨단 AI 시스템 개발을 6개월 동안 중단할 것을 촉구하는 연판장을 조직했다.
그러나 매사추세츠공과대학 교수이자 미래생명연구소 소장인 맥스 테그마크는 이번 정상회의에 앞서 성명을 발표하는 것이 진보라고 생각한다고 밝혔다.
그는 AI 시스템에 진정한 위험이 있다는 것을 인정하는 공동성명조차도 중대한 진보라고 말했다. |
|