실시간뉴스
HOME IT/과학
“AI 빠른 발전, 테러·빈곤·전염병보다 시급한 문제”英 차기 과학협회장 “AI 발전, 통제되지 않아…정부·산업계·학계 공동 노력 기울여야”
영국과학협회를 이끌 차기회장이 AI의 빠른 발전이 테러, 빈곤, 전염병 위협보다 더 크다고 경고했다. [Created by Rawpixel - Freepik]

[공감신문] 인공지능(AI‧Artificial Intelligence)은 컴퓨터에서 인간과 같이 사고하고, 학습하고, 판단하는 논리적인 방식을 사용하는 인간지능을 본 딴 프로그램을 말한다. 과학기술이 발달하면서 이 AI를 활용하는 영역이 점차 넓어지고 있다.

이 가운데 영국과학협회(BSA)를 이끌 차기회장이자 서리대학 물리학과 교수인 짐 알-칼릴리는 AI의 발전이 너무 빨리 이뤄지고 있어 충분히 통제되고 있지 않다고 경고했다.

그는 11일 BSA 연례모임인 영국과학축제(BSF)를 앞두고 가진 브리핑에서 AI의 위협에 대해서 설명했다.

이번 BSF에서 회장으로 취임한 짐 알-칼릴리 서리대학 물리학 교수

알-칼릴리 교수는 “2년 전만 해도 ‘미래에 관해 논의해야 할 가장 시급하고 중요한 사안이 무엇이냐’는 질문을 받으면 기후변화, 인류가 당면한 도전인 테러나 항생제 내성, 세계적 빈곤, 전염병 중 하나를 말했을 것이다. 하지만 현재는 ‘AI의 미래’라고 확신하며 좋건 나쁘건 간에 이는 모든 다른 이슈를 덮게 될 것”이라고 확신했다.

그러면서 지난 2016년 미국 대통령 선거에서 러시아 해커들이 개입했다는 것이 사실이라면, 이들이 전력공급망이나 운송 시스템 그리고 군사시설 등을 관리하는 AI를 해킹한다면 무엇으로 막을 것이냐고 지적했다.

그는 AI가 도입된다면 숙련된 기술이 필요 없는 일자리를 중심으로 실직을 가져오고 경제적 불평등을 심화할 것이라는 우려도 터무니없는 것은 아니라고 주장했다.

아울러 AI가 견제 없이 급속도로 발전해 가는 것에 대해 많은 사람들이 점점 더 불편해하고 있다면서 정부, 산업계, 학계가 공동 노력을 기울이지 않으면 ‘통제되고 규제받지 않는 소수의 초강력 기업’ 수중에 들어가게 될지도 모른다고 우려했다.

IT·과학업계 내부에서는 'AI 종말론'이 커지고 있는 추세다. [Created by Xb100 - Freepik]

지난 3월 타계한 세계적 물리학자 고(故) 스티븐 호킹 박사 역시 AI가 인류를 멸종으로 몰고 가게 될 것이라고 심각한 경고를 내놓기도 했다.

그는 “AI 기술이 인류 문명사에서 최악의 사건이 될 수 있다. 자율적으로 작동하는 AI 무기의 위험성은 물론이거니와 우리 경제도 파괴할 수 있다. AI가 선(善)을 위해 일하고 인류와 조화를 이룰 수 있다는 낙관론을 믿고 있지만, 인류는 AI의 위험성을 반드시 인지해야 한다”라고 설명했다.

이어 “완전한 AI 개발은 인류의 종말을 가져올 수 있다. AI가 인간을 완전히 대체할지도 모른다”라고 강조했다.

전기차 회사 테슬라의 일론 머스크 CEO 역시 “북핵보다 AI 경쟁으로 3차 대전이 일어날 가능성이 더 크다”라며 거듭 주장했다.

반면 마이크로소프트(MS) 창업주인 빌 게이츠는 ‘AI 낙관론’을 펴기도 했다.

지난 2월 강연에서 그는 “AI는 그저 적은 노동력으로 더 많은 생산과 서비스를 가능하게 한 최신 기술일 뿐이다. 수백 년간 그런 신기술들이 우리에게 발전을 가져다줬다. 농업 신기술처럼 AI 역시 인류에게 도움을 줄 것이다”라고 말했다.

    전다운 기자 | jdw@gokorea.kr

    공감, 그 이상의 가치를 독자와 공유하겠습니다.

<저작권자 © 공감신문, 무단 전재 및 재배포 금지>

icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
차·테크·게임 | 교양공감
여백
시사공감
여백
여백
여백
Back to Top