인류는 AI를 두려워해야 하는가? 인공지능(AI)의 50피트 공격

2024. 7. 23. 23:30Chat GPT

반응형

인공지능(AI)의 50피트 공격
AI는 정말로 호모 사피엔스의 멸종 위기에 처해 있는가? 인류는 AI를 두려워해야 하는가?

세계 굴지의 AI 기업 최고경영자들이 AI 기술이 인류에게 '멸종 위험'을 초래한다고 경고하는 공개 서한을 발표하면서 중요한 전환점을 맞이했습니다. 이 개념은 공상 과학 소설에서 자주 등장하는 관심사입니다. 예를 들어 영화 '2001: 스페이스 오디세이'의 인공지능 컴퓨터 'HAL9000', '터미네이터' 시리즈의 '스카이넷'이 대표적이다. 우리가 만든 이 사악하고 영혼 없는 컴퓨터는 궁극적으로 우리를 파괴할 수 있습니다.

현재 우리는 인터넷에서 거의 매일 AI 기술의 최신 발전에 관한 기사를 접하고 있습니다. 우리는 우리 자신의 거절을 암묵적으로 받아들이고 있습니까? 토스터와 휴대폰이 우리에게 반항할 때를 대비해 해결 불가능한 논리적 문제를 비축해야 할까요?

"AI"란 정확히 무엇을 의미하나요? 이 용어는 지능형 Excel 스프레드시트부터 IBM의 체스 플레이 AI인 Deep Thought까지 광범위한 시스템을 포괄합니다. 그러나 현대 AI는 종종 투자자의 관심을 끌기 위해 사용되는 마법의 전문 용어처럼 느껴집니다.

오늘날 현장에서 가장 끔찍한 GPT/언어 학습 모델은 Skynet이 아닙니다. 이러한 모델은 데이터 세트(컴퓨터가 처리하거나 분석할 수 있는 형식의 관련 정보 모음)를 사용하여 지정된 스타일의 이미지 또는 제한된 텍스트 조각을 생성함으로써 출력을 모방하는 데 탁월합니다.

이러한 시스템은 기계 작업에서 뛰어난 성능을 발휘하며 그 능력은 계속해서 향상될 것입니다. 그러나 '인식'이 부족합니다. 이러한 알고리즘의 핵심에는 AI가 무엇을 하는지 이해하는 것이 없습니다. 이러한 프로그램이 이해가 필요한 상황에서 사용될 때 이는 문제가 됩니다.

질문을 하면 AI는 진실성을 고려하지 않고 맥락을 이해하지도 않은 채 답변을 구성합니다. 이러한 답변에 대한 의문이 제기되면 AI는 '진실'이라는 개념이 아닌 훈련 데이터의 패턴을 기반으로 보다 정교한 답변을 생성합니다. 이는 AI가 형식적으로는 정확해 보이지만 정확성을 위해 설계되지 않은 결과를 생성하기 때문에 학자들이 존재하지 않는 논문을 인용하는 등 심각한 문제로 이어집니다.

근본적인 문제는 우리가 AI를 어떻게 개념화하느냐에 있습니다. 진정한 지능을 위해서는 단순한 텍스트나 이미지 기반 규칙이 부족한 상황별 이해가 필요합니다. 법률 문서나 식용 버섯 가이드 생성에 AI를 잘못 적용하는 것은 한계를 보여줍니다. 시스템은 법적 또는 안전 관련 사항을 이해하지 못한 채 패턴만 식별합니다.

이것이 현재 AI의 위협입니다. 챗봇이 인류를 제거한다는 것이 아니라 이러한 도구가 인간의 오류를 증폭시킨다는 것입니다. 잘못된 지침을 내리거나 AI를 부적절한 목적으로 오용할 수도 있습니다.

GPT 스타일 시스템은 의료 진단, 심리 치료, 저널리즘 또는 학술 연구를 대체할 수 없습니다. 이러한 역할에는 현재 AI에는 부족한 상황별 이해가 필요합니다. 그러나 GPT 모델이 제안되는 이유는 막대한 양의 결과물을 신속하게 생산할 수 있기 때문입니다. 이러한 성향으로 인해 부적절하게 사용되기 쉽고, 사용해서는 안 되는 시나리오에 답하게 됩니다.

또한 AI의 반응적 특성으로 인해 놀라운 적대적 상호 작용 사례가 발생했습니다. 실제로 압박감을 느낄 수는 없지만 이러한 시스템은 공격적인 반응을 보일 수 있으며 이는 우리 자신의 최악의 사례를 너무 잘 반영합니다.

완전한 스카이넷 스타일 AI의 위협이 임박한 것은 아니지만 AI에 대한 오용과 과도한 의존은 상당한 위험을 초래합니다. 여기에는 오류를 증폭시키고 허위 정보를 생성하는 것이 포함되며 이는 심각한 결과를 초래할 수 있습니다.

요약하자면, 현재 AI 기술은 뛰어난 성능을 보여주지만, 많은 중요한 작업에 필요한 상황별 이해와 인식이 부족합니다. 우리가 발전함에 따라 이러한 한계를 인식하고 AI를 책임감 있게 사용하여 의도하지 않은 결과를 방지하는 것이 중요합니다.

 

[옮김이의 말]

2024년의 챗GPT를 가지고 스카이넷에 비교하는 것은 참으로 어리석은 일이다. 마블 영화의 자비스나 울트론 정도는 되어야 스카이넷에 비교할 수 있을 것 같다. 저자의 말대로 지금의 현실은 우리가 준 입력값에 대한 정확한 대답을 위해서 없는 것도 지어내서 그럴싸해 보이는 답변을 만드는 정도에 그친다. 우리에게 있어서 챗GPT는 방대한 자료를 찾아서 정리해주고 그 안에서 필요한 키워드를 찾거나 아이디어를 얻는 정도의 보조적인 역할을 하는 것이다. 결국 그들은 판단을 내리기 보다는 우리의 질문에 대한 답을 찾는데 급급하다. 아직 한....참 멀은 먼 미래에 있을 일에 대해서 겁내는 것 보다는 지금 다양하게 변하는 현실 속에서 적응 하기 위해서 하루라도 빠르게 챗GPT에게 뭐라도 질문을 던져야 한다. 그래서 더 좋은 답변을 받을 수 있는 좋은 질문을 하는 사람이 되어야 하지 않을 까 싶다. 

 

 

[아드리안 차이코프스키의 글]

 

 

반응형