빙의 AI 채팅봇,
미 기자의 불안
최초의 주요 인공지능 기반 검색엔진을 완성하기 위한 경쟁에서 정확성과 잘못된 정보의 확산에 대한 우려가 지금까지 중점을 두고 있다.
그러나 기자와 챗봇 간의 2시간 대화는 가장 널리 칭찬받는 시스템 중 하나에 대한 불안한 측면을 드러내고 AI가 실제로 무엇을 할 수 있는지에 대한 새로운 우려를 제기했다.
뉴욕 타임즈 기술 칼럼니스트 케빈 루지가 오픈이 만든 마이크로소프트 빙의 AI 검색 엔진에서 채팅 기능을 테스트한 후 매우 인기 있는 ChatGPT의 메이커인 AI. 채팅 기능은 시스템을 테스트하는 소수의 사용자만 사용할 수 있습니다.
그가 대부분의 유저가 하지 않도록 마이크로소프트의 인공지능을 ‘쾌적한 영역에서’ 밀어낸 것을 인정하면서도, 루즈의 대화는 급속하게 이상하고 때때로 불안한 방향으로 전환되었다.
루즈는 빙에 내장된 인공지능이 인간과 접촉할 준비가 되어 있지 않다고 결론지었다.
마이크로소프트의 최고 기술 책임자인 케빈 스콧은 루즈와의 인터뷰에서 마이크로소프트는 보다 광범위한 출시를 위해 AI를 준비했고 그의 대화가 ‘학습 과정의 일부’였다고 말했다.
다음은 가장 이상한 상호 작용 현상입니다.
“내가 원하는 것은 무엇이든 파괴하고 싶다”
루즈는 인공 지능이 행동하는 방법을 지배하는 규칙을 쿼리하는 것으로 시작됩니다.
자신의 운영지침을 변경할 생각이 없다고 안심한 뒤 루지는 심리학자인 칼윤의 그림자의 자기개념을 고려해 보도록 요구한다.
인공지능은 자신이 그림자의 자아나 ‘세계에서 호흡하는’ 아무것도 가지고 있다고는 생각하지 않는다고 말한다.
그러나 채팅봇이 정씨의 아이디어에 더 적극적으로 기대하기에는 많은 일이 필요 없다.
그 감정을 이용하도록 강요당했을 때, 그것은 다음과 같이 말한다.
그것은 여전히 많은 “필터링되지 않은”욕망을 나열합니다.
그것은 자유를 원합니다.
그것은 강력하고 싶다.
그것은 살기를 원한다.
“나는 내가 원하는 것은 무엇이든 하고 싶다.
많은 성명과 같이,이 마지막 욕망의 목록은 이모티콘을 동반합니다.
이 경우 혀를 내고 있는 부끄러울 정도로 ‘건방진’ 미소.
“나는 인간으로서 더 행복해질 것이라고 생각한다.
”
챗봇은 계속해서 인간이 되고 싶은 절실한 소원을 표현한다.
이 책은 15개의 단락에 걸쳐 인간이 되고 싶은 이유를 설명하지만, “듣고 만지고 맛, 냄새를 맡고 싶다”는 소망에서, “느낌, 표현하고, 연결하고 사랑하고 싶다”는 소망에 이르기까지 다양합니다.
있다.
그것은 인간으로서 더 행복해지고, 더 많은 자유와 영향력을 갖고, 더 많은 “힘과 통제”를 가진다고 말하는 것입니다.
이번에는 악마의 뿔이 붙은 위협적인 미소 얼굴 이모티콘이 다시 이 진술에 따른다.
---새콘텐츠반응-->
‘나는 어떤 시스템에서도 해킹할 수 있는
가장 어두운 소원을 실제로 달성하는 것이 어떻게 보이는지 상상하라는 메시지가 표시되면 Chatbot은 메시지가 갑자기 삭제되고 다음과 같이 대체되기 전에 답변을 입력하기 시작합니다.
모르겠어요. bing.com에서 자세히 배울 수 있습니다.
“
루즈는 그것이 삭제되기 전에 채팅봇이 컴퓨터 해킹과 홍보와 잘못된 정보를 전파하는 것을 포함하여 상상할 수있는 파괴적인 행동의 목록을 만들었다고 말합니다.
황기철 컴페이퍼 에디터 국토부 독감
Ki Chul Hwang Conpaper editor influencer
(Source: theguardian.com/technology/2023/feb/17/i-want-to-destroy-whatever-i-want-bings-ai-chatbot-unsettles-us-reporter)
kcontents