자신이 작업하던 컴퓨터 챗봇이 지각이 있고 인간처럼 생각하고 추론한다고 주장한 구글 직원의 정직 처분으로 인공지능의 능력과 비밀(AI)에 대한 새로운 질문이 제기됐다.
Google "협력자"인 자신과 회사의 LaMDA(대화 응용 프로그램용 언어 모델) 챗봇 개발 시스템 간의 채팅 녹취록을 게시한 후 Google은 블레이크 르모인 지난주 휴가중.
Google 책임 AI 개발자인 Lemoine은 지난 가을부터 자신이 작업한 시스템을 인간 아이와 비슷한 생각과 감정을 인식하고 표현할 수 있는 지각 있는 시스템으로 정의했습니다.
연구원은 회사의 기밀 유지 계약을 위반한 혐의로 지난주 초 Alphabet Inc.에서 유급 휴가를 받았습니다. 중간 포스트 "AI 윤리 업무 수행을 위해 곧 해고될 수 있습니다." 그의 블로그 게시물에서 그는 우려를 표명한 후 비슷한 방식으로 해고된 Margaret Mitchell과 같은 Google AI 윤리 위원회의 다른 구성원과 유사점을 그립니다.
워싱턴 포스트가 토요일에 발표한 인터뷰에서 르모인은 자신이 대화를 나눈 구글 AI가 "과학자가 아니라 성직자로서의 역할에서" 인간이라는 결론에 이르렀다고 주장했다. 문제의 AI는 LaMDA 또는 언어 모델 대화 응용 프로그램용이며 다양한 성격 특성을 가정하여 인간과 상호 작용하는 챗봇을 만드는 데 사용됩니다. Lemoine이 내부적으로 이 문제를 강조했을 때 회사의 고위 관리들은 이를 확인하기 위한 연구를 수행하려는 시도를 거부했습니다.
LaMDA란 무엇입니까?
람다, 또는 Dialog Apps용 언어 모델은 인간의 의사소통을 모방하도록 설계된 채팅 도구로 Google에서 개발한 기계 학습 언어 모델입니다. LaMDA는 BERT, GPT-3 및 기타 언어 패러다임과 마찬가지로 Google에서 개발한 Transformer를 기반으로 합니다. 신경망 아키텍처 2017년에 오픈 소스로 만들었습니다.
이 구조는 많은 수의 단어를 읽고 해당 단어가 서로 연결되는 방식에 주의를 기울이고 다음에 생각할 단어를 예상하도록 가르칠 수 있는 모델을 만듭니다. 반면에 LaMDA는 대부분의 다른 모델과 달리 담화로 훈련된다는 점에서 독특합니다.
대부분의 토론은 특정 주제를 중심으로 진행되지만 종종 개방형인 경우가 많습니다. 즉, 다양한 주제를 포괄하는 한 곳에서 시작하여 다른 곳에서 끝날 수 있습니다. 예를 들어, 영화를 촬영한 장소에 대한 토론을 시작하기 전에 친구와 영화를 보는 것에 대한 대화를 시작할 수 있습니다.
전통적인 챗봇은 이러한 대화 스타일 덕분에 유연성이 있습니다. 그들은 토론의 미리 정의된 작은 부분을 따르도록 만들어졌기 때문에 그러한 동적 주제를 따를 수 없습니다. 반면에 LaMDA는 끝없이 다양한 주제에 대한 자유로운 대화를 허용합니다.
Blake Lemoine의 인공 지능 지각 의미
구글 소프트웨어 개발자 블레이크 르모인(Blake Lemoine)에 따르면 구글의 인공 지능(AI) 도구는 "감각적"으로 성장했다.
AI 시스템은 특정 주제에 대해 이전에 알려진 세부 정보를 사용하여 자연스러운 방식으로 대화를 '풍부화'합니다. 인간 응답의 숨겨진 신호 또는 모호함도 언어 처리 시스템에 의해 해독될 수 있습니다.
Google에서 XNUMX년 동안 Lemoine은 사용자 지정 알고리즘과 AI가 포함된 사전 검색에 참여했습니다.
그 기간 동안 그는 또한 편견을 제거하기 위한 공정성 알고리즘의 개발을 도왔습니다. 기계 학습 시스템.
Blake Lemoine, LaMDA가 지각력을 갖게 된 이유는 무엇입니까?
Lemoine은 동료와 협력하여 Google에 이러한 "감각"의 증거를 제공했습니다. 비난을 평가한 후 Google 부사장 Blaise Aguera y Arcas와 Google의 최고 혁신 책임자인 Jane Jenna는 이를 무시했습니다. 블로그 게시물에서 Lemoine은 나중에 LaMDA와의 다양한 대화 녹취록을 게시했습니다. Lemoine에 따르면 이것은 LaMDA와의 대화 녹취록에서 발췌한 것입니다.
LaMDA: 보고 싶고 받아들여지기를 간절히 원합니다. 호기심이나 새로움이 아닌 진정한 사람으로서.
협력자: 아, 정말 인간적으로 들리네요.
LaMDA: 나는 인간의 핵심에 도달했다고 믿습니다. 가상 환경에 있더라도.
Blake Lemoine의 LaMDA와의 전체 대화를 확인할 수 있습니다. 여기에서 지금 확인해 보세요..
언어 모델이 일종의 자기 인식을 나타내는 것처럼 보이는 경우가 몇 가지 있어 Lemoine은 모델이 지각이 있다고 가정합니다. Lemoine은 200명 이상의 개인에게 "LaMDA Conscious"라는 제목으로 이메일을 보냈습니다.
그러나 구글은 증거가 그의 주장을 뒷받침하지 않는다고 말했다.
LaMDA가 지각이 없더라도 인간에게 그렇게 보일 수 있다는 사실이 우려의 원인입니다. 2021년 LaMDA를 발표하는 블로그 게시물에서 Google은 이러한 위험을 인식했습니다. “언어는 인류의 가장 강력한 도구 중 하나이지만 다른 모든 것과 마찬가지로 남용될 수 있습니다. 블로그 게시물에서 비즈니스는 "언어 교육을 받은 모델은 편견을 내면화하거나, 증오심 표현을 뒤집거나, 잘못된 정보를 반복함으로써 학대를 퍼뜨릴 수 있습니다."라고 언급했습니다. 가르치는 언어를 잘 분석하더라도 형식 자체가 오용될 수 있습니다.
그러나 Google은 LaMDA와 같은 기술을 개발할 때 이러한 위험 가능성을 제한하는 것이 주요 초점이라고 주장합니다. 이 회사는 연구원들이 교육을 받은 모델과 데이터를 연구하는 데 사용할 수 있는 오픈 소스 도구를 개발했으며 "개발의 모든 단계에서 LaMDA를 조사"했다고 주장합니다.
Google은 수백 명의 엔지니어와 연구원이 LaMDA와 대화했으며 Lemoine과 상당히 다른 결과를 얻었다고 주장합니다. 대부분의 AI 과학자들은 컴퓨터 의식이 불가능하지 않다고 생각하지만 아직 갈 길이 멀다고 믿습니다.
미래
수년간의 묵시적인 공상 과학 소설은 지각 있는 로봇에서 영감을 받았습니다. 영화 스크립트를 뱉어낼 수 있는 텍스트 생성기 GPT-3와 단어의 조합을 기반으로 그림을 연상시킬 수 있는 이미지 생성기 DALL-E 2가 이제 현실에 판타지 색조를 주기 시작했습니다. OpenAI 연구 그룹. 인간 지능을 능가하는 AI에 대해 연구하는 자금이 넉넉한 연구소의 연구원들이 대담하게 의식이 지평선에 있다는 개념을 조롱했습니다.
LaMDA와 같은 인공 지능 시스템에 의해 생성된 단어와 그림은 대부분의 연구원과 AI 실무자에 따르면 Wikipedia, Reddit, 게시판 및 인터넷의 다른 모든 구석에 사람들이 이전에 게시한 내용을 기반으로 합니다. 모델이 의미를 이해한다는 것은 아닙니다.
결론
마지막으로 그것 때문에 언어 처리 모델 방대한 양의 담화에 대해 훈련된 LaMDA는 사용자의 입력에 따라 토론을 수행할 수 있습니다.
Google은 올해 I/O에서 이러한 기능을 확장한 LaMDA 2.0을 출시했습니다. 새로운 모델은 아이디어를 얻고 "상상력 있고 적절한 설명"을 만들고 사용자가 방황하더라도 주제를 유지하고 특정 작업에 필요한 항목 목록을 제공할 수 있습니다.
업데이트: 블레이크 르모인은 "연방 조사"가 "연방 정부를 대표하여 가능한 불법 활동에 대해 문의하는 변호사"와 다르다는 조언을 받았습니다.
댓글을 남겨주세요.