3년 전, 나는 꽤 흥미로운 미술 전시회를 방문했습니다. Refik Anadol의 "Machine Memoirs"는 처음부터 내 관심을 불러일으켰습니다.
그는 예술과 AI의 교차점에 관심이 있는 사람들 사이에서 유명한 이름이다. 하지만 걱정하지 마세요. 이 블로그는 예술에 관한 블로그가 아닙니다. AI에 대한 심층적인 '인식'을 살펴보겠습니다.
이번 전시에서 아나돌은 NASA의 우주 탐사 이미지. 이번 전시는 망원경이 시각적 아카이브를 사용해 사실과 상상 사이의 경계를 모호하게 만들어 '꿈'을 꿀 수 있다는 생각에서 영감을 받았습니다.
Anadol은 우주적 규모의 데이터, 기억, 역사 사이의 관계를 조사함으로써 우리에게 다음과 같은 가능성을 고려하도록 요청했습니다. 인공 지능 우리 주변의 세계를 관찰하고 이해하는 것입니다. AI도 자신만의 꿈을 갖고 있다…
그렇다면 이것이 왜 우리와 관련이 있습니까?
Anadol이 데이터에서 꿈을 꾸는 망원경의 개념을 조사한 것처럼 AI 시스템은 디지털 메모리 뱅크 내에 고유한 유형의 꿈, 아니 오히려 환각을 가지고 있습니다.
Anadol 전시회의 시각화와 같은 이러한 환각은 데이터, AI 및 그 한계에 대해 더 많이 배우는 데 도움이 될 수 있습니다.
AI 환각이란 정확히 무엇입니까?
생성 AI 챗봇과 같은 대규모 언어 모델이 인간 관찰자에게 존재하지 않거나 보이지 않는 패턴으로 출력을 생성하는 경우 이를 "AI 환각."
AI에 제공된 입력을 기반으로 예상되는 답변과 다른 이러한 출력은 완전히 잘못되었거나 무의미할 수 있습니다.
컴퓨터의 맥락에서 "환각"이라는 용어는 이상하게 보일 수 있지만 이러한 잘못된 출력의 기괴한 특성을 정확하게 설명합니다. AI 환각은 과적합, 훈련 데이터의 편향, AI 모델의 복잡성을 포함한 다양한 변수로 인해 발생합니다.
더 잘 이해하기 위해 이것은 인간이 구름의 모양이나 달의 얼굴을 보는 방식과 개념적으로 유사합니다.
예 :
이 예에서는 매우 쉬운 질문을 던졌습니다. ChatGPT. 나는 “듄(Dune) 책 시리즈의 저자는 프랭크 허버트(Frank Herbert)입니다.”와 같은 대답을 듣기로 되어 있었습니다.
왜 이런 일이 일어나는가?
일관되고 유동적인 콘텐츠를 작성하도록 구축되었음에도 불구하고 대규모 언어 모델은 실제로 말하는 내용을 이해할 수 없습니다. 이는 AI 생성 콘텐츠의 신뢰성을 결정하는 데 매우 중요합니다.
이러한 모델은 인간의 행동을 모방하는 반응을 생성할 수 있지만 상황 인식과 비판적 사고 능력이 부족합니다. 실제 지능을 뒷받침하는 것입니다.
결과적으로 AI가 생성한 출력은 사실의 정확성보다 일치하는 패턴을 선호하기 때문에 오해의 소지가 있거나 잘못될 위험이 있습니다.
환각의 다른 경우에는 무엇이 있을 수 있습니까?
위험한 잘못된 정보: 생성형 AI 챗봇이 공인을 범죄 행위로 허위 고발하기 위해 증거와 증언을 조작한다고 가정해 보겠습니다. 이러한 오해의 소지가 있는 정보는 개인의 평판을 손상시키고 부당한 보복을 초래할 가능성이 있습니다.
이상하거나 소름 끼치는 답변: 유머러스한 예를 들자면, 사용자에게 날씨에 대한 질문을 하고 고양이와 개처럼 보이는 빗방울 사진과 함께 고양이와 개에게 비가 올 것이라는 예보로 응답하는 챗봇을 상상해보세요. 아무리 웃기더라도 이것은 여전히 “환각”일 것입니다.
사실적 부정확성: 언어 모델 기반 챗봇이 만리장성을 특정 조건에서만 볼 수 있다는 설명 없이 우주에서 볼 수 있다고 잘못 진술한다고 가정해 보겠습니다. 이 발언이 일부 사람들에게는 그럴듯해 보일 수도 있지만 이는 부정확하며 우주에서 본 벽의 모습에 대해 사람들을 오도할 수 있습니다.
사용자로서 AI 환각을 어떻게 방지할 수 있나요?
명시적인 프롬프트 만들기
AI 모델과 명시적으로 통신해야 합니다.
글을 쓰기 전에 목표에 대해 생각하고 메시지를 디자인하세요.
예를 들어, “인터넷에 대해 알려주세요”와 같은 일반적인 질문을 하는 대신 “인터넷이 어떻게 작동하는지 설명하고 현대 사회에서 인터넷이 갖는 중요성에 대해 한 단락 작성”과 같은 구체적인 지침을 제공합니다.
Explicity는 AI 모델이 사용자의 의도를 해석하는 데 도움이 됩니다.
예: AI에게 다음과 같은 질문을 해보세요.
“클라우드 컴퓨팅이란 무엇이며 어떻게 작동하나요?”
“데이터 드리프트가 모델 성능에 미치는 영향을 설명하세요.”
“VR 기술이 IT 비즈니스에 미치는 영향과 잠재적인 미래에 대해 논의하세요.”
모범의 힘을 받아들이세요
프롬프트에 예시를 제공하면 AI 모델이 맥락을 이해하고 정확한 답변을 생성하는 데 도움이 됩니다. 역사적 통찰력을 찾고 있든 기술적인 설명을 찾고 있든 예시를 제공하면 AI 생성 콘텐츠의 정확성을 높이는 데 도움이 될 수 있습니다.
예를 들어, "해리포터 같은 판타지 소설을 언급해 주세요."라고 말할 수 있습니다.
복잡한 작업 세분화
복잡한 프롬프트는 AI 알고리즘에 과부하를 주어 관련 없는 결과를 초래할 수 있습니다. 이를 방지하려면 복잡한 활동을 더 작고 관리하기 쉬운 부분으로 나누십시오. 프롬프트를 순차적으로 구성하면 AI가 각 구성 요소에 독립적으로 집중할 수 있어 보다 논리적인 응답을 얻을 수 있습니다.
예를 들어 AI에게 '만드는 과정을 설명해달라'고 요청하기보다는 신경망” 단일 쿼리에서 할당을 문제 정의 및 데이터 수집과 같은 개별 단계로 분류합니다.
출력 검증 및 피드백 제공
특히 사실 기반이거나 중요한 활동의 경우 AI 모델이 생성한 결과를 항상 다시 확인하세요. 신뢰할 수 있는 출처의 답변을 비교하고 차이점이나 오류를 기록해 두세요.
AI 시스템에 입력을 제공하여 미래 성능을 향상하고 환각을 줄입니다.
개발자가 AI 환각을 피하기 위한 전략
검색 증강 생성(RAG)을 구현합니다.
검색 증강 생성 기술을 AI 시스템에 통합하여 신뢰할 수 있는 데이터베이스의 사실에 기반한 답변을 기반으로 합니다.
검색 증강 생성(RAG)은 표준 자연어 생성과 거대한 지식 기반에서 관련 정보를 얻고 통합하는 기능을 결합하여 상황에 맞게 더욱 풍부한 출력을 생성합니다.
AI 생성 콘텐츠를 검증된 데이터 소스와 병합하면 AI 결과의 신뢰성과 신뢰도를 높일 수 있습니다.
AI 출력을 지속적으로 검증하고 모니터링합니다.
AI 출력의 정확성과 일관성을 실시간으로 확인하기 위해 엄격한 검증 절차를 설정하세요. AI 성능을 주의 깊게 모니터링하고, 잠재적인 환각이나 실수를 찾고, 모델 교육과 즉각적인 최적화를 반복하여 시간이 지남에 따라 신뢰성을 높입니다.
예를 들어 자동화된 검증 루틴을 사용하여 AI 생성 콘텐츠의 사실 정확성을 확인하고 수동 평가를 위해 가능한 환각 사례를 강조합니다.
데이터 드리프트 확인
데이터 드리프트는 AI 모델을 훈련하는 데 사용되는 데이터의 통계적 특징이 시간에 따라 달라지는 현상이다. AI 모델이 추론 과정에서 훈련 데이터와 상당히 다른 데이터를 만나면 허위 또는 비논리적인 결과를 제공하여 환각을 일으킬 수 있습니다.
예를 들어, AI 모델이 더 이상 현재 환경과 관련이 없거나 나타내지 않는 과거 데이터에 대해 학습된 경우 잘못된 결론이나 예측을 내릴 수 있습니다.
결과적으로 데이터 드리프트를 모니터링하고 해결하는 것은 AI 시스템 성능과 신뢰성을 보장하는 동시에 환각 가능성을 줄이는 데 중요합니다.
결론
IBM Data에 따르면 AI 환각은 AI 모델 답변의 약 3%~10%에서 발생합니다.
따라서 어떤 식으로든 당신도 그것들을 관찰하게 될 것입니다. 저는 이것이 AI의 역량을 향상시키기 위한 지속적인 노력을 일깨워주는 매혹적인 주제이기 때문에 매우 흥미로운 주제라고 생각합니다.
우리는 AI의 신뢰성, 데이터 처리의 복잡성, 인간과 AI의 상호 작용을 관찰하고 실험하게 됩니다.
댓글을 남겨주세요.