차례[숨다][보여 주다]
AI를 책임감 있게 사용하려면 어떻게 해야 합니까?
기계 학습의 발전은 모델이 빠르게 확장되고 사회의 많은 부분에 영향을 줄 수 있음을 보여줍니다.
알고리즘은 모든 사람의 전화기에서 뉴스 피드를 제어합니다. 정부와 기업은 AI를 사용하여 데이터에 기반한 결정을 내리기 시작했습니다.
AI가 세상이 작동하는 방식에 더욱 뿌리를 내리게 되면서 AI가 공정하게 작동하도록 하려면 어떻게 해야 할까요?
이 기사에서 우리는 AI 사용의 윤리적 문제를 살펴보고 AI의 책임 있는 사용을 보장하기 위해 우리가 할 수 있는 일을 알아볼 것입니다.
윤리적 AI란?
윤리적 AI는 특정 윤리적 지침을 준수하는 인공 지능을 의미합니다.
즉, 개인과 조직이 책임감 있게 AI와 협력하는 방식입니다.
최근 몇 년 동안 기업은 남용 및 위반의 증거가 밝혀진 후 데이터 개인 정보 보호법을 고수하기 시작했습니다. 마찬가지로 AI가 사회에 부정적인 영향을 미치지 않도록 윤리적 AI 지침을 권장합니다.
예를 들어, 일부 유형의 AI는 편향된 방식으로 작동하거나 이미 존재하는 편향을 영속시킵니다. 채용 담당자가 수천 개의 이력서를 분류하는 데 도움이 되는 알고리즘을 고려해 보겠습니다. 알고리즘이 주로 남성 또는 백인 직원이 있는 데이터 세트에서 훈련된 경우 알고리즘이 해당 범주에 속하는 지원자를 선호할 가능성이 있습니다.
윤리적 AI 원칙 수립
우리는 인공 지능 수십 년간.
가장 강력한 컴퓨터가 가장 전문적인 과학적 계산만을 수행할 수 있었던 1940년대에도 공상과학 소설가들은 지능형 로봇을 제어하는 아이디어에 대해 숙고해 왔습니다.
아이작 아시모프(Isaac Asimov)는 로봇 공학의 세 가지 법칙(Three Laws of Robotics)을 만든 것으로 유명합니다. 그가 제안한 안전 기능은 단편 소설에서 로봇 프로그래밍에 포함되었습니다.
이러한 법칙은 미래의 많은 공상과학 이야기의 시금석이 되었으며 AI 윤리에 대한 실제 연구에 정보를 제공하기까지 했습니다.
현대 연구에서 AI 연구원은 윤리적 AI에 대한 원칙 목록을 설정하기 위해 보다 근거 있는 출처를 찾고 있습니다.
AI는 궁극적으로 인간의 삶에 영향을 미치기 때문에 우리가 해야 할 것과 하지 말아야 할 것에 대한 근본적인 이해가 있어야 합니다.
벨몬트 보고서
참고로 윤리 연구자들은 벨몬트 보고서를 가이드로 삼고 있습니다. 그만큼 벨몬트 보고서 는 1979년 미국 국립 보건원(National Institutes of Health)에서 발행한 문서였습니다. 제2차 세계 대전에서 행해진 의학적 잔학 행위로 인해 의료 행위를 하는 연구원을 위한 윤리적 지침을 입법화해야 한다는 압박이 있었습니다.
보고서에 언급된 세 가지 기본 원칙은 다음과 같습니다.
- 사람 존중
- 선행
- 정의
첫 번째 교장은 모든 인간 주체의 존엄성과 자율성을 유지하는 것을 목표로 합니다. 예를 들어, 연구자는 속이는 참가자를 최소화하고 각 사람에게 명시적 동의를 요구해야 합니다.
두 번째 원칙인 선행은 참가자에 대한 잠재적인 피해를 최소화하는 연구원의 의무에 중점을 둡니다. 이 원칙은 연구자에게 잠재적인 사회적 이익에 대한 개인 위험의 비율을 균형 있게 유지해야 하는 의무를 부여합니다.
Belmont 보고서가 제시한 최종 원칙인 정의는 연구의 혜택을 받을 수 있는 그룹 간에 위험과 혜택을 균등하게 분배하는 데 중점을 둡니다. 연구자는 더 많은 인구 중에서 연구 주제를 선택해야 할 의무가 있습니다. 그렇게 하면 사회에 부정적인 영향을 미칠 수 있는 개인 및 제도적 편견을 최소화할 수 있습니다.
AI 연구에 윤리를 두다
벨몬트 보고서는 주로 인간을 대상으로 하는 연구를 대상으로 했지만 원칙은 AI 윤리 분야에 적용할 수 있을 만큼 광범위했습니다.
빅데이터는 인공지능 분야에서 귀중한 자원이 되었습니다. 연구자가 데이터를 수집하는 방법을 결정하는 프로세스는 윤리적 지침을 따라야 합니다.
대부분의 국가에서 데이터 개인 정보 보호법을 시행하면 회사가 수집하고 사용할 수 있는 데이터에 어느 정도 제한이 있습니다. 그러나 대다수의 국가는 AI를 사용하여 피해를 입히는 것을 방지하기 위한 기본적인 법률을 아직 시행하고 있습니다.
윤리적으로 AI와 협력하는 방법
다음은 AI를 보다 윤리적이고 책임감 있게 사용하는 데 도움이 될 수 있는 몇 가지 핵심 개념입니다.
바이어스 제어
인공 지능은 본질적으로 중립적이지 않습니다. 알고리즘은 학습 데이터에 편향이 포함되어 있기 때문에 항상 삽입된 편향과 차별에 취약합니다.
차별적 AI의 일반적인 예는 얼굴 인식 시스템에 자주 등장하는 유형입니다. 이러한 모델은 종종 백인 남성의 얼굴을 식별하는 데 성공하지만 피부가 더 어두운 사람을 식별하는 데는 덜 성공적입니다.
또 다른 예는 OpenAI의 DALL-E 2에 나타납니다. 사용자는 발견 특정 프롬프트는 모델이 온라인 이미지 데이터 세트에서 포착한 성별 및 인종 편견을 종종 재현합니다.
예를 들어, 변호사의 이미지를 묻는 메시지가 표시되면 DALL-E 2는 남성 변호사의 이미지를 반환합니다. 반면 승무원 사진을 요구하면 대부분 여성 승무원을 돌려받는다.
AI 시스템에서 편견을 완전히 제거하는 것은 불가능할 수 있지만 그 영향을 최소화하기 위한 조치를 취할 수 있습니다. 연구원과 엔지니어는 교육 데이터를 이해하고 다양한 팀을 고용하여 AI 시스템이 작동하는 방식에 대한 의견을 제공함으로써 편향을 더 잘 제어할 수 있습니다.
인간 중심의 디자인 접근
좋아하는 앱의 알고리즘은 부정적인 영향을 미칠 수 있습니다.
Facebook 및 TikTok과 같은 플랫폼은 사용자를 플랫폼에 유지하기 위해 제공할 콘텐츠를 학습할 수 있습니다.
해를 입히려는 의도가 없더라도 가능한 한 오랫동안 사용자를 앱에 고정하려는 목표는 정신 건강 문제로 이어질 수 있습니다. '둠스크롤링'이라는 용어는 Twitter 및 Facebook과 같은 플랫폼에서 부정적인 뉴스를 읽는 데 과도한 시간을 소비하는 포괄적인 용어로 인기를 얻었습니다.
다른 경우에는 증오성 콘텐츠와 잘못된 정보가 사용자 참여를 높이는 데 도움이 되기 때문에 더 넓은 플랫폼을 받습니다. ㅏ 2021 연구 New York University의 연구원들의 연구에 따르면 잘못된 정보로 알려진 출처의 게시물은 평판이 좋은 뉴스 출처보다 XNUMX배 더 많은 좋아요를 받습니다.
이러한 알고리즘은 인간 중심 설계 접근 방식이 부족합니다. AI가 작업을 수행하는 방법을 설계하는 엔지니어는 항상 사용자 경험을 염두에 두어야 합니다.
연구원과 엔지니어는 항상 '이것이 사용자에게 어떤 이점이 있습니까?'라는 질문을 해야 합니다.
대부분의 AI 모델은 블랙박스 모델을 따릅니다. 블랙박스 안에 기계 학습 AI가 특정 결과에 도달한 이유를 인간이 설명할 수 없는 AI를 말합니다.
블랙박스는 기계에 대한 신뢰를 떨어뜨리기 때문에 문제가 됩니다.
예를 들어 Facebook이 정부가 범죄자를 추적하는 데 도움이 되는 알고리즘을 출시한 시나리오를 상상해 보겠습니다. AI 시스템이 당신에게 플래그를 지정하면 아무도 왜 그런 결정을 내렸는지 설명할 수 없을 것입니다. 이러한 유형의 시스템이 당신이 체포되어야 하는 유일한 이유가 되어서는 안 됩니다.
Explainable AI 또는 XAI는 최종 결과에 기여한 요인 목록을 반환해야 합니다. 가상의 범죄 추적기로 돌아가서 AI 시스템을 조정하여 의심스러운 언어나 용어를 보여주는 게시물 목록을 반환할 수 있습니다. 거기에서 사람은 플래그가 지정된 사용자가 조사할 가치가 있는지 여부를 확인할 수 있습니다.
XAI는 AI 시스템에 더 많은 투명성과 신뢰를 제공하고 인간이 더 나은 결정을 내리는 데 도움이 될 수 있습니다.
결론
모든 인간이 만든 발명과 마찬가지로 인공 지능은 본질적으로 좋거나 나쁜 것이 아닙니다. 중요한 것은 AI를 사용하는 방식입니다.
인공 지능의 독특한 점은 성장 속도입니다. 지난 XNUMX년 동안 우리는 매일 기계 학습 분야에서 새롭고 흥미로운 발견을 보았습니다.
그러나 법은 그렇게 빠르지 않습니다. 기업과 정부가 계속해서 AI를 활용하여 이익을 극대화하거나 시민들을 통제함에 따라 이러한 알고리즘을 사용할 때 투명성과 형평성을 추구하는 방법을 찾아야 합니다.
진정으로 윤리적인 AI가 가능하다고 생각하십니까?
댓글을 남겨주세요.