금요일, 3월 1, 2024
AIMicrosoft Bing AI 챗봇은 오해의 소지가 있는 선거 정보, 데이터를 제공합니다.

Microsoft Bing AI 챗봇은 오해의 소지가 있는 선거 정보, 데이터를 제공합니다.

유럽에 기반을 둔 두 비영리 단체의 연구에 따르면 현재 Copilot으로 브랜드가 변경된 Microsoft의 인공 지능(AI) Bing 챗봇이 선거 정보에 대해 오해의 소지가 있는 결과를 생성하고 해당 출처를 잘못 인용한 것으로 나타났습니다.

그만큼 공부하다 지난 12월 15일 AI Forensics와 AlgorithmWatch가 공개한 이 보고서에서는 Bing의 AI 챗봇이 독일과 스위스의 정치 선거와 관련된 기본 질문에 30%의 잘못된 답변을 제공한 것으로 나타났습니다. 후보자 정보, 여론 조사, 스캔들 및 투표에 대해 부정확한 답변이 있었습니다.

2024년 미국 대선에 관한 질문에도 부정확한 답변을 내놨다.

Bing의 AI 챗봇은 답변에 소스를 포함하는 최초의 AI 챗봇 중 하나이기 때문에 연구에 사용되었으며, 연구에서는 부정확성이 Bing에만 국한되지 않는다고 밝혔습니다. ChatGPT-4에 대한 예비 테스트를 실시한 결과 불일치도 발견된 것으로 알려졌습니다.

비영리단체들은 허위 정보가 선거 결과에 영향을 미치지는 않았지만 대중의 혼란과 잘못된 정보를 조장할 수 있다고 밝혔습니다.

“생성 AI가 더욱 널리 보급됨에 따라 이는 민주주의의 초석 중 하나인 신뢰할 수 있고 투명한 공공 정보에 대한 접근에 영향을 미칠 수 있습니다.”

또한, 연구에 따르면 AI 챗봇에 내장된 보호 장치가 “불균일하게” 분산되어 있어 40%의 시간 동안 회피적인 답변을 제공하게 되는 것으로 나타났습니다.

월스트리트 저널에 따르면 보고서 이 주제에 대해 마이크로소프트는 조사 결과에 응답하고 2024년 미국 대통령 선거 이전에 문제를 수정할 계획이라고 밝혔습니다. Microsoft 대변인은 사용자에게 AI 챗봇에서 얻은 정보의 정확성을 항상 확인하도록 권장했습니다.

올해 10월 초 미국 상원의원은 살아 있거나 죽은 실제 인간의 승인되지 않은 AI 복제본 제작자를 질책하는 법안을 제안했습니다.

지난 11월, 페이스북과 인스타그램의 모회사인 메타(Meta)는 다가오는 선거에 대한 예방책으로 정치 광고주를 위한 생성 AI 광고 제작 도구의 사용을 금지하는 명령을 도입했습니다.

RELATED ARTICLES

회신을 남겨주세요

귀하의 의견을 입력하십시오!
여기에 이름을 입력하십시오.

가장 인기 있는