[굿모닝베트남 | 기술·과학] 코파일럿을 업무와 일상생활에 적극적으로 활용하도록 홍보해 온 마이크로소프트가 뜻밖에도 해당 도구를 지나치게 신뢰해서는 안 된다는 경고를 발표했다.

"코파일럿은 오락 목적으로만 사용해야 한다. 오류가 발생할 수 있으며 의도한 대로 작동하지 않을 수 있다. 중요한 조언을 얻기 위해 코파일럿에 의존하지 마세요. 코파일럿 사용에 따른 모든 책임은 사용자에게 있다." 이는 작년 말에 공개되어 현재 온라인에 유포되고 있는 코파일럿 이용약관 개정판에 명시된 내용이다.
X와 레딧 같은 소셜 미디어 플랫폼에서는 많은 사람들이 놀라움을 표하며, 이는 마치 점쟁이가 점을 보기 전에 하는 말과 비슷하다고 지적했다. 한 레딧 사용자는 "제품의 정확성을 보장할 수 없는 회사는 좋은 징조가 아니다. 마이크로소프트조차 코파일럿을 신뢰하지 않는데, 내가 왜 신뢰해야 할까?"라고 댓글을 남겼다.
이 이용약관은 마이크로소프트의 대대적인 광고 캠페인과도 모순된다. 마이크로소프트는 윈도우 11과 마이크로소프트 365 오피스 제품군에 코파일럿을 통합하기 위해 수십억 달러를 투자했으며, 심지어 제조업체와 협력하여 코파일럿+ PC 라인을 출시하며 사람들의 업무 방식을 혁신하고자 했다.
기술 웹사이트 톰스 하드웨어(Tom's Hardware)에 따르면, 마이크로소프트의 성명은 단순히 "면책 조항"일 가능성이 높다. 즉, 이 조항은 향후 발생할 수 있는 소송으로부터 회사를 보호하기 위한 것이다. 하지만 이는 또한 부정적인 측면을 드러낸다. 생산성 향상에 도움이 되는 AI에 대한 사용자들의 비용 지불을 유도하는 동시에, 기술 기업들은 AI가 야기하는 위험에 대한 법적 책임을 최소화하려 한다는 것이다.
실제로 마이크로소프트뿐만 아니라 다른 대기업과 전문가들도 유사한 경고를 내놓았다. 이들은 빅 언어 모델이 매우 설득력 있는 어조로 제시되면서도 오해의 소지가 있거나, 불쾌하거나, 부정확한 정보를 제공하는 착각에 빠지기 쉽다고 지적했다.
AI의 답변이 정확하다는 가정은 수많은 실질적인 문제로 이어졌다. 예를 들어, 아마존과 같은 선도적인 기술 기업조차 2025년 말 AWS 서비스 중단 사태를 겪었는데, 이는 엔지니어들이 감독 없이 AI가 스스로 오류를 수정하도록 허용한 것이 원인으로 지목되었다. 파이낸셜 타임스(FT)에 따르면, 아마존 웹사이트의 많은 오류 역시 AI가 생성한 변경 사항과 관련이 있는 것으로 밝혀져 엔지니어들이 이를 해결하기 위해 긴급 회의를 소집해야 했다.
전문가들은 사람들이 기계가 생성한 결과를 신뢰하고 실제 데이터를 무시하는 경향을 보이는 "자동화 편향" 현상에 대해 경고해 왔다. AI는 언뜻 보기에 그럴듯해 보이는 콘텐츠를 생성할 수 있는 능력 때문에 이러한 편향을 더욱 심화시킨다. 따라서 사용자는 항상 결과를 검증하고 AI를 오류에 대한 책임을 져야 하는 존재가 아닌 도구로 인식하며 필요한 수준의 회의적인 태도를 유지해야 한다.
@GMVN(테크레이더)
























