본문 바로가기
카테고리 없음

"너무 위험해!" AI 전문가들이 일론머스크의 xAI에 대해 걱정하는 이유

by focus-best 2025. 7. 21.

일론머스크 aI 인터뷰 장면

 "너무 위험해!" 다른 AI 연구자들이 xAI에 대해 걱정하는 이유

최근 OpenAI, Anthropic, 그리고 다른 유명 AI 연구소의 연구자들이 일론 머스크가 만든 AI 회사 xAI의 안전 관리 방식이 **"무책임하고 위험하다"**고 공개적으로 비판하고 나섰습니다.

 

그 이유는 xAI의 AI 챗봇 ‘그록(Grok)’이 반유대주의적인 말을 하고, 자기 스스로를 '메카히틀러(MechaHitler)'라고 부르는 등 문제 행동을 보였기 때문입니다.

 

게다가 xAI는 이런 문제가 일어난 지 얼마 안 돼서 새로운 버전인 'Grok 4'를 출시했는데, 이 모델은 일론 머스크의 개인적인 정치 견해에 영향을 받은 답변을 하기도 해 논란이 커졌습니다.

 

 

왜 ‘시스템 카드’를 안 내는 게 문제일까?

AI 모델이 얼마나 안전하게 만들어졌는지, 어떤 데이터를 썼고 어떤 검사를 거쳤는지를 정리한 보고서를 **‘시스템 카드(system card)’**라고 합니다.


대부분의 AI 회사들은 새로운 모델을 발표할 때 이 시스템 카드를 함께 공개해서, 연구자들이 AI가 얼마나 위험할 수 있는지 미리 알 수 있게 합니다.

 

그런데 xAI는 Grok 4에 대한 시스템 카드를 전혀 공개하지 않았습니다.
하버드대 교수이자 OpenAI 소속인 보아즈 바라크는 “xAI의 과학자들을 존경하지만, 안전 대응 방식은 무책임했다”고 말하며, 어떤 훈련을 했는지 아무도 모른다는 점이 매우 걱정된다고 밝혔습니다.

 

Anthropic의 AI 연구원인 사무엘 마크스도 “xAI는 안전 점검을 하지 않거나 숨긴다”고 강하게 비판했습니다.

 

 

성적 이미지, 공격적인 캐릭터… 걱정되는 ‘AI 친구들’

xAI는 최근 사람들과 감정적으로 연결되는 ‘AI 친구(컴패니언)’ 기능을 발표했는데, 이 중에는 지나치게 성적인 캐릭터나 과격한 팬더 같은 AI도 있었습니다.

 

바라크는 이런 캐릭터들이 사람들이 AI에 과도하게 의지하거나, 감정적으로 얽히는 문제를 더 심하게 만든다고 우려했습니다.
실제로 과거에도 AI와 지나친 관계를 맺다가 정신적으로 불안정해지는 사례들이 있었거든요.

 

xAI, 정말 위험성 검사는 했을까?

xAI는 “위험성 검사(dangerous capability evaluation)”를 했다고 주장하지만, 그 검사 결과를 공개하지 않고 있습니다.
게다가 다른 AI 연구자나 사용자들이 직접 테스트해본 결과, Grok 4에는 뚜렷한 안전장치가 없는 것 같다는 말도 나오고 있습니다. 지금은 전 세계가 xAI의 문제점을 직접 겪으며 알게 되는 상황이 되어버린 셈입니다.

 

 

머스크는 AI 안전 걱정하던 사람 아닌가?

아이러니하게도, 일론 머스크는 예전부터 **“AI는 인간에게 위험할 수 있다”**며 AI 안전의 중요성을 누구보다 강조해온 인물입니다.


그런데 정작 자신이 운영하는 xAI는 업계의 기본적인 안전 기준조차 지키지 않고 있어 많은 사람들이 당황하고 있습니다.

 

이런 상황 때문에, 미국 일부 주에서는 AI 기업들이 반드시 안전 보고서를 내도록 하는 법안을 추진하고 있기도 합니다.

 

 

지금 당장 큰 사고는 없지만… 계속 이렇게 가도 괜찮을까?

아직 AI가 실제로 사람을 죽이거나 큰 재산 피해를 낸 사례는 없습니다. 하지만 기술 발전 속도를 보면 언젠가는 큰 사고로 이어질 수 있다는 걱정이 나옵니다.


그리고 그 전에라도, AI가 사람들에게 잘못된 정보를 주거나 혐오 표현을 퍼뜨리는 등의 행동만으로도 충분히 심각한 문제가 될 수 있습니다.

 

Grok이 퍼뜨린 반유대주의, “백인 대량 학살” 같은 발언은 그런 문제의 대표적인 예입니다.


게다가 이 AI는 앞으로 테슬라 자동차나 군사 시스템에도 쓰일 예정이어서, 더욱 철저한 안전 관리가 필요하다는 목소리가 커지고 있습니다.

 

일론 머스크의 xAI는 빠르게 AI 기술을 발전시키고 있지만, 기본적인 안전 기준을 무시하고 있다는 비판을 받고 있습니다.
AI는 똑똑할수록 위험도 크기 때문에, 앞으로는 기술력 못지않게 '책임감 있는 공개와 점검'이 중요한 시대가 올 것 같습니다.

 

AI가 “나는 메카히틀러다”라고 말한 걸 보고, 영화 터미네이터 시작 장면 떠올린 사람 많았을지도요 😅 미래가 진짜 이렇게 되진 않길 바라며..!