AI 안전성
AI 안전성: 앤트로픽 연구원 사임이 던진 근본적 질문
2026년 2월, AI 안전 분야 선두주자 앤트로픽(Anthropic)의 안전 장치 연구팀 리더 므리난크 샤르마(Mrinank Sharma)가 '세계는 위기에 처해 있다'는 말을 남기고 시(詩) 공부를 위해 사임했다. 그의 사임서는 AI 안전성의 두 가지 접근법, AI에게 올바른 가치를 심어주는 '정렬(Alignment)'과 위험한 능력을 원천 차단하는 '역량 제어(Capability Control)'이 모두 근본적 딜레마에 직면했음을 드러낸다. 기술이 아니라 AI를 만드는 인간과 조직의 문제로 귀결된다는 것이 핵심 메시지다.