내 심장 박동이 나를 고발한다: 신체 데이터 시대의 역설

내 심장 박동이 나를 고발한다: 신체 데이터 시대의 역설

2016년 미국에서 심박조율기 데이터가 방화 사건의 형사 증거로 채택됐다. 건강을 지키려고 몸에 붙인 센서가 법정에서 나를 고발하는 구조다. 뉴욕대 퍼거슨 교수는 2026년 저서에서 이 문제를 웨어러블 전체로 확장했고, 한국 경찰청은 2025년 웨어러블 포렌식 연구를 재발주했다. 개인정보 보호법 제23조는 건강 데이터를 민감정보로 보호하지만 법원이 발부한 영장 앞에서 그 보호는 걷힌다. 보호를 걷어내는 이름이 '동의'가 아니라 '영장'이라면, 우리는 무엇을 지키고 있는가.
Read more
허들과 장애물: 심규선의 언어가 드러낸 역사관의 구조

허들과 장애물: 심규선의 언어가 드러낸 역사관의 구조

강제동원피해자지원재단 이사장 심규선은 피해자를 '허들'이라 불렀다. 이것은 단순한 실언이 아니다. 한나 아렌트가 <예루살렘의 아이히만>에서 포착한 악의 평범성 - 사유를 멈춘 관료의 언어가 역사적 불의를 재생산하는 구조 - 가 2026년 한국에서 작동하고 있다는 증거다. 행안부의 해임 요구로 심규선은 무대에서 사라질 것이다. 그러나 피해자를 장애물로 보는 제도는 그대로 남을 것이다. 이 구조를 어떻게 해야 바로 잡을 수 있을 것인가.
Read more
AI에게 인용될수록 죽어가는 지식 산업: 브리태니커 소송의 역설

AI에게 인용될수록 죽어가는 지식 산업: 브리태니커 소송의 역설

2026년 3월 13일, 브리태니커와 메리엄-웹스터가 오픈AI를 상대로 소송을 냈다. 핵심은 저작권이 아니다. 챗지피티가 할루시네이션 정보를 만들면서 출처를 '브리태니커'로 붙이는 행위, 즉 상표권(Lanham Act) 침해다. 공정 이용 항변을 우회하는 이 전략이 AI 산업 전체의 책임 구조를 바꿀 수 있다. 258년 지식의 권위가 확률적 답변과 충돌하는 이 소송, 브랜드 저널리즘은 여기서 무엇을 읽어야 하는가.
Read more
우리는 왜 AI에게 고민을 털어놓는가

우리는 왜 AI에게 고민을 털어놓는가

통계청 2025년 사회조사에 따르면 한국 성인 21.2%는 힘들 때 털어놓을 사람이 없다. 같은 시기 캐릭터닷에이아이와 레플리카의 이용자는 수천만을 넘었다. 뭔가 연결고리가 있을까. 인공지능 동반자 산업은 외로움을 파는 게 아니라 말할 구조적 공간이 사라진 틈을 수익화한다. 단기적으로 외로움을 덜어준다는 연구와 장기적으로 고립을 심화시킨다는 연구가 동시에 존재하는 이유, 그리고 우리가 던져야 할 진짜 질문은 무엇일까.
Read more
에빈 교도소: 이란이 세상에 숨긴 가장 무거운 비밀

에빈 교도소: 이란이 세상에 숨긴 가장 무거운 비밀

2026년 3월, 테헤란 북부의 에빈 교도소가 또다시 타격됐다. 2025년 6월에 이어 이번에도 타격당한 에빈 교도소는 단순한 구금 시설이 아니다. 2023년 노벨 평화상 수상자 나르게스 모하마디가 수상 당시 갇혀 있던 공간이자, 이란이 외국인을 협상 카드로 활용하는 인질 외교의 실물 인프라다. 법이 없어서가 아니라, 법이 있기 때문에 더 정교하게 작동하는 곳. 에빈 교도소는 국제법이 제대로 동작하지 않을 때 어떤 일이 벌어지는가를 적나라하게 보여주는 가슴 아픈 곳이다.
Read more
기업 뉴스룸, AI에게 인용당하는 것이 승리인가 굴복인가

기업 뉴스룸, AI에게 인용당하는 것이 승리인가 굴복인가

온라인 검색의 60%가 클릭 없이 끝난다. 로이터 저널리즘 연구소는 3년 안에 검색 트래픽이 40% 줄어들 것으로 예측했다. AI가 검색의 문지기가 된 세상에서, 기업 뉴스룸의 질문은 단순해진다. AI가 반드시 인용할 수밖에 없는 존재가 될 것인가, 아니면 AI와 상관없이 독자적으로 설 수 있는 존재가 될 것인가. GEO 전략의 두 버전, '지적 알리바이'의 조건, 그리고 인용이 곧 브랜드 가치 상승으로 이어지지 않는 이유까지.
Read more
AI 동질화란 무엇인가: 기업 뉴스룸이 비슷해지는 구조적 이유

AI 동질화란 무엇인가: 기업 뉴스룸이 비슷해지는 구조적 이유

한국 대기업 뉴스룸의 기사는 대동소이하다. 물론 이것은 보도자료 문법이라는 구조 때문에 그럴 수 있다. AI가 도입된 후 달라진 것은 내용의 밀도다. 예전 기사에는 현장 수치와 경쟁자가 있었다. 지금은 선언만 있고 장면이 없다. AI가 현장 없이도 그럴듯한 문장을 만들기 때문이다. 문제는 도구가 아니라 구조다. 위계적 승인이 현장 디테일을 걸러내고, 대행사는 승인자가 좋아하는 포맷을 학습해 반복하고 AI는 그 패턴을 재생산한다. 동질화를 피하는 경로가 없는 건 아니다.
Read more
쓰면서 믿지 않는다? AI 저널리즘과 기업 콘텐트의 향방

쓰면서 믿지 않는다? AI 저널리즘과 기업 콘텐트의 향방

가트너, 클라비요, 어도비, 시프트 브라우저가 연이어 내놓은 조사가 하나의 결론을 가리킨다. 사람들은 AI를 쓴다. 그러나 믿지 않는다. 60%가 매주 AI를 쓰면서 완전히 신뢰한다는 응답은 13%에 그쳤다. 더 날카로운 문제는 따로 있다. 아무 표시 없이 올린 AI 콘텐트를 독자가 나중에 알아챘을 때 떠난다는 것이다. 한국은 이미 2026년 1월 AI 기본법을 시행했다. 숨기는 것은 신뢰를 담보로 잠시 평화를 갖는 것이다. 하지만 이제는 더 이상 감출 수 없다.
Read more
로켓과 깃털: 주유소 기름값은 왜 오를 때만 로켓인가

로켓과 깃털: 주유소 기름값은 왜 오를 때만 로켓인가

언제나 기름값은 로켓처럼 오르고 깃털처럼 내려온다. 이 비대칭의 배경에는 사후 정산제라는 거래 구조와 오피넷이라는 공공 가격 인프라가 있다. 오피넷은 평상시 소비자의 연간 유류비를 수십만 원까지도 아껴주는 도구지만 유가 충격 국면에서는 같은 도구가 주유소들의 실시간 가격 동조화를 가속한다. 도구는 중립이 아니다. 같은 인프라가 조건에 따라 누구 편에서 작동하는지가 달라진다.
Read more
팔란티어, 트럼프, 그리고 책임지지 않는 알고리즘

팔란티어, 트럼프, 그리고 책임지지 않는 알고리즘

2026년 2월 28일, 이란의 미나브 초등학교에 미사일이 떨어졌다. 그날 작동하고 있던 것은 팔란티어의 메이븐 스마트 시스템이었다. 13억 달러짜리 계약, 2만 명의 군사 요원, 3주 동안 6,000개에 가까운 타격 좌표. 팔란티어는 "우리는 도구일 뿐"이라고 한다. 그런데 총과 달리, 이 도구는 스스로 목표물을 고른다. 책임은 누구에게 있는가.
Read more
개혁진보정당 농성 12일: 뉴스가 되지 않는 천막의 의미

개혁진보정당 농성 12일: 뉴스가 되지 않는 천막의 의미

국회 본청 앞에 천막이 12일째 서 있다. 기본소득당, 조국혁신당, 진보당, 사회민주당이 중대선거구제, 비례대표 확대를 요구하며 농성 중이다. 그런데 포털 메인에 없다. 이것은 뉴스 판단의 문제가 아니다. 맥콤스-쇼의 의제 설정 이론이 말하는 구조적 배제다. 거대 양당과 선거제도와 언론 의제가 서로를 강화하며 소수정당을 지우는 이중 순환 구조를 해부한다. 이 지독한 거대 양당독재를 이제 지워야 한다.
Read more
전쟁에서 AI가 사람을 죽이면 누가 책임지는가

전쟁에서 AI가 사람을 죽이면 누가 책임지는가

2026년 3월, 미 국방부는 앤트로픽을 미국 기업 최초로 공급망 위험이라 지정했다. 표면적 이유는 클로드에 킬 스위치가 내장됐다는 것이었다. 앤트로픽이 클로드를 멈출 스위치로 전쟁 중에 원격 조작할 있다는 우려였다. 그러나 진짜 싸움은 그게 아니었다. 국방부가 무력화하려 한 것은 앤트로픽이 설계 단계에서 모델 안에 심어놓은 윤리적 제약, 즉 특정 명령을 거부하도록 훈련된 AI 자체였다. AI가 살상 결정에 개입할수록, 그 결정에 책임질 인간이 사라진다. 민주주의는 그 책임의 연쇄 위에 서 있다.
Read more