안녕하세요, 10월 넷째주 뉴스레터로 인사드려요! 😆
이번에는 ‘에이전트 리터러시’를 주제로, AI와 함께 사고의 범위를 어떻게 넓힐 수 있을지 차근차근 이야기해 보려 합니다. 그럼 시작해 볼까요?
‘AI를 사용할 줄 아는 능력’에서
‘AI와 함께 사고를 확장하는 능력’으로 🧠
AI가 인간의 지적 활동에 깊숙이 개입하기 시작한 지금, 단순히 AI를 ‘활용할 줄 아는 능력’만으로는 충분하지 않습니다. ‘AI 리터러시(AI Literacy)’가 AI의 작동 원리와 활용 방법을 이해하는 기술적 역량이라면, ‘에이전트 리터러시(Agent Literacy)’는 한 단계 더 나아가 AI를 통해 인간의 사고를 확장하고, 그 과정의 한계를 비판적으로 감독할 수 있는 능력을 의미합니다. 즉, 에이전트 리터러시는 AI를 단순한 도구(tool)가 아닌 사고 확장자(Thinking Extender)로 인식하면서, 인간의 지적 주권(intellectual sovereignty)을 지키는 새로운 형태의 시민 교양입니다.

생성형 AI로 제작된 이미지
AI는 더 이상 도구가 아니다 🛠
AI의 발전은 “보조적 기술”의 차원을 넘어, 이제 사고와 판단의 일부를 외주화할 수 있는 지적 행위자(Agent)의 수준에 이르렀습니다.
- OpenAI의 Agent는 사용자가 목표를 제시하면 스스로 계획하고 실행합니다.
- Google Gemini는 인간의 요청 없이도 Gmail, Docs, Sheets 등에서 문맥 기반 제안을 수행합니다.
- Microsoft Copilot Studio는 맞춤형 에이전트를 설계해 업무 프로세스에 통합할 수 있도록 합니다.
이러한 시스템은 이미 “AI와 협력하는 인간”의 시대를 열었습니다. 하지만 협력이 깊어질수록, 인간은 AI의 판단을 과신(overtrust)할 위험에 놓이게 됩니다. MIT 미디어랩(2024)은 이렇게 경고했습니다.
“AI 협업 환경에서 인간의 가장 큰 리스크는 무지가 아니라 과신(Overtrust)이다.”
즉, 인간이 AI의 결정을 비판 없이 수용하면, 판단의 책임은 여전히 인간에게 남아 있음에도 불구하고 사고의 주권이 기술로 이전됩니다. 이 리스크를 통제하고, 기술과 사고의 관계를 재구성하기 위한 핵심 능력이 바로 에이전트 리터러시입니다.
AI와 함께 사고하되, 사고의 주도권은 인간에게 🏃🏻
에이전트 리터러시는 AI 리터러시의 심화된 형태로, 단순한 ‘AI 활용 능력’이 아닌 ‘AI를 통한 사고 구조의 확장과 감독’을 다루는 역량 체계입니다.
1️⃣ 기술적 이해력 (Technical Literacy)
AI의 내부 작동 원리, 데이터 품질, 모델의 한계와 편향을 해석할 수 있는 능력입니다. 이는 단순히 “AI가 무엇을 할 수 있는가”를 아는 수준이 아니라, AI의 판단이 어떤 데이터와 알고리즘적 전제 위에 형성되는가를 비판적으로 읽어내는 능력입니다.
2️⃣ 비판적 해석력 (Critical Literacy)
AI의 결과를 무비판적으로 수용하지 않고, 그 타당성과 윤리성을 검증하며 재해석할 수 있는 능력입니다. AI의 응답은 언제나 문화적, 가치적 맥락 위에서 구성된 것이기에, 그 결과가 어떤 시각의 산물인지 파악하는 비판적 감수성이 필요합니다.
3️⃣ 사고 확장력 (Cognitive Extension Literacy)
AI를 인간 사고를 확장하는 인지적 파트너(Thinking Extender)로 활용하는 능력입니다. AI는 인간의 사고를 대체하는 존재가 아니라, 사고의 깊이와 범위를 넓히는 도구적 동반자입니다. 사고 확장력은 “AI가 나를 대신 생각해주는가?”의 문제가 아니라, “AI를 통해 내가 더 멀리, 더 깊게 생각할 수 있는가?”의 문제입니다. 이 차원에서 인간은 AI의 사고를 통제하기보다, AI를 활용해 자신의 사고 구조를 메타적으로 확장·점검하는 존재로 자리합니다.

생성형 AI로 제작된 이미지
‘AI를 이해하는 인간’에서
‘AI를 통해 사고를 확장하는 인간’으로 🙋
AI 리터러시는 AI를 이해하고, 효율적으로 활용하는 기술적 능력에 초점을 둡니다. 즉, AI가 제공하는 기능과 한계를 인식하고, 이를 과업에 적용할 수 있는 실용적 문해력입니다. 반면, 에이전트 리터러시는 한 단계 더 나아가 AI와 함께 사고하고, 그 사고를 감독하는 능력입니다. AI를 단순한 작업 도구로 보는 것이 아니라, 인간 사고를 확장하는 인지 시스템으로 바라봅니다.

예를 들어, 기업 전략 담당자가 AI 리서치 에이전트를 활용한다고 합시다.
- AI 리터러시는 AI가 제시한 데이터를 이해하고, 분석 결과를 효율적으로 활용하는 능력입니다.
- 에이전트 리터러시는 그 데이터의 맥락과 한계를 검토하고, AI의 분석이 누락한 시나리오를 인간의 비판적 사고로 보완하는 능력입니다.
즉, AI 리터러시는 ‘AI를 다루는 힘’, 에이전트 리터러시는 ‘AI를 통해 사고를 확장하고 감독하는 힘’입니다.
AI 시대의 지적 주권을 지키는 힘, 에이전트 리터러시 🤖
에이전트 리터러시는 단지 기술을 배우는 과정이 아닙니다. 그것은 인간이 AI 시대에도 사고의 주체로 남기 위한 철학적 교양입니다. AI는 사고를 보조하지만, 의미를 부여하고 방향을 결정하는 힘은 여전히 인간에게 있습니다. AI가 사고를 자동화할수록, 인간은 사고의 감독자(Overseer of Thinking)로서의 책임을 강화해야 합니다.
그래서 에이전트 리터러시는 AI를 단순한 도구(tool)가 아닌 사고 확장자(Thinking Extender)로 인식하면서, 인간의 지적 주권(intellectual sovereignty)을 지키는 새로운 형태의 시민 교양입니다.
그럼 다음 뉴스레터에서 만나요! 🤗
안녕하세요, 10월 넷째주 뉴스레터로 인사드려요! 😆
이번에는 ‘에이전트 리터러시’를 주제로, AI와 함께 사고의 범위를 어떻게 넓힐 수 있을지 차근차근 이야기해 보려 합니다. 그럼 시작해 볼까요?
‘AI를 사용할 줄 아는 능력’에서
‘AI와 함께 사고를 확장하는 능력’으로 🧠
AI가 인간의 지적 활동에 깊숙이 개입하기 시작한 지금, 단순히 AI를 ‘활용할 줄 아는 능력’만으로는 충분하지 않습니다. ‘AI 리터러시(AI Literacy)’가 AI의 작동 원리와 활용 방법을 이해하는 기술적 역량이라면, ‘에이전트 리터러시(Agent Literacy)’는 한 단계 더 나아가 AI를 통해 인간의 사고를 확장하고, 그 과정의 한계를 비판적으로 감독할 수 있는 능력을 의미합니다. 즉, 에이전트 리터러시는 AI를 단순한 도구(tool)가 아닌 사고 확장자(Thinking Extender)로 인식하면서, 인간의 지적 주권(intellectual sovereignty)을 지키는 새로운 형태의 시민 교양입니다.
생성형 AI로 제작된 이미지
AI는 더 이상 도구가 아니다 🛠
AI의 발전은 “보조적 기술”의 차원을 넘어, 이제 사고와 판단의 일부를 외주화할 수 있는 지적 행위자(Agent)의 수준에 이르렀습니다.
이러한 시스템은 이미 “AI와 협력하는 인간”의 시대를 열었습니다. 하지만 협력이 깊어질수록, 인간은 AI의 판단을 과신(overtrust)할 위험에 놓이게 됩니다. MIT 미디어랩(2024)은 이렇게 경고했습니다.
“AI 협업 환경에서 인간의 가장 큰 리스크는 무지가 아니라 과신(Overtrust)이다.”
즉, 인간이 AI의 결정을 비판 없이 수용하면, 판단의 책임은 여전히 인간에게 남아 있음에도 불구하고 사고의 주권이 기술로 이전됩니다. 이 리스크를 통제하고, 기술과 사고의 관계를 재구성하기 위한 핵심 능력이 바로 에이전트 리터러시입니다.
AI와 함께 사고하되, 사고의 주도권은 인간에게 🏃🏻
에이전트 리터러시는 AI 리터러시의 심화된 형태로, 단순한 ‘AI 활용 능력’이 아닌 ‘AI를 통한 사고 구조의 확장과 감독’을 다루는 역량 체계입니다.
1️⃣ 기술적 이해력 (Technical Literacy)
AI의 내부 작동 원리, 데이터 품질, 모델의 한계와 편향을 해석할 수 있는 능력입니다. 이는 단순히 “AI가 무엇을 할 수 있는가”를 아는 수준이 아니라, AI의 판단이 어떤 데이터와 알고리즘적 전제 위에 형성되는가를 비판적으로 읽어내는 능력입니다.
2️⃣ 비판적 해석력 (Critical Literacy)
AI의 결과를 무비판적으로 수용하지 않고, 그 타당성과 윤리성을 검증하며 재해석할 수 있는 능력입니다. AI의 응답은 언제나 문화적, 가치적 맥락 위에서 구성된 것이기에, 그 결과가 어떤 시각의 산물인지 파악하는 비판적 감수성이 필요합니다.
3️⃣ 사고 확장력 (Cognitive Extension Literacy)
AI를 인간 사고를 확장하는 인지적 파트너(Thinking Extender)로 활용하는 능력입니다. AI는 인간의 사고를 대체하는 존재가 아니라, 사고의 깊이와 범위를 넓히는 도구적 동반자입니다. 사고 확장력은 “AI가 나를 대신 생각해주는가?”의 문제가 아니라, “AI를 통해 내가 더 멀리, 더 깊게 생각할 수 있는가?”의 문제입니다. 이 차원에서 인간은 AI의 사고를 통제하기보다, AI를 활용해 자신의 사고 구조를 메타적으로 확장·점검하는 존재로 자리합니다.
생성형 AI로 제작된 이미지
‘AI를 이해하는 인간’에서
‘AI를 통해 사고를 확장하는 인간’으로 🙋
AI 리터러시는 AI를 이해하고, 효율적으로 활용하는 기술적 능력에 초점을 둡니다. 즉, AI가 제공하는 기능과 한계를 인식하고, 이를 과업에 적용할 수 있는 실용적 문해력입니다. 반면, 에이전트 리터러시는 한 단계 더 나아가 AI와 함께 사고하고, 그 사고를 감독하는 능력입니다. AI를 단순한 작업 도구로 보는 것이 아니라, 인간 사고를 확장하는 인지 시스템으로 바라봅니다.
예를 들어, 기업 전략 담당자가 AI 리서치 에이전트를 활용한다고 합시다.
즉, AI 리터러시는 ‘AI를 다루는 힘’, 에이전트 리터러시는 ‘AI를 통해 사고를 확장하고 감독하는 힘’입니다.
AI 시대의 지적 주권을 지키는 힘, 에이전트 리터러시 🤖
에이전트 리터러시는 단지 기술을 배우는 과정이 아닙니다. 그것은 인간이 AI 시대에도 사고의 주체로 남기 위한 철학적 교양입니다. AI는 사고를 보조하지만, 의미를 부여하고 방향을 결정하는 힘은 여전히 인간에게 있습니다. AI가 사고를 자동화할수록, 인간은 사고의 감독자(Overseer of Thinking)로서의 책임을 강화해야 합니다.
그래서 에이전트 리터러시는 AI를 단순한 도구(tool)가 아닌 사고 확장자(Thinking Extender)로 인식하면서, 인간의 지적 주권(intellectual sovereignty)을 지키는 새로운 형태의 시민 교양입니다.
그럼 다음 뉴스레터에서 만나요! 🤗