본문 바로가기

인공지능 관련 뉴스@기사

튜링의 상상이 현실로, AI, 일반지능 됬나?

“AI가 이미 일반 지능(AGI)’ 수준에 도달했다는 주장은 UC 샌디에이고(UCSD) 연구진이 네이처 코멘트에서 전개한 논지를 국내 매체가 소개하며 확산된 것임. UCSD

  • 핵심은 (1) AGI완벽·전지·초지능으로 오해하지 말고, (2) 인간도 불완전한데 AI에만 과도한 기준을 요구하지 말며, (3) 행동/문제해결 능력의 누적 증거로 일반성()과 깊이(성능)’을 보자는 주장임. UCSD
  • 동시에, 이 주장은 AGI 정의 자체가 합의되지 않았고 평가도 논쟁적이어서, “이미 도달 사실 확정이라기보다 정의/기준을 어떻게 잡느냐에 따른 결론으로 보는 게 정확함. (평가·정책 문서들도 위험/책임프레임을 강조) Google DeepMind
  • 튜링(1950)의 문제제기(기계가 생각할 수 있는가)  : 대화 기반 판별(튜링 테스트) 아이디어로 이어짐. (원문은 모방 게임’) DeepMind AGI Levels 논문(PDF)
  • UCSD 측은 튜링이 상정한 인간과 다른 형태의 지능도 가능하다는 맥락에서, 오늘날 LLM이 다영역에서 높은 수행을 보이므로 합리적 기준에선 AGI로 볼 수 있다고 주장. UCSD
  • 국내 기사들은 이를 튜링의 상상이 현실, “일반 지능 수준 도달로 요약·전달. 동아사이언스
  • 다만 같은 기사/해설에서도 전문가 다수가 아직이라고 보거나, 현재 접근(스케일링/LLM)만으로 인간수준 도달이 어렵다는 설문 등을 함께 언급해 논쟁이 있음을 시사. 동아사이언스

이미 일반 지능 도달UCSD 연구진의 ‘AGI를 어떻게 정의하느냐에 기반한 주장으로, 일부 합리적 정의에서는 성립할 수 있음. UCSD

하지만 학계/산업/정책 전반의 합의된 판정으로 보기엔, (1) 정의가 갈리고 (2) 평가가 불안정하며 (3) 고난도 일반화·추론·자율성·안전 문제가 남아 있어 논쟁적 제목(헤드라인) 성격이 강함. ARC Prize

 

1. UCSD가 “AGI가 이미 왔다”는 주장과 논지(‘폭/깊이’, 인간과의 공정비교 등)를 소개. [UCSD](https://today.ucsd.edu/story/is-artificial-general-intelligence-here) 
2. 위 UCSD 내용이 네이처 코멘트(초청 코멘트)와 연결된다는 설명 포함. [UCSD](https://today.ucsd.edu/story/is-artificial-general-intelligence-here) 
3. 국내에서 해당 주장을 요약·소개한 기사(“AI, 이미 ‘일반 지능’ 수준 도달…”) [동아사이언스](https://www.dongascience.com/news/76222) 
4. 같은 이슈를 다룬 국내 해설 기사(튜링 테스트/‘사람처럼 생각’ 논쟁) [ZDNET Korea](https://zdnet.co.kr/view/?no=20260204210553) 
5. DeepMind: AGI가 “향후 수년 내” 가능하며, 안전/책임 있는 경로를 강조. [Google DeepMind](https://deepmind.google/blog/taking-a-responsible-path-to-agi/) 
6. DeepMind 연구(‘Levels of AGI’): AGI를 **일반성×성능** 레벨로 분류하고, 튜링 테스트의 한계를 언급. [DeepMind AGI Levels 논문(PDF)](https://arxiv.org/pdf/2311.02462) 
7. ARC Prize: o3의 ARC-AGI 점프(75.7%, 고연산 87.5%)를 공개하면서도 “ARC-AGI 통과=AGI 아님”, “o3는 AGI 아님”을 명시. [ARC Prize](https://arcprize.org/blog/oai-o3-pub-breakthrough) 
8. Nature(벤치마크/AGI 평가 방법 논의): o3의 ARC-AGI 성과와 “어떻게 인간급 지능을 시험할 것인가” 이슈를 다룸. [Nature](https://www.nature.com/articles/d41586-025-00110-6) 
9. Stanford AI Index 2025: 최신 벤치마크 성능 상승과 함께 “복잡 추론은 여전히 도전”을 ‘Top Takeaways’로 명시. [Stanford AI Index 2025 (PDF)](https://hai.stanford.edu/assets/files/hai_ai_index_report_2025.pdf) 
10. NIST AI RMF 1.0: AI 위험(안전·보안·편향·투명성 등) 관리 프레임 제시(‘신뢰할 수 있는 AI’ 중심). [NIST AI RMF 1.0 (PDF)](https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf) 
11. EU AI Act 정의(Article 3): AI 시스템 정의 및 위험 개념 등 제시(일반 목적 모델/시스템 리스크 논의의 기반). [EU AI Act Article 3](https://artificialintelligenceact.eu/article/3/) 
12. EU 집행위 Q&A: 범용(GPAI) 모델과 시스템적 위험 등 해석을 돕는 문서(정책적 프레임). [European Commission Q&A](https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers) 
13. MIT Tech Review: AGI 담론을 ‘신화/서사’로 비판하며 정의 불명확성과 과장 문제를 지적. [MIT Technology Review](https://www.technologyreview.com/2025/10/30/1127057/agi-conspiracy-theory-artifcial-general-intelligence/) 
14. AI Now Institute: AGI 담론이 시장/정책을 왜곡할 수 있다는 비판적 분석(“AGI mythology”). [AI Now Institute](https://ainowinstitute.org/publications/research/1-1-the-agi-mythology-the-argument-to-end-all-arguments)