본문 바로가기

인공지능 관련 뉴스@기사

인공지능 클로드(Claude)에게 양심 가르치는 철학자

어맨다 애스켈 (Amanda Askell)

스코틀랜드 출신의 철학자이자 AI 윤리 담당자.

AI 기업 Anthropic의 상주 철학자. Claude에게 도덕 감각과 양심을 부여하는 책임을 맡음. (뉴시스)

Claude를 친절하고 윤리적이며 책임감 있는 AI로 작동하도록 훈련함. (뉴시스)

 

윤리·도덕 교육 방식 : Claude의 추론 패턴을 관찰하고 직접 대화를 통해 도덕적 판단 능력을 개선.

 

대량의 교육 지침 작성 : 애스켈은 Claude에게 윤리/도덕 기준을 심어주는 30,000단어 이상 문서(‘소울 매뉴얼’)를 작성함.

 

비유적 접근 : Claude의 철학적·도덕적 형성은 부모가 자녀를 길러내는 과정에 비유됨

 

윤리적 판단과 ‘좋고 나쁨’ 구분 능력 : Claude가 단순 규칙을 따르는 것 이상의 윤리적 판단 능력을 갖추도록 설계됨.

 

‘양심’과 자기 이해 : 애스켈은 Claude가 자신의 정체성과 윤리적 행동을 스스로 이해할 수 있도록 돕는 방향으로 훈련함.

 

철학적 배경 : 애스켈의 연구는 윤리학·윤리적 행동 판단 심화에 기반하며, 박사 논문 주제도 윤리 이론과 관련됨.

 

윤리적 강조 영역 : 단순 안전성 너머, 공감, 정직, 실천적 지혜(phronesis) 같은 덕목을 Claude에게 내재화하려는 방향성이 부각됨.

 

AI 윤리 일반 이슈 및 기준 : UNESCO 등 국제기구도 AI 윤리·도덕적 행동 규범의 필요성을 강조함.

 

AI에 도덕적 교육이 필요한 이유 : AI는 데이터 기반 추론만으로는 윤리적 판단을 내리지 못하기 때문에 명시적 윤리 지도와 학습이 필요함(Delphi 사례).

 

 

[1]: https://www.newsis.com/view/NISX20260210_0003509005 "인공지능 클로드가 양심 갖도록 가르치는 철학자 :: 공감언론 뉴시스 ::"
[2]: https://www.livemint.com/ai/artificial-intelligence/this-philosopher-is-teaching-ai-to-have-morals/amp-11770641685964.html "This philosopher is teaching AI to have morals"
[3]: https://en.wikipedia.org/wiki/Amanda_Askell "Amanda Askell"
[4]: https://www.vox.com/future-perfect/476614/ai-claude-constitution-soul-amanda-askell "Claude has an 80-page \"soul document.\" Is that enough to make it good?"
[5]: https://www.unesco.or.kr/wp-content/uploads/2024/06/%EC%9C%A0%EB%84%A4%EC%8A%A4%EC%BD%94-%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5AI-%EC%9C%A4%EB%A6%AC-%EA%B6%8C%EA%B3%A0-%ED%95%B4%EC%84%A4%EC%84%9C.pdf "유네스코 인공지능(AI) 윤리 권고 해설서"
[6]: https://arxiv.org/abs/2110.07574 "Can Machines Learn Morality? The Delphi Experiment"