인공지능 관련 뉴스@기사

말하지않고 AI에게 명령 ; 뇌파, 입모양...

인공지능 비즈니스 매칭센터(AX Planable) 2026. 3. 27. 10:35
  • AI 명령 방식이말로 하는 음성 명령에서소리 없이 의도를 읽는 명령으로 진화하고 있습니다. (조선일보)
  • 사용되는 신호는 크게 뇌파(EEG·BCI), 근육 신호(EMG), 입·혀·턱 움직임(무언 발화 / silent speech)으로 나뉩니다. (Emergent Mind)
  • 쉽게 말하면, 입만 움직이거나 속으로 말해도 AI가 명령을 이해하는 기술입니다. (조선일보)
  • 음성 AI는 편리하지만, 소음 환경·사생활 노출·공공장소 사용성에 한계가 있습니다. (ResearchGate)
  • 반면 무언 인터페이스는 조용하게 사용 가능, 프라이버시 보호, 장애·질환 보조, 웨어러블과 결합 용이 하다는 장점이 있습니다. (Nature)
  • 특히 AI 안경·이어버드·헤드셋·목 밴드와 결합되면, 손과 입을 거의 쓰지 않는 자연스러운 인터페이스가 될 수 있습니다. (Facebook)
  • 의료용 BCI(-컴퓨터 인터페이스)는 이미 마비 환자의 생각·내적 발화(inner speech)를 텍스트나 음성으로 복원하는 수준까지 발전했습니다. (Nature)
  • 비침습형(웨어러블) 기술은 뇌에 칩을 심지 않고도, ··얼굴 근육의 미세 신호를 읽어 명령을 인식하는 방향으로 빠르게 발전 중입니다. (MDPI)
  • , 생각만으로 AI 제어는 아직 제한적이지만, “입 모양·근육 신호로 조용히 AI 제어는 상용화에 훨씬 가까운 단계입니다. (Axios)
  • 이 기술은 단순 음성비서 대체가 아니라, 차세대 운영체제(OS) 입력 방식이 될 가능성이 있습니다. (더퍼블릭)
  • 앞으로 AI 인터페이스 경쟁은
  • 특히 AR 글래스, 스마트 이어폰, 헬스케어, 장애 보조, ·산업 현장에서 빠르게 채택될 가능성이 큽니다. (Facebook)
  • 아직은 정확도, 사용자별 편차, 센서 착용 편의성, 장시간 사용성 문제가 남아 있습니다. (arXiv)
  • 특히 뇌파 기반 기술은 잡음이 많고, 비침습형은 생각을 정확히 읽기보다 발화 의도근육 패턴을 읽는 수준인 경우가 많습니다. (Axios)
  • 또한 가장 큰 이슈는 생각·의도·생체신호 프라이버시입니다. , 기술이 좋아질수록내 머릿속 정보가 어디까지 읽히는가라는 윤리 문제가 커집니다. (Cell)

[1]: https://www.chosun.com/economy/tech_it/2026/03/26/OSLKWJUQMZDAVIQJPFHE36SNFU/ "음성 대신 뇌파·입 모양으로… AI에 명령 내린다"
[2]: https://www.chosun.com/english/industry-en/2026/03/26/HHJKG4PXGJENDHCSFBCCH62H4M/ "Silent Commands to AI via Brainwaves and Lip Movements Emerge"
[3]: https://www.emergentmind.com/topics/silent-speech-interfaces "Silent Speech Interfaces: Biosignal Decoding"
[4]: https://www.researchgate.net/publication/401911258_Silent_Speech_Interfaces_in_the_Era_of_Large_Language_Models_A_Comprehensive_Taxonomy_and_Systematic_Review "(PDF) Silent Speech Interfaces in the Era of Large Language Models"
[5]: https://www.nature.com/articles/s41467-025-68228-9 "Wearable intelligent throat enables natural speech in stroke patients ..."
[6]: https://www.facebook.com/WIONews/posts/ai-wearables-at-ces-2026-headsets-and-earbuds-track-brain-sleep-and-diseasesoftw/1243136624592176/ "AI wearables at CES 2026: Headsets and earbuds track ..."
[7]: https://www.nature.com/articles/s41586-023-06377-x "A high-performance speech neuroprosthesis - Nature"
[8]: https://www.mdpi.com/1424-8220/25/8/2624 "A Wearable Silent Text Input System Using EMG and ..."
[9]: https://www.axios.com/2025/09/08/startup-query-ai-silent-speech-neural-interface "Exclusive: Startup lets you query AI with silent speech"
[10]: https://www.thepublic.kr/news/articleViewAmp.html?idxno=298872 "\"말 안 해도 알아듣는다\"… AI 업계, 차세대 '무언 명령' 기술 ..."
[11]: https://arxiv.org/abs/2509.21964 "A Parallel Ultra-Low Power Silent Speech Interface based on a Wearable, Fully-dry EMG Neckband"
[12]: https://www.cell.com/cell/fulltext/S0092-8674%2825%2900681-6 "Inner speech in motor cortex and implications for ... - Cell Press"
[13]: https://stat.kisdi.re.kr/kor/statNews/MediaTrandList.html "뉴스속 ICT 통계 - 미디어통계포털 - 정보통신정책연구원"
[14]: https://www.ft.com/content/6bf4ef14-932b-4b2b-8d64-fac10fbfd43c "Scientists develop brain implant capable of decoding inner speech"
[15]: https://www.livescience.com/health/neuroscience/new-brain-implant-can-decode-a-persons-inner-monologue "New brain implant can decode a person's 'inner monologue'"
[16]: https://www.researchgate.net/publication/390335479_Brain-computer_interfaces_in_2023-2024 "(PDF) Brain–computer interfaces in 2023–2024 - ResearchGate"
[17]: https://www.nature.com/articles/s41551-025-01467-9 "Invasive neurophysiology and whole brain connectomics for neural ..."
[18]: https://arxiv.org/abs/2506.13835 "A Silent Speech Decoding System from EEG and EMG with Heterogenous Electrode Configurations"
[19]: https://arxiv.org/abs/2603.02847 "SilentWear: an Ultra-Low Power Wearable System for EMG-based Silent Speech Recognition"
[20]: https://arxiv.org/abs/2602.06460 "EMG-to-Speech with Fewer Channels"
[21]: https://arxiv.org/html/2603.11715v2 "Affect Decoding in Phonated and Silent Speech Production ... - arXiv"