본문 바로가기

인공지능 반도체

(22)
일론 머스크, 한국 AI·반도체 인재 러브콜 머스크가 한국 인재에게 직접 러브콜→ 일론 머스크 테슬라 CEO가 자신의 SNS에 태극기 이모티콘 16개를 올리고 한국 인재를 공개 모집했다.SNS 플랫폼은 엑스(X)→ 머스크는 엑스(X, 옛 트위터)에 게시물을 공유하며 채용을 홍보했다.공개한 채용 분야→ 모집 분야는 AI 칩 설계 · 제조(팩/팹) · 인공지능 소프트웨어 등 전문 엔지니어.테슬라코리아가 먼저 공고 게시→ 15일 테슬라코리아 계정에서 AI 칩 엔지니어 채용 공고가 먼저 올라왔다.글로벌 AI 반도체 경쟁 속 맥락→ 테슬라는 자율주행, AI 로봇 등 미래 사업 확대를 위한 AI 칩 역량 강화가 필요하다고 보고 있음.구체적 메시지 내용→ “한국에 거주하며 반도체·AI 관련 일을 하고 싶다면 테슬라에 지원하라”는 직접적 구인 안내.인재 확보 경..
대한민국, 온디바이스 AI 반도체 투자 계획 한국 정부는 향후 5년간 약 1조 원 규모를 투입해 ‘K-온디바이스 AI 반도체 공동 개발 프로젝트’를 추진한다. 정부 예산과 민간 투자를 결합한 대형 R&D 사업으로, 산업통상자원부가 주도한다. 목표와 범위자율주행차, 로봇, 스마트가전, 방산, 스마트폰 등 다양한 기기에 탑재되는 온디바이스 AI 반도체 10종 이상을 개발·상용화하는 것이 목표다. 데이터센터 중심이 아닌 기기 내 AI 연산(엣지 AI) 경쟁력을 확보하는 데 초점을 둔다. 추진 방식국내 팹리스(설계), 파운드리, 소프트웨어, 시스템 기업이 함께 참여하는 공동 개발 구조를 채택한다. 개발 → 실증 → 양산 → 확산까지 전 주기 지원 체계를 구축한다. 정책적 의미엔비디아 등 해외 AI 반도체 의존도를 낮추고, 국가 전략기술로서 AI 칩 자립도..
엔비디아, 게이밍 GPU 전략 변화 엔비디아가 2026년 신규 게이밍 GPU(GeForce/RTX) 출시를 하지 않거나 연기하는 방안을 검토 중이다. 이는 메모리(HBM) 공급 부족이 주된 원인으로 지목된다. (글로벌경제뉴스)업계 보고에 따르면 2026년 RTX 50 시리즈의 신제품(예: RTX 5080 Super 등) 출시/양산이 우선순위에서 밀려나거나 연기되고 있다. (Tom's Hardware)메모리 반도체, 특히 HBM(고대역폭 메모리) 공급 부족이 심각해 AI 데이터센터용 GPU에 메모리가 우선 할당되는 전략이 시행되고 있다. (글로벌경제뉴스)이로 인해 엔비디아는 게이밍 GPU 부문을 당분간 후순위로 두고 AI 가속기/데이터센터 GPU에 자원 집중하는 방향으로 사업 전략을 조정하는 것으로 알려졌다. (Nate News)이는 약 3..
KAIST, 엔비디아보다 2.1배 빠른 AI 반도체 기술 개발 기술명 ‘오토GNN(AutoGNN)’ : 그래프 신경망(GNN) 추론에 특화된 AI 반도체 기술 개발. (미래를 보는 창 - 전자신문)개발 주체 : KAIST 전기및전자공학부 정명수 교수 연구팀. (미래를 보는 창 - 전자신문)주요 성능 : 엔비디아 고성능 GPU(NVIDIA RTX3090 기준) 대비 추론 속도 최대 2.1배 빠름. (지디넷코리아)전력 효율 : 동일 작업 대비 전력 소비는 크게 감소3.3배 이상 효율적이라는 평가도 있음. (지디넷코리아)핵심 해결 과제 : 전통 GPU는 그래프 데이터 전처리 연산에서 병목이 발생KAIST 기술은 이 병목 구간을 반도체 내부 구조로 최적화하여 제거함. (다음)전처리 최적화 : 추론 이전의 그래프 전처리가 전체 처리 시간의 70~90%를 차지한다는 점을 연구..
인텔, GPU를 만들겠다 공식 발표 인텔 CEO 립부 탄이 “인텔이 GPU를 만들겠다”고 공식 발언하며(주로 데이터센터/AI용 GPU 겨냥) 엔비디아 중심 시장에 재진입·확장 의지를 공개. (Reuters)추진 방식 : 외부 핵심 인재 영입(퀄컴 출신 Eric Demmers 등)을 통해 GPU 아키텍처 리더십을 강화했고, 고객과 함께 요구사항을 정의(고객 맞춤 설계)하겠다는 접근을 강조. (Reuters)시장 : “CPU 회사” 이미지에서 벗어나 AI 컴퓨팅(가속기) 라인업을 보강해 데이터센터 포트폴리오를 재구성하려는 시도(엔비디아 GPU 생태계 의존을 줄이려는 산업 흐름과도 맞물림). (조선일보)핵심 이슈 2( 1.4nm 파운드리 = Intel 14A )인텔은 파운드리 로드맵에서 14A(‘1.4나노급’로 불리는 공정)에 대해 “고객 관심..
삼성, HBM4 공급(루빈) 가시화로 반도체 판 흔들릴 수도... 팩트체크 : (1) SK하이닉스가 루빈용 HBM4 물량의 ‘다수(약 2/3)’를 선점했고, (2) 삼성은 HBM4를 2026년 2월 전후 양산/출하로 추격, (3) TSMC 패키징(CoWoS) 병목이 전체 공급을 좌우하는 구도가 동시에 진행 중. (TrendForce)‘루빈(Rubin) 탑재 임박’의 의미(현실적인 해석) : 루빈 플랫폼(차세대 엔비디아 AI 가속기)용 HBM4는 샘플→최종 퀄(Qual)→양산·출하 절차를 밟는데, 삼성은 양산/출하가 2월(중순)로 임박했다는 보도가 다수. 엔비디아가 삼성에 조기 공급을 요구했다는 보도도 있어 ‘임박’ 프레이밍이 강화됨. (Reuters)SK하이닉스의 ‘우위’(확인 가능한 포인트) : 여러 보도에서 엔비디아가 루빈용 HBM4 수요의 약 2/3(최대 70% ..
아람코와 풀스택 협력한 AI기업 컨소시엄 AI 반도체·모델·클라우드 인프라 등 전 과정을 아우르는 ‘한국형 AI 풀스택’ 패키지를 사우디 산업에 적용·공급. (경향신문)한국형 패키지는 단일 기술이 아닌 풀스택 엔드-투-엔드 솔루션 형태. (대한일보)참여 기업 7곳AI 반도체: 리벨리온, 퓨리오사AI.산업 특화 AI 모델: NC AI, 업스테이지, LG AI연구원.LLM 운영/서비스: 유라클.클라우드/AI 인프라: 메가존클라우드.사우디 측: 아람코 디지털, 에너지·제조 등 대규모 산업 현장 AI 전환 주도. (노컷뉴스) 협력 대상 및 역할AI 반도체 공급·최적화: 현지 산업에 맞는 AI 칩 제공. (AI타임스)산업 특화 LLM 적용: 현장용 특화 대형언어모델 제공. (AI타임스)클라우드/AI 인프라: 구축·운영 기술 지원. (AI타임스)LLM 운..
MS, 2세대 AI 가속기 Azure Maia 200(마이아 200) 공개 마이크로소프트가 자체 설계 2세대 AI 가속기 ‘Azure Maia 200(마이아 200)’를 공개(마이아100 공개 후 약 2년). 대규모 모델 ‘추론(inference)’에 최적화된 칩/시스템이라는 점을 전면에 내세움. Maia 200은 “칩 1개” 발표가 아니라 클라우드(Azure)에서 ‘추론 비용/개발자 생태계/확장 네트워크’까지 묶어 엔비디아·구글·아마존과 경쟁하려는 풀스택(실리콘→시스템→소프트웨어) 전략의 강화판으로 볼 수 있음.생성형 AI 서비스에서 비용을 좌우하는 ‘토큰 생성(추론) 경제성’을 낮추는 것이 핵심 목표라고 명시.엔비디아 의존도를 줄이기 위한 하드웨어(칩) + 소프트웨어(개발도구) 동시 공세로 해석됨(로이터). 핵심 사양/구성(공식/보도 기반)TSMC 3nm 공정 기반.트랜지스..