대만 폭스콘은 올해 전체 서버 매출 중 ‘AI 서버'가 차지하는 비중이 40%를 돌파할 전망이라고 14일 밝혔다. 지난해 30% 수준에서 10% 포인트 재차 높아지는 것이다. 그러면서 올해 회사 성장률 전망을 ‘중립적'에서 ‘견고한 성장'으로 변경했다. 최근 애플 아이폰의 중국 내 판매 정체에도 불구하고 AI 서버 매출이 워낙 탄탄해 전사 매출 성장을 이끌 것으로 본 것이다. 폭스콘이 말하는 AI 서버란 기존 데이터 센터에 들어가는 CPU(중앙처리장치)⋅메모리 중심의 서버가 아니라 GPU(그래픽처리장치)⋅NPU(신경망처리장치) 중심
◇ 국표원, 반도체·모빌리티 등 국제표준 개발에 45억원 지원산업통상자원부 국가기술표준원은 첨단산업 분야 국제표준 선점을 위해 '2024년 1차 국가표준기술력 향상 사업' 신규 과제를 공고하고 40개 과제에 총 45억800만원을 지원한다고 7일 밝혔다.이 사업은 국제표준화기구(ISO/IEC) 및 사실상 표준화 기구(IEEE 등)에 우리 기술을 국제표준으로 제안하고, 국내·외 산업 환경 변화에 따른 표준 정책 발굴과 대응을 지원하기 위한 연구개발(R&D) 사업이다.국표원은 올해 반도체, 미래 모빌리티, 무탄소 에너지 전환 등 초격차
퀘벡시, 2024년 1월 31일 /PRNewswire/ -- 특허를 받았으며 혁신적인 AI 기반 저수준 센서 융합 및 인식 소프트웨어 기술인 레다비전(LeddarVision)을 ADAS, AD 및 주차 애플리케이션에 공급하는 자동차 소프트웨어 회사 레다텍(LeddarTech®(나스닥: LDTC))은 2023년 9월 30일에 종료된 전체 회계연도의 사업 실적을 오늘 제공하게 되어 기쁘게 생각한다. 프란츠 생텔리미(Frantz Saintellemy) 레다텍 사장 겸 CEO는 "상장회사로서 우리의 첫 번째 재무 실적을 보고하게 되어 기...
NVIDIA DGX BasePOD 인증을 완료하여 당사는 NVIDIA DGX SuperPOD 인증을 목표로 설정했습니다 캠벨, 캘리포니아주, 2024년 1월 11일 /PRNewswire/ -- AI를 위한 데이터 플랫폼 제공업체인 WekaIO(WEKA)가 오늘 NVIDIA DGX H100 시스템 및 WEKA Data® 플랫폼에 구축된NVIDIA DGX BasePOD™ 참조 아키텍처 인증을 받았다고 발표했습니다. 이 랙 밀집형 아키텍처는 8개의 랙 유닛에서 600gb/s 및 22M IOPs에서 시작하는 막대한 데이터 스토리지 처리...
PC 브랜드로 유명한 대만 아수스텍이 미국 현지에 AI(인공지능) 서버 생산시설을 짓는다. 생성형 AI 서비스가 확대되면서 북미 지역에서도 AI 서버 수요가 늘어날 것으로 전망된데 따른 대응이다. 재키추 아수스텍 수석부사장은 일본 닛케이아시아와 가진 인터뷰에서 “북미 고객사들이 현지에서 생산대응 해주기를 원하고 있다”며 “2024년부터 미국 내 AI 서버 생산시설 건설에 나설 것”이라고 말했다. AI 서버는 CPU(중앙처리장치)⋅메모리 중심의 일반 데이터센터용 서버와 달리 GPU(그래픽처리장치)⋅NPU(신경망처리장치)⋅TPU(텐서처
AI 컴퓨팅 기술 선두주자인 엔비디아(www.nvidia.co.kr)는 엔비디아 A100 텐서 코어 GPU(NVIDIA Tensor Core A100 GPU)가 네이버 슈퍼컴퓨터 세종(Sejong)에 탑재된다고 15일 밝혔다.슈퍼컴퓨터가 위치한 지역의 명칭이자 한글 데이터의 생성과 확산에 전환점을 마련한 세종대왕의 뜻을 기린 슈퍼컴퓨터 ‘세종’은 엔비디아 A100 텐서 코어 GPU 2,240개로 구성된다. 엔비디아 A100 텐서 코어 GPU는 엔비디아 암페어(Ampere) 아키텍처로 구동되며, 이전 세대보다 최대 20배 더 높은 성
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 엔비디아(NVIDIA) HGX™ H200을 출시한다고 14일 밝혔다.이 플랫폼은 엔비디아 호퍼(Hopper™) 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU(H200 Tensor Core GPU)를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리할 수 있다. 이번 HGX H200 출시로 세계 최고 AI 컴퓨팅 플랫폼을 가속화할 수 있을 것으로 기대된다.엔비디아 H200은 HBM3e를 제공하는 최초
숨가쁘게 변화하는 산업 환경에서 매주 기업들 소식이 쏟아져 나옵니다. KIPOST는 다양한 전자 제조 관련 기업들의 사업 전략과 수행 실적을 엿볼 수 있는 정보들을 일주일간 한 데 모아 제공합니다.
클라우드 및 엣지 컴퓨팅 기업인 지코어(Gcore, https://gcore.com)는 엔비디아 A100·H100 GPU로 구동되는 ‘생성형 AI 클러스터(Generative AI Cluster)’를 구축했다고 26일 발표했다.이 최첨단 AI 클라우드 인프라는 다양한 사용자에게 AI/ML 모델 트레이닝을 가속화해 AI 분야에서 혁신을 주도할 수 있도록 탁월한 생성형 AI 역량을 제공한다. 지코어의 생성형 AI 클러스터는 스타트업부터 대기업에 이르기까지 폭넓은 사용자에게 최첨단 연구 시설에서 생성형 AI 모델 개발을 가속할 수 있도록
AI 추론에 특화된 고성능의 GPU 인프라를 사용량에 맞게 보다 합리적인 비용으로 활용할 수 있게 됐다.kt cloud(www.ktcloud.com, 대표 윤동식)는 슬라이싱 기술을 GPU에 적용한 AI 추론 전용 인프라 서비스 ‘AI SERV’를 출시했다고 16일 밝혔다.초거대 AI 분야에서 학습 영역은 단기간 집중적으로 대용량, 고사양의 GPU가 필요한 것과는 달리 추론 영역은 적은 양의 GPU를 끊김 없이 상시 사용해야 하는 특성을 갖고 있다. 그런 만큼 학습에 사용한 인프라를 그대로 추론 인프라로 활용할 경우 필요 이상의 비
SK하이닉스가 HBM(고대역폭메모리) 투자 재원 마련을 위해 엔비디아로부터 선수금을 수령한 것으로 파악됐다. 엔비디아 H100⋅A100 등 고성능 GPU(그래픽처리장치)용 HBM 수요가 폭증하는데 비해 최근 적자 탓에 SK하이닉스 투자 여력이 크지 않아서다. 선수금 수령 및 특정 고객사 전용 라인 구축은 그동안 로직 반도체 업계서 통용되던 방식으로, 메모리 반도체 분야에서는 전례가 없다.
확장된 엣지 서버 포트폴리오는 오픈 RAN 및 지능형 엣지 워크로드를 위한 향상된 성능과 전력 효율을 선사합니다 산호세, 캘리포니아주 및 라스베이거스, 2023년 9월 25일 /PRNewswire/ -- AI, 클라우드, 스토리지 및 5G/엣지(Edge) 토탈 IT 솔루션 제조업체인 슈퍼마이크로 주식회사(Supermicro, Inc., 나스닥: SMCI)가 당사의 엣지 AI 및 텔코(Telco) 워크로드를 위한 목적 기반 서버 포트폴리오를 확장했다고 발표했습니다. 새로운 슈퍼마이크로 X13 엣지 서버인 SYS-211E-FRN13...
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)는 구글 클라우드(Google Cloud)와 파트너십을 확대한다고 30일 발표했다. 이번 협력은 생성형 AI를 위한 대규모 모델을 구축하고 배포해 데이터 사이언스 워크로드를 가속화한다.구글 클라우드 넥스트(Google Cloud Next)에서 엔비디아(NVIDIA) 창립자 겸 CEO인 젠슨 황(Jensen Huang)과 구글 클라우드 CEO인 토마스 쿠리안(Thomas Kurian)의 노변 대담이 이뤄졌다. 이번 대담에서는 파트너십을 통해 세계 대규모 AI 고객들에게 엔드투엔
인공지능(AI) 반도체의 대표 주자인 엔비디아가 1분기에 이어 2분기에도 또 다시 ‘깜짝 실적’을 발표했다. 실적 기대감으로 정규 거래에서 주가가 3% 넘게 급등하며 뉴욕증시 전반을 상승세로 이끈 엔비디아는 실적 발표 뒤 시간외 거래에서 10% 가까운 폭등세를 기록했다. 특히 현재 세계적으로 극심한 품귀 현상을 빚으며 ‘사재기’까지 촉발한 AI 반도체 출하량을 내년에는 3배 이상 늘리기로 해 엔비디아의 거침없는 실적 행진은 당분간 이어질 전망이다.엔비디아는 지난 23일(현지 시각) 회계연도 2분기(5∼7월) 기준 135억1000달러
SK하이닉스가 충북 청주 M15에 HBM(고대역폭메모리) 생산라인을 신설한다. 그동안 낸드플래시 생산 기지로 활용되던 청주 캠퍼스에 D램 제품군이 들어오는 건 이번이 처음이다. 좀처럼 시황이 살아날 기미를 보이지 않고 있는 낸드플래시 투자 속도를 늦추는 대신, 수요가 급증한 HBM 시장에 재빨리 대응하기 위한 변칙 전략이다.
미국 반도체 OSAT(외주패키지테스트) 앰코테크놀로지가 CoWoS(칩온웨이퍼온서브스트레이트) 생산능력을 확대하고 있다. CoWoS는 프로세서와 메모리를 2.5D 방식으로 엮을 수 있는 기술로, 최근 AI(인공지능) 반도체 공급망에 병목으로 작용하고 있다(KIPOST 2023년 6월 6일자 참조). 앰코는 TSMC 자체 생산능력을 제외하고 CoWoS 패키지를 지원할 수 있는 유일한 회사다.
◇ 챗GPT 가성비 2.4배 높이는 반도체 나왔다김주영 한국과학기술원(KAIST) 전기및전자공학부 교수가 이끄는 연구진이 챗GPT 같은 거대 언어 모델의 추론 연산을 가속할 수 있는 AI 반도체를 개발했다고 4일 밝혔다.챗GPT가 연산할 때 사용하는 파라미터는 1750억개에 달한다. 앞서 공개한 GPT-1는 1억개, GPT-2는 15억개 수준이다. 이처럼 AI의 성능을 높이기 위해서는 연산량이 많아져야 하지만 이를 뒷받침할 반도체의 성능에는 한계가 있는 상황이다.KAIST 연구진은 거대 언어 모델의 추론 연산을 효율적으로 가속할 수
시장조사업체 트렌드포스에 따르면 지난해 삼성전자의 HBM(고대역메모리) 시장점유율은 40%로, SK하이닉스(50%)에 10% 포인트 처진다. 전체 D램 시장에서 ‘더블스코어’ 가까운 차이로 앞서가는 것에 비하면 HBM 분야에서의 상대적 부진이 도드라진다. 이는 과거 AMD가 자사 외장 GPU(그래픽처리장치) 성능 향상을 위해 SK하이닉스와 처음으로 HBM 도입을 추진하면서 SK하이닉스가 먼저 경험치를 쌓았기 때문이다.
SK하이닉스가 8~9월 메모리반도체 추가 감산에 들어간다. 최근 AI(인공지능) 서비스 확대에 힘입어 GPU(그래픽처리장치) 등 일부 시스템반도체 경기가 살아나고 있지만, 메모리반도체 전반으로 온기가 전해지지는 않고 있다.앞서 업계 3위 미국 마이크론 역시 분기 실적발표를 통해 추가 감산을 발표한 바 있다.