LG 엑사원, 퓨리오사AI 추론칩 '레니게이드' 도입…LLM과 추론칩의 만남
국내 대기업 개발진이 만들고 있는 LLM과 스타트업이 개발하는 추론칩이 만났다. AI 반도체 기업 퓨리오사AI(대표 백준호)는 자사 2세대 AI 추론 가속기 ‘RNGD(레니게이드)’가 LG의 대규모 언어모델(LLM) ‘엑사원(EXAONE)’에 전면 도입됐다고 22일 밝혔다. 양사는 이번 협업을 토대로 레니게이드를 기반으로 한 기업용 엑사원 솔루션을 조만간 출시한다.
국내 대기업 개발진이 만들고 있는 LLM과 스타트업이 개발하는 추론칩이 만났다. AI 반도체 기업 퓨리오사AI(대표 백준호)는 자사 2세대 AI 추론 가속기 ‘RNGD(레니게이드)’가 LG의 대규모 언어모델(LLM) ‘엑사원(EXAONE)’에 전면 도입됐다고 22일 밝혔다. 양사는 이번 협업을 토대로 레니게이드를 기반으로 한 기업용 엑사원 솔루션을 조만간 출시한다.
레드햇이 미국 덴버에서 ‘레드햇 서밋 2024(Redhat Summit 2024)’를 개최하고 ‘RHEL AI’, 오픈시프트 AI (OpenShift AI) 등 신제품 출시 및 업데이트를 했다.
[테크수다 기자 도안구 eyeball@techsuda.com] 황성우 삼성SDS 대표이사(사장)는 “패브릭스와 브리티 코파일럿의 정식 출시로 기업 업무의 하이퍼오토메이션(Hyper-automation)을 돕겠습니다. 삼성 스마트폰, TV, 가전 분야에서 소비자들을 만족시켰던 만큼 삼성SDS는 생성형 AI 서비스로 기업들의 혁신을 지원하겠습니다”라고 포부를 밝혔다. 그는 또 “가까운 미래에 삼성SDS는 모든 서비스와 솔루션에서 코파일럿(Copilot)
AWS가 오늘 생성형 인공지능(AI) 애플리케이션과 경험을 개발할 수 있게 지원하는 아마존 베드록(Amazon Bedrock)의 신규 혁신 기능을 발표했습니다. ‘커스텀 모델 가져오기’, ‘모델 평가’ 등의 신규 기능을 통해 고객은 아마존 베드록에서 자체 완전 관리형 모델을 실행하고, 사용 사례에 가장 적합한 모델을 쉽게 찾고, 생성형 AI 애플리케이션에 더 쉽게 보호 기능(safeguard)을 적용하고, 더 많은 모델 선택권을 제공받을 수 있게 되었습니다.
멘델손 부사장 발표에 따르면, 오라클이 지난 해 9월에 발표한 차세대 융합형 DB 오라클 DB 23c는 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다. 최근 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 세 유형 데이터 장점을 모두 활용하는 앱을 개발 운영하며 그 과정에서 데이터 일관성을 손쉽게 유지할 수 있다.
마이크로소프트가 고객 서비스 혁신과 비즈니스 성장을 지원하는 국내 기업의 AI 트랜스포메이션 혁신 사례를 공개했습니다.
메타, 차세대 대규모 언어모델 ‘라마3’ 오픈소스 공개 - ‘개방형 생태계’ 철학에 따라 80억 개, 700억 개 매개변수 모델 먼저 오픈소스로 공개 - 고도화된 사전훈련과 미세조정으로 성능 개선… 책임감 있는 개발을 위한 안전장치도 마련
메타(Facebook)도 AI 학습과 추론 칩을 만들고 있다. 일명 MTIA(Meta Training and Inference Accelerator). 지난해 v1을 공개한 데 이어 차세대 MTIA는 이전 솔루션보다 컴퓨팅과 메모리 대역폭을 두 배 이상 늘리면서도 워크로드와의 긴밀한 연계를 유지한다. 메타는 이 칩의 아키텍처에 대해 기본적으로 페이스북과 인스타그램(Instagram)의 랭킹과 추천 광고 모델을 강화하기 위한 컴퓨팅, 메모리 대역폭, 메모리 용량의 적절한 균형을 제공하는데 중점을 두고 있다.
네이버클라우드와 인텔이 국내 학계 및 스타트업과 함께 인텔의 AI 가속기 칩 '가우디'를 기반으로 하는 AI칩 SW 생태계 구축을 위한 공동 연구를 진행합니다. 이를 위해 양사는 카이스트를 중심으로 하는 'AI 공동연구센터'를 설립하고 국내 AI 연구 활성화 및 AI칩 생태계 다양성 강화를 위한 노력을 함께해 나갈 계획입니다.
연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024에서 인텔은 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했습니다.
[테크수다 기자 도안구 eyeball@techsuda.com] 인텔과 네이버가 생성형 AI 시대 대응을 위해 손을 잡았다. 두 회사는 인텔의 연례 고객과 파트너 컨퍼런스인 인텔비전 2024(Intel Vision 2024)에서 이런 협력 소식을 전했다. 인텔 글로벌 행사에 네이버가 최대되어 키노트 연설에 등장한 건 이번이 처음이다. 인텔 비전 2024에서 발표하는 하정우 네이버클라우드 AI
구글 클라우드, ‘구글 클라우드 넥스트 2024’ 개최 - 인프라∙제미나이 모델∙버텍스 AI 플랫폼 전반에 걸친 생성형 AI 제품 혁신 및 업데이트 발표 - 더 빠른 추론 속도로 조 단위 대규모 학습을 보다 안전하고 효율적으로 맞춤형 처리하는 구글 클라우드 AI 생태계 비전 강조 - 90여개 한국 기업 참석... 넥슨∙당근마켓∙대한항공∙카카오브레인∙카카오헬스케어 등 세션 연사로 나서 구글 클라우드 활용 및 협업 사례 발표
미소정보기술, 다중속성분류·언어규칙·의미기반의 스마트TA sLLM(경량대형언어모델)통합한 M-LLM 출시! M-LLM, 향상된 언어규칙과 종속적 탐색, 프롬프트 템플릿, 키워드증강등 미분류 데이터까지 요약분석 지원 토큰 생성 시간과 비용 50% 이상 절감, 실시간 통제 가능한 스마트TA통해 개인정보 및 기업 민감정보 강화