AWS, 생성형 AI로 구축할 수 있는 새로운 도구 발표
[테크수다 기자 도안구 eyeball@techsuda.com] AWS에서 생성형 AI로 구축할 수 있는 새로운 도구를 발표했다. 마이크로소프트와 오픈AI 연합군의 등장과 이에 대한 구글의 대응에 AWS도 참전을 하며 반격에 나섰다.
이번 발표에 대해 서진호 테크수다 컬럼리스트는 "아마존은 영리하게도 생성 AI를 직접 만들고 서비스해서 MS와 구글과 전쟁을 하는 것이 아니라 기업고객에게 생성 AI를 AWS 상에서 서비스할 수 있도록 기능을 오픈했다. 특히, 생성 AI 서비스 신생 스타트업들에게 많은 지원을 함으로써 AWS 서비스에서도 생성 AIOps 잘 동작한다는 것을 보여 줬다!"라고 말했다.
https://youtu.be/RnMuywSnIMg
AWS 스와미 시바수브라마니안(Swami Sivasubramanian) 데이터베이스, 분석, 머신러닝 부문 부사장은 블로그에 관련 내용을 상세히 전했다.
- Announcing New Tools for Building with Generative AI on AWS | AWS Machine Learning Blog (amazon.com)
AWS는 아마존 베드록(Amazon Bedrock)과 아마존 타이탄(Amazon Titan) 모델, AWS 트레이니엄(AWS Trainium)으로 구동되는 아마존 EC2 Trn1n 인스턴스(Amazon EC2 Trn1 instances)와 생성형 AI를 위한 가장 비용 효율적인 클라우드 인프라인 AWS 인퍼런시아2(AWS Inferentia2)로 구동되는 아마존 EC2 Inf2 인스턴스(Amazon EC2 Inf2 instances), 개별 개발자에 무료 제공되는 코드위스퍼러(Amazon CodeWhisperer)를 출시했다.
AWS는 ML을 대중화하고, 모든 사람이 ML에 액세스할 수 있도록 기여해왔다. 이번 발표로 고객들이 AWS에서 생성형 AI를 사용해 어떤 변화를 구축할지 매우 기대하고 있으며, 모든 기술 수준의 개발자와 모든 규모의 조직이 생성형 AI를 사용하여 혁신할 수 있도록 적극적으로 지원한다.
다음은 블로그 내용.
AWS에서 생성형 AI로 구축할 수 있는 새로운 도구 발표
머신러닝(ML) 패러다임 변화의 씨앗은 수십 년 동안 존재해 왔지만, 확장 가능한 컴퓨팅의 가용성, 대규모 데이터 확산, ML 기술의 급속한 발전으로 다양한 업계의 고객들이 비즈니스를 혁신하고 있다. 최근에는 챗GPT(ChatGPT)와 같은 생성형 AI 애플리케이션이 엄청난 관심과 기대를 받고 있다. 우리는 광범위한 ML 도입에 있어 매우 흥미로운 변곡점에 있으며, 대부분의 고객 경험과 애플리케이션이 생성형 AI로 재창조될 것이라고 믿는다.
아마존(Amazon)은 이미 20년 넘게 AI와 ML에 주력해왔으며, 고객이 사용하는 아마존의 많은 기능은 ML을 기반으로 하고 있다. 아마존의 전자상거래 권장 엔진은 ML로 구동되며, 풀필먼트 센터(fulfillment center)에서 로봇 피킹 경로를 최적화하는 경로도 ML로 구동된다. 뿐 아니라, 아마존의 공급망, 예측, 용량 계획도 ML 기반이며, 프라임 에어(Prime Air, 아마존의 드론 서비스)와 아마존 고(Amazon Go, 소비자가 선반에서 제품을 선택하고 계산대에 들를 필요 없이 제품을 구매할 수 있는 오프라인 쇼핑 경험)의 컴퓨터 비전 기술은 딥 러닝을 사용한다. 30개 이상의 서로 다른 머신러닝 시스템으로 구동되는 알렉사(Alexa)는 스마트 홈 관리, 쇼핑, 정보 얻기와 엔터테인먼트 등 매주 수십억 차례 고객을 돕는다. 아마존에는 수천 명의 ML 엔지니어가 있으며, 이는 아마존의 유산, 기업 정신과 미래의 큰 부분을 차지한다.
아마존웹서비스(Amazon Web Services, 이하 AWS)는 ML을 대중화하고 모든 규모와 산업의 100,000명 이상의 고객을 포함해 ML을 사용하고자 하는 모든 이가 ML에 액세스할 수 있도록 하는 데 중요한 역할을 하고 있다. AWS는 스택의 세 계층 모두에서 가장 광범위하고 심층적인 AI와 머신러닝 서비스 포트폴리오를 보유하고 있다. AWS는 비용 효율적인 ML 훈련 및 추론을 위한 가장 뛰어난 성능과 확장성이 높은 인프라를 제공하기 위해 투자하고 혁신해 왔다. 모든 개발자가 가장 쉽게 모델을 구축, 훈련, 배포할 수 있게 해주는 아마존 세이지메이커(Amazon SageMaker)를 개발하고, 고객이 간단한 API 호출로 애플리케이션에 이미지 인식, 예측, 지능형 검색과 같은 AI 기능을 추가할 수 있는 다양한 서비스를 출시했다.
이에 따라, 인튜이트(Intuit), 톰슨 로이터(Thomson Reuters), 아스트라제네카(AstraZeneca), 페라리(Ferrari), 분데스리가(Bundesliga), 3M, BMW와 같은 고객과 전 세계 수천 개의 스타트업, 정부 기관이 ML을 통해 각 조직, 산업, 사명을 혁신하고 있다. AWS는 생성형 AI에도 동일한 대중화 방식을 적용한다. 이러한 기술을 연구와 실험 영역에서 벗어나 소수의 스타트업이나 자금력이 풍부한 기술 대기업 이상으로 가용성을 확장하기 위해 노력한다. 그렇기 때문에 고객들이 비즈니스에서 생성형 AI를 쉽고 실용적으로 사용할 수 있도록 하는 몇 가지 새로운 혁신을 오늘 발표하게 되어 기쁘게 생각한다.
생성형 AI와 기반 모델
생성형 AI는 대화, 스토리, 이미지, 동영상, 음악 등 새로운 콘텐츠와 아이디어를 생성할 수 있는 AI 유형이다. 모든 AI와 마찬가지로 생성형 AI는 방대한 양의 데이터에 대해 사전 훈련되고 일반적으로 기반 모델(Foundation Model, FM)이라고 불리는 대규모 ML 모델에 의해 구동된다. 최근 ML의 발전(특히 트랜스포머 기반 신경망 아키텍처의 발명)으로 인해 수십억 개의 매개변수(parameter) 또는 변수를 포함하는 모델이 등장했다. 규모의 변화를 보면, 2019년에 가장 큰 사전 훈련된 모델은 매개변수가 3억 3천만개였는데 현재 최대 규모 모델은 5천억개 이상의 매개변수로 불과 몇 년 만에 크기가 1,600배 증가했다.
현재 대규모 언어 모델(LLM)인 GPT3.5 또는 블룸(BLOOM)과 스태빌리티 AI(Stability AI)의 텍스트 투 이미지(text-to-image) 모델인 스테이블 디퓨전(Stable Diffusion)과 같은 FM은 블로그 게시물 작성, 이미지 생성, 수학 문제 풀기, 대화 참여, 문서를 기반으로 한 질문 응답 등 여러 영역에 걸쳐 광범위한 작업을 수행할 수 있다. FM의 크기와 범용성으로 인해 일반적으로 감정에 대한 텍스트 분석, 이미지 분류, 트렌드 예측과 같은 특정 작업을 수행하는 기존 ML 모델과는 다르다.
FM은 복잡한 개념을 학습할 수 있는 수많은 매개변수를 포함하고 있기 때문에 훨씬 더 많은 작업을 수행할 수 있다. 그리고 다양한 형태와 무수한 패턴의 인터넷 규모 데이터에 대한 사전 훈련 노출을 통해, FM은 광범위한 맥락에서 지식을 적용하는 방법을 배운다. 사전 훈련된 FM의 기능과 그로 인한 가능성도 놀랍지만, 이렇게 일반적으로 가용한 모델을 처음부터 훈련하는 데 필요한 데이터와 컴퓨팅의 극히 일부만 사용 및 맞춤화하여 각 비즈니스에 차별화되는 도메인별 기능을 수행할 수 있다는 점에 특히 고객의 기대감이 크다.
맞춤형 FM은 뱅킹, 여행, 의료와 같은 다양한 소비자 산업에서 기업의 목소리, 스타일, 서비스를 구현하는 고유한 고객 경험을 생성할 수 있다. 예를 들어, 모든 관련 트랜잭션을 사용하여 내부용 일일 활동 보고서를 자동 생성해야 하는 금융 회사는 과거 보고서를 포함한 자체 데이터로 모델을 맞춤화할 수 있으므로 FM은 이러한 보고서를 어떻게 읽어야 하는지와 보고서 생성에 어떠한 데이터가 사용됐는지 등을 학습할 수 있다.
FM의 잠재력은 가히 놀랍다. 그러나 우리는 아직 초기 단계에 있다. 고객의 이목을 집중시킨 최초의 광범위한 생성형 AI 경험은 챗GPT이지만, 생성형 AI를 연구하는 대부분의 사람들은 여러 기업이 수년간 FM을 연구해왔으며 각각 고유한 강점과 특성을 가진 여러 FM을 사용할 수 있다는 사실을 빠르게 깨달았다. 지난 수년간 빠르게 움직이는 기술과 ML의 진화에서 보았듯이, 상황은 빠르게 변화한다. 우리는 미래에 새로운 아키텍처가 등장할 것으로 기대하며, 이러한 FM의 다양성은 혁신의 물결을 일으킬 것이다. 우리는 이미 이전에는 볼 수 없었던 새로운 애플리케이션을 경험하고 있다. AWS 고객은 현존하는 기술은 물론 미래 사용 가능성이 있는 기술을 빠르게 활용하고, 비즈니스와 조직 내에서 FM과 생성형 AI를 신속하게 사용하여 새로운 수준으로 생산성을 높이고 제품을 혁신할 수 있는 방법에 대해 문의해 왔다.
아마존 베드록(Amazon Bedrock)과 아마존 타이탄(Amazon Titan) 모델 공개, FM으로 생성형 AI 애플리케이션을 구축, 확장하는 가장 쉬운 방법
고객들은 공통적으로 몇 가지 주요 장애물이 있다고 말했다. 첫째, 고객은 뛰어난 결과를 제공하고 목적에 가장 적합한 고성능 FM을 찾고 활용할 수 있는 명확한 방법을 필요로 한다. 둘째, 고객은 대규모 인프라 클러스터를 관리하거나 큰 비용을 들이지 않고도 애플리케이션에 원활하게 통합되기를 원한다. 마지막으로 고객은 기본 FM을 쉽게 사용하고 자체 데이터(적은 데이터 또는 많은 데이터)를 사용하여 차별화된 앱을 구축하기를 원한다. 고객이 맞춤화에 사용하려는 데이터는 매우 귀중한 IP이므로, 맞춤화 과정에서의 완전한 보호와 보안 및 비공개 유지와 더불어 데이터 공유와 사용 방법을 제어할 수 있기를 원한다.
이러한 고객의 피드백을 바탕으로, 오늘 AWS는 AI21 랩스(AI21 Labs), 앤트로픽(Anthropic), 스태빌리티 AI와 아마존의 FM을 API를 통해 액세스할 수 있게 해주는 신규 서비스 아마존 베드록을 발표한다. 고객이 FM을 사용하여 생성형 AI 기반 애플리케이션을 구축, 확장할 수 있는 가장 쉬운 방법인 베드록은 모든 빌더에 액세스를 제공한다. 베드록은 확장 가능하고 안정적이며 안전한 AWS 관리형 서비스를 통해, 오늘 발표하는 두 개의 새로운 LLM으로 구성된 아마존 타이탄 FM을 포함하여 텍스트와 이미지를 위한 다양한 종류의 강력한 FM에 액세스할 수 있는 기능을 제공한다. 베드록의 서버리스 경험을 통해, 고객은 인프라를 관리할 필요 없이 익숙한 AWS 도구와 기능(다양한 모델을 테스트하기 위한 ‘실험’과 FM을 대규모로 관리하기 위한 ‘파이프라인’과 같은 아마존 세이지메이커 ML 기능과의 통합 포함)을 사용하여 수행하려는 작업에 적합한 모델을 쉽게 찾고, 빠르게 시작하고, 자체 데이터로 FM을 맞춤화하고 각 애플리케이션에 쉽게 통합, 배포할 수 있다.
베드록 고객은 현재 사용 가능한 최첨단 FM 중 일부를 선택할 수 있다. 여기에는 다국어를 지원하고 스페인어, 프랑스어, 독일어, 포르투갈어, 이탈리아어, 네덜란드어로 텍스트를 생성할 수 있는 AI21 랩스의 쥬라기-2(Jurassic-2) LLM 제품군이 포함된다. 앤트로픽의 LLM 인 클로드(Claude)는 다양한 대화와 텍스트 처리 작업을 수행할 수 있으며, 투명하고 책임감 있는 AI 시스템 훈련에 대한 앤트로픽의 광범위한 연구를 기반으로 한다. 또한 베드록은 독특하고 사실적인 고품질 이미지, 예술, 로고, 디자인을 생성할 수 있는 스테이블 디퓨전(현재 가장 인기있는 제품)을 포함한 스태빌리티 AI의 텍스트 투 이미지 기반 모델 제품군에 쉽게 액세스할 수 있도록 한다.
베드록의 가장 중요한 기능 중 하나는 모델 맞춤화의 용이성이다. 고객은 아마존 S3(Amazon S3)에서 몇 가지 레이블이 지정된 예에서 베드록을 가리키기만 하면, 대용량 데이터에 주석을 달지 않고도 특정 작업에 대한 모델을 미세 조정할 수 있으며, 적게는 20개의 예시면 충분하다. 일례로, 유명 패션 소매업체에서 근무하는 콘텐츠 마케팅 관리자가 곧 출시될 새로운 핸드백 라인을 위해 참신하고 타겟팅된 광고와 캠페인 카피를 개발해야 하는 경우, 베드록에 관련 제품 설명과 함께 과거 캠페인에서 가장 실적이 좋았던 태그 라인의 몇 가지 레이블이 지정된 예를 제공하면 베드록은 새 핸드백에 대한 효과적인 소셜 미디어, 디스플레이 광고 및 웹 카피를 자동으로 생성하기 시작한다. 고객의 데이터는 기초 모델을 교육하는 데 사용되지 않으며, 모든 데이터가 암호화되고 고객의 가상 프라이빗 클라우드(VPC)를 떠나지 않기 때문에 고객은 데이터가 비공개되고 기밀로 유지된다는 것을 신뢰할 수 있다.
베드록은 현재 한정된 프리뷰 단계로, 코다(Coda)와 같은 고객들은 개발팀이 서비스를 신속하게 도입 및 실행할 수 있게 된 것에 만족감을 표했다. 시시르 메로트라(Shishir Mehrotra) 코다 공동 설립자 겸 CEO는 “그동안 AWS의 질 높은 서비스에 오래 만족해 온 고객으로서 아마존 베드록이 코다 AI(Coda AI)를 통해 가져다줄 높은 품질, 확장성, 및 성능에 큰 기대를 하고 있다. 우리의 모든 데이터가 이미 AWS에 있기 때문에, 내장된 데이터를 보호하는 데 필요한 모든 보안, 개인정보 보호 기능과 함께 베드록을 사용하여 생성형 AI를 신속하게 통합할 수 있다. 우버(Uber), 뉴욕타임스(New York Times), 스퀘어(Square)와 같은 대규모 팀을 포함해 수만 개가 넘는 팀이 코다에서 실행되고 있으므로 안정성과 확장성이 정말 중요하다”고 말했다.
앞으로 몇 달 안에 더 광범위한 가용성을 선보이게 될 아마존의 새로운 타이탄 FM의 프리뷰를 일부 고객과 함께 진행했다. 처음에는 두 개의 타이탄 모델로 시작할 계획이다. 첫 번째 모델은 요약, 텍스트 생성(예: 블로그 게시물 작성), 분류, 개방형 질의응답 및 정보 추출과 같은 작업을 위한 생성 LLM이다. 두 번째는 텍스트 입력(단어, 구문 또는 가능한 큰 텍스트 단위)을 텍스트의 의미론적 의미를 포함하는 숫자 표현(임베딩)으로 변환하는 임베딩 LLM이다. 이 LLM은 텍스트를 생성하지 않지만, 임베딩을 비교하여 모델이 단어 매칭보다 더 관련성 있고 상황에 맞는 응답을 생성하기 때문에 개인화와 검색과 같은 응용에 유용하다.
실제로 아마존닷컴(Amazon.com)의 제품 검색 기능은 여러 제품 중에서 유사한 임베딩 모델을 사용하여 고객이 원하는 제품을 찾을 수 있도록 도와준다. 책임감 있는 AI 사용에 대한 모범 사례를 계속 지원하기 위해, 타이탄 FM은 고객이 맞춤화를 위해 제공하는 데이터에서 유해한 콘텐츠를 탐지 및 제거하고, 사용자 입력에서 부적절한 콘텐츠를 거부하며, 부적절한 콘텐츠(혐오 발언, 욕설, 폭력 등)가 포함된 모델의 출력을 필터링하도록 구축됐다.
베드록은 모든 규모의 기업이 FM의 기능에 액세스할 수 있도록 함으로써 모든 개발자가 쉽게 사용할 수 있으므로 조직 전체의 ML 사용을 가속화하고 자체 생성형 AI 애플리케이션을 구축할 수 있게 돕는다. 베드록이 FM 대중화에 큰 역할을 할 것이라고 기대하는 한편, 액센츄어(Accenture), 딜로이트(Deloitte), 인포시스(Infosys), 슬라럼(Slalom)과 같은 파트너들이 생성형 AI로 기업의 혁신을 지원하고 있다. C3 AI와 페가(Pega)와 같은 ISV들은 AWS가 지원하는 모든 보안, 개인정보 보호, 안정성과 함께 다양한 FM에 쉽게 액세스할 수 있도록 베드록을 활용할 수 있게 된 것을 환영했다.
AWS 트레이니엄(AWS Trainium)으로 구동되는 아마존 EC2 Trn1n 인스턴스(Amazon EC2 Trn1 instances)와 생성형 AI를 위한 가장 비용 효율적인 클라우드 인프라인 AWS 인퍼런시아2(AWS Inferentia2)로 구동되는 아마존 EC2 Inf2 인스턴스(Amazon EC2 Inf2 instances)의 출시 발표
고객이 FM으로 실행, 구축, 맞춤화 등 무엇을 하든 성능과 비용이 ML에 특화된 인프라가 필요하다. 지난 5년 동안 AWS는 ML 교육과 추론 등 까다로운 워크로드를 위한 성능과 가격 대비 성능의 한계를 뛰어넘기 위해 자체 실리콘에 투자해 왔으며, AWS 트레이니엄(AWS Trainium)과 AWS 인퍼런시아(AWS Inferentia) 칩은 가장 저렴한 비용으로 클라우드에서 모델 교육과 추론 실행을 제공한다. 이렇게 최적의 ML 인프라를 선택하여 성능을 극대화하고 비용을 제어할 수 있기 때문에 AI21 랩스(AI21 Labs), 앤트로픽(Anthropic), 코히어(Cohere), 그래머리(Grammarly), 허깅페이스(Hugging Face), 런웨이(Runway), 스태빌리티 AI(Stability AI)와 같은 선도적인 AI 스타트업들이 AWS에서 실행되고 있다.
트레이니엄으로 구동되는 Trn1 인스턴스는 다른 모든 EC2 인스턴스에 비해 훈련 비용을 최대 50% 절감할 수 있으며, 800Gbp(초당 기가비트)의 2세대 EFA(Elastic Fabric Adapter) 네트워킹과 연결된 여러 서버에 훈련을 배포하도록 최적화됐다. 고객은 페타비트 규모의 네트워킹을 통해 동일한 AWS AZ(가용 영역)에 위치한 최대 30,000개의 트레이니엄 칩(6엑사플롭 컴퓨팅 이상)까지 확장할 수 있는 울트라클러스터(UltraCluster)에 Trn1 인스턴스를 배포할 수 있다. 헬릭슨(Helixon), 머니포워드(Money Forward), 아마존 서치(Amazon Search) 팀을 비롯한 많은 AWS 고객은 Trn1 인스턴스를 사용하여 최대 규모의 딥 러닝 모델을 훈련하는 데 필요한 시간을 몇 달에서 몇 주 또는 며칠로 줄이는 동시에 비용을 절감할 수 있다. 800Gbps는 많은 대역폭이지만 AWS는 더 많은 것을 제공하기 위해 지속적으로 혁신해 왔으며, 그 결과 1600Gbps의 네트워크 대역폭을 제공하고 네트워크 집약적 대규모 모델을 위해 20% 더 높은 성능을 Trn1을 통해 제공하도록 설계된 네트워크에 최적화된 새로운 Trn1n 인스턴스의 출시를 오늘 발표하게 됐다.
오늘날 FM에 사용되는 대부분의 시간과 비용은 FM 훈련에 사용된다. 이는 많은 고객이 이제 막 FM을 프로덕션에 배포하기 시작했기 때문이다. 그러나 앞으로 FM이 대규모로 배포되면 대부분의 비용은 모델 실행과 추론 수행에 관련될 것이다. 일반적으로 모델을 주기적으로 훈련하는 동안, 프로덕션 애플리케이션은 추론이라고 불리는 예측을 지속적으로 생성하여 잠재적으로 시간당 수백만 개를 생성할 수 있다. 이러한 예측은 실시간으로 이루어져야 하며, 이를 위해서는 매우 짧은 지연 시간과 높은 처리량의 네트워킹이 필요하다. 알렉사는 모든 컴퓨팅 비용의 40%를 차지하는 수백만 건의 요청이 매분 들어오는 좋은 예다.
AWS는 미래 ML 비용의 대부분이 추론 실행에서 발생할 것임을 예상했기 때문에, 몇 년 전 새로운 칩에 투자하기 시작했을 때 추론에 최적화된 실리콘을 우선시했다. 2018년에 AWS는 최초로 추론에 특화된 칩인 인퍼런시아를 발표했다. 매년 인퍼런시아는 아마존이 수조 건의 추론을 실행하면서 수억 달러를 절약하도록 돕는다. 이는 놀라운 결과이며, 앞으로 더 많은 고객이 생성형 AI를 애플리케이션에 통합함에 따라 워크로드의 크기와 복잡성은 더욱 증가하므로 지속적인 혁신이 필요한 많은 기회가 기대된다.
이것이 바로 오늘 AWS가 수천억 개의 매개변수가 포함된 모델을 가진 대규모 생성형 AI 애플리케이션에 최적화된 AWS 인퍼런시아2 기반 Inf2 인스턴스의 출시를 발표하는 이유다. Inf2 인스턴스는 이전 세대 인퍼런시아 기반 인스턴스에 비해 최대 4배 높은 처리량과 최대 10배 낮은 지연 시간을 제공한다. 또한 가속기 간에 초고속 연결성을 통해 대규모 분산 추론을 지원한다. 이러한 기능을 통해 다른 유사 아마존 EC2 인스턴스 대비 최대 40% 높은 추론 가격 대비 성능과 클라우드에서 최저 추론 비용을 제공한다. 런웨이와 같은 고객은 Inf2를 사용하여 일부 모델에서 유사한 아마존 EC2 인스턴스보다 최대 2배 더 높은 처리량을 경험하고 있다. 이러한 고성능 저비용 추론을 통해 런웨이는 더 많은 기능을 도입하고, 더 복잡한 모델을 배포하며, 궁극적으로 런웨이를 사용하는 수백만 명의 크리에이터에게 더 나은 경험을 제공할 수 있다.
개별 개발자에 무료 제공되는 코드위스퍼러(Amazon CodeWhisperer) 출시 발표
생성형 AI 애플리케이션을 최적의 FM으로 구축하고 최대 성능을 갖춘 클라우드 인프라에서 대규모로 실행하는 것은 고객에게 혁신을 가져다 줄 것이다. 새로운 경험은 사용자에게도 혁신을 가져올 것이다. 내장된 생성형 AI를 통해 사용자는 애플리케이션, 시스템과 보다 자연스럽고 원활한 상호 작용을 할 수 있다. 우리가 휴대폰을 쳐다보기만 해도 잠금을 해제할 수 있게 해주는 기능 뒤에 강력한 ML 모델이 있다는 사실을 알 필요가 없는 것처럼 말이다.
생성형 AI의 사용이 빠르게 증가할 것으로 예상되는 한 분야는 코딩이다. 오늘날 소프트웨어 개발자는 매우 간단하고 차별화되지 않은 코드를 작성하는 데 상당한 시간을 할애한다. 개발자들은 또한 복잡하고 끊임없이 변화하는 도구와 기술 환경을 따라잡기 위해 많은 시간을 보낸다. 이 모든 시간은 개발자가 새롭고 혁신적인 기능과 서비스를 개발할 시간을 소모한다. 개발자들은 웹에서 코드 스니펫을 복사, 수정하여 이를 극복하려고 하는데, 오히려 작동하지 않거나 보안 취약점이 포함되어 있거나 오픈소스 소프트웨어의 사용을 추적하지 않는 코드를 실수로 복사할 수 있다. 그리고 궁극적으로 검색과 복사도 여전히 중요한 시간을 빼앗고 있다.
생성형 AI는 차별화되지 않은 코드의 상당 부분을 "작성"함으로써 번거로운 작업을 줄여주므로 개발자는 코딩의 보다 창의적인 측면에 집중하고 더 빠르게 빌드할 수 있다. 같은 맥락으로, 작년에 AWS는 FM을 사용하여 자연어와 이전 코드에 대한 개발자의 의견을 기반으로 실시간으로 코드 제안을 생성함으로써 개발자 생산성을 크게 향상시키는 AI 코딩 동반자인 아마존 코드위스퍼러의 프리뷰를 발표했다. 통합 개발 환경(IDE)에서 개발자는 코드위스퍼러에 "노래의 CSV 문자열 구문 분석"과 같은 작업을 수행하도록 지시하고 아티스트, 제목, 최고 차트 순위와 같은 값을 기반으로 구조화된 목록을 반환하도록 요청할 수 있다. 코드위스퍼러는 문자열을 구문 분석하고 지정된 대로 목록을 반환하는 전체 함수를 생성하여 생산성을 향상시킨다. 프리뷰에 대한 개발자 반응은 매우 긍정적이었고 AWS는 개발자의 코딩을 돕는 것이 결국 앞으로 보게 될 가장 강력한 생성형 AI 사용 사례 중 하나가 될 수 있다고 믿고 있다. 프리뷰 기간 동안 우리는 생산성 챌린지를 진행했고 코드위스퍼러를 사용한 참가자는 사용하지 않은 참가자보다 평균적으로 작업을 57% 더 빠르게 완료했으며 성공적으로 완료할 가능성이 27% 더 높았다. 이는 개발자 생산성의 큰 도약이며 우리는 이것이 단지 시작일 뿐이라고 믿는다.
AWS는 오늘 파이썬, 자바, 자바스크립트, 타이프스크립트, C# 외에도 고(Go) 코틀린(Kotlin), 러스트(Rust), PHP, SQL을 포함한 10개의 새로운 언어용 아마존 코드위스퍼러의 출시를 발표했다. 코드위스퍼러는 VS Code, IntelliJ IDEA, AWS Cloud9 등과 같은 IDE에서 AWS 툴킷 IDE(AWS Toolkit IDE) 익스텐션을 통해 액세스할 수 있다. 코드위스퍼러는 AWS 람다(AWS Lambda) 콘솔에서도 사용할 수 있다. 공개적으로 사용 가능한 수십억 줄의 코드에서 학습하는 것 외에도, 코드위스퍼러는 아마존 코드에 대한 훈련을 받았다. 코드위스퍼러는 아마존 EC2, AWS 람다, 아마존 S3를 비롯한 AWS 서비스용 코드를 생성하는 가장 정확하고 빠르고 안전한 방법이 될 것이다.
생성형 AI 도구에서 제안한 코드에 숨겨진 보안 취약성이 포함되어 있거나 책임감 있게 오픈소스를 처리하지 못한다면 개발자는 진정으로 생산성을 높일 수 없다. 코드위스퍼러는 OWASP(Open Worldwide Application Security Project) 10대 취약점이나 암호화 라이브러리 모범 사례를 충족하지 않는 등의 감지하기 어려운 취약점에 대한 해결 방법을 찾고 제안하기 위해 보안 스캐닝(자동 추론 기반)이 내장된 유일한 AI 코딩 동반자이다. 개발자의 책임감 있는 코딩을 위해, 코드위스퍼러는 편향되거나 불공정하다고 간주될 수 있는 코드 제안을 필터링하고 고객이 참조하거나 사용을 위해 라이선스를 원할 수 있는 오픈소스 코드와 유사한 코드 제안을 필터링하고 플래그를 지정할 수 있는 유일한 코딩 동반자다.
AWS는 생성형 AI가 개발자의 판도를 바꿀 것이라고 믿으며 가능한 한 많은 사람들이 활용할 수 있기를 바란다. 이것이 바로 코드위스퍼러가 코드 생성에 대한 자격이나 시간 제한 없이 모든 개인 사용자에게 무료인 이유다! 누구나 이메일 계정으로 코드위스퍼러에 가입하고 몇 분 안에 생산성을 높일 수 있다. AWS 계정도 필요 없다. 기업 사용자를 위해 AWS IAM(Identity and Access Management) 통합을 통한 SSO(Single Sign-On)와 같은 관리 기능과 더 높은 보안 검색 제한이 포함된 코드위스퍼러 프로페셔널 티어(CodeWhisperer Professional Tier)를 제공하고 있다.
코드위스퍼러 와 같은 강력한 애플리케이션 구축은 개발자와 모든 고객에게 혁신적이다. 앞으로 더 많은 기능이 제공될 예정이며 AWS에서 고객들이 생성형 AI를 사용하여 무엇을 구축하게 될지 매우 기대된다. 우리의 임무는 모든 기술 수준의 개발자와 모든 규모의 조직이 생성형 AI를 사용하여 혁신할 수 있도록 하는 것이다. 이는 새로운 가능성을 불러올 머신러닝의 차세대 물결의 시작일 뿐이다.
Resources
Check out the following resources to learn more about generative AI on AWS and these announcements:
- Explore generative AI on AWS
- An introduction to generative AI: Read what Werner Vogels, Amazon.com CTO, has to say about Generative AI
- Demystifying generative AI: Listen to Werner Vogels and I discuss the impact of generative AI to businesses
- Learn about Amazon Bedrock, the easiest way to build and scale generative AI applications with FMs
- Learn about Amazon Titan, high-performing FMs from Amazon to innovate responsibly
- Discover the new AWS Trainium based Trn1n instance and the AWS Inferentia based Inf2 instance
- Learn how you can use Amazon CodeWhisperer as your coding companion