구글, 멀티모달 AI 제미나이(Gemini) 공개 및 최신 AI 모델 발표
구글, 대규모 언어모델 제미나이 공개... 멀티모달 AI로 이미지, 음성, 영상 인식 가능
구글은 6일 현지시간 기반이 되는 대규모 언어모델 제미나이를 공개했다고 밝혔다. 이 모델은 오픈AI의 챗GPT의 LLM인 GPT와 비슷한 AI 모델로, 오픈AI의 최신 모델인 GPT-4보다 더 뛰어난 성능을 가지고 있다고 한다.
제미나이는 멀티모달 AI로, 이미지를 인식하고 음성으로 말하거나 들을 수 있는 능력을 갖추었다. 또한 코딩 능력까지 포함되어 있어 종합적인 인공지능을 구현하였다. 멀티모달은 시각, 청각 등 다양한 모드를 활용하여 텍스트 뿐만 아니라 이미지, 음성, 영상 등 다양한 형태로 상호작용하는 것을 말한다.
제미나이는 수학 문제를 해결하거나 데이터를 분석하는 추론 능력도 갖추었다. 이 LLM은 머신 러닝의 규모에 따라 울트라(Ultra), 프로(Pro), 나노(Nano) 등 3개의 모델로 출시될 예정이다. 제미나이 프로는 170개 이상의 국가와 지역에서 영어로 제공되며, 향후 서비스 확장과 새로운 지역 및 언어도 지원될 것으로 예상된다.
구글은 제미나이를 자체 개발한 AI 칩(TPU v4, v5e)으로 학습시켰다. 또한 최첨단 AI 모델을 학습시키기 위해 설계한 최신 칩(클라우드 TPU v5p)도 공개하며, 제미나이의 향후 개발을 가속화할 계획이라고 밝혔다.
한편, 뉴욕증시에서는 고용시장이 약화되었다는 데이터가 나왔지만 주요 지수는 소폭 하락하며 마감했다. 현지시간 6일 뉴욕증권거래소에서 다우존스 30 산업평균지수는 전장보다 70.13포인트(0.19%) 하락한 36,054.43으로 마감했다. 스탠더드앤드푸어스 500지수는 17.84포인트(0.39%) 하락한 4,549.34로, 나스닥은...
구글은 6일 현지시간 기반이 되는 대규모 언어모델 제미나이를 공개했다고 밝혔다. 이 모델은 오픈AI의 챗GPT의 LLM인 GPT와 비슷한 AI 모델로, 오픈AI의 최신 모델인 GPT-4보다 더 뛰어난 성능을 가지고 있다고 한다.
제미나이는 멀티모달 AI로, 이미지를 인식하고 음성으로 말하거나 들을 수 있는 능력을 갖추었다. 또한 코딩 능력까지 포함되어 있어 종합적인 인공지능을 구현하였다. 멀티모달은 시각, 청각 등 다양한 모드를 활용하여 텍스트 뿐만 아니라 이미지, 음성, 영상 등 다양한 형태로 상호작용하는 것을 말한다.
제미나이는 수학 문제를 해결하거나 데이터를 분석하는 추론 능력도 갖추었다. 이 LLM은 머신 러닝의 규모에 따라 울트라(Ultra), 프로(Pro), 나노(Nano) 등 3개의 모델로 출시될 예정이다. 제미나이 프로는 170개 이상의 국가와 지역에서 영어로 제공되며, 향후 서비스 확장과 새로운 지역 및 언어도 지원될 것으로 예상된다.
구글은 제미나이를 자체 개발한 AI 칩(TPU v4, v5e)으로 학습시켰다. 또한 최첨단 AI 모델을 학습시키기 위해 설계한 최신 칩(클라우드 TPU v5p)도 공개하며, 제미나이의 향후 개발을 가속화할 계획이라고 밝혔다.
한편, 뉴욕증시에서는 고용시장이 약화되었다는 데이터가 나왔지만 주요 지수는 소폭 하락하며 마감했다. 현지시간 6일 뉴욕증권거래소에서 다우존스 30 산업평균지수는 전장보다 70.13포인트(0.19%) 하락한 36,054.43으로 마감했다. 스탠더드앤드푸어스 500지수는 17.84포인트(0.39%) 하락한 4,549.34로, 나스닥은...
강원닷컴 강만금 시민기자
기사 작성일23-12-07 07:41
- 이전글비츠로시스, 산업자동화 기업 HLB일렉 인수 계약 체결 23.12.07
- 다음글이바라키현에서 50대 남성의 차량 돌진으로 3명 부상 23.12.07
등록된 의견이 없습니다.