지난 주요뉴스 한국경제TV에서 선정한 지난 주요뉴스 뉴스썸 한국경제TV 웹사이트에서 접속자들이 많이 본 뉴스 한국경제TV 기사만 onoff
AI로 위성영상 분석…적 감시 정확도 높여 2023-05-09 17:52:43
파라미터(매개변수)는 24억 개로 오픈AI ‘GPT-2’에서 ‘GPT-3’ 사이 수준”이라며 “군이 가장 고민하는 표적 데이터 부족 문제를 초거대 AI 기술로 해결할 수 있다”고 했다. 이번 행사는 한국경제신문사 AI미래포럼(AIFF)과 한국국방연구원 국방데이터연구단이 주최하고, 한국IT서비스학회와 한국국방기술학회가...
글로벌 AI 침공 가속하는데…K-대항마 없어 종속 우려 2023-05-08 05:01:01
7월에 공개할 '하이퍼클로바X'는 매개변수(파라미터)가 GPT-3(1천750억개)를 넘어서는 2천40억개 규모로 개발됐다. 한국어 데이터 학습량이 GPT-3의 6천500배 이상인 점도 강점으로 꼽힌다. 또 네이버는 올 상반기 내 하이퍼클로바에 AI 챗봇을 탑재한 '서치GPT'를 선보일 예정이다. 카카오도 올해 하반기...
카카오 코GPT 2.0 공개 하반기로 밀려…칼로 2.0 이달 출시(종합) 2023-05-04 12:07:30
실사용 데이터를 확보해 모델을 고도화하고, 하반기 중으로 파라미터(매개변수)와 데이터 토큰(어절)의 규모가 확장된 코GPT 2.0의 공개를 목표로 하고 있다"고 말했다. 당초 상반기로 예정했던 코GPT의 공개 시점이 다소 미뤄진 것이다. 홍 대표는 코GPT 2.0의 경쟁력에 대해 "파라미터나 데이터가 부족할 수 있지만, 한국...
카카오 코GPT 2.0 공개 하반기로 밀려…칼로 2.0 이달 선봬 2023-05-04 10:32:20
실사용 데이터를 확보해 모델을 고도화하고, 하반기 중으로 파라미터(매개변수)와 데이터 토큰(어절)의 규모가 확장된 코GPT 2.0의 공개를 목표로 하고 있다"고 말했다. 당초 상반기로 예정했던 코GPT의 공개 시점이 다소 미뤄진 것이다. 홍 대표는 코GPT 2.0의 경쟁력에 대해 "파라미터나 데이터가 부족할 수 있지만, 한...
카카오 "하반기 코GPT 2.0 공개…글로벌 경쟁력 있어" 2023-05-04 10:04:14
2023년 1분기 실적발표 컨퍼런스콜에서 "하반기 중 파라미터와 데이터 토큰의 규모가 확장된 코GPT 2.0을 공개하는 것을 목표로 하고 있다"고 설명했다. 상반기 중 메시지 기반의 인공지능(AI) 챗봇 서비스를 테스트하면서 실사용 데이터를 확보해 모델 고도화를 마치겠다는 것이다. 홍 대표는 "이미지 생성 모델로는 5월...
카카오, 하반기 '코GPT 2.0' 공개…새 무기는 AI 2023-05-04 09:50:17
확보해 모델을 고도화할 것”이라며 “하반기엔 파라미터와 데이커 토큰의 규모가 확장된 코GPT 2.0를 공개하는 게 목표”라고 말했다. 그는 “급변하는 AI산업에서의 기회를 포착하려고 한다”며 AI 사업 확장에 대한 의지를 드러냈다. 홍 대표는 “이미지 생성 파운데이션 모델로는 이달 중 업그레이드 된 ‘칼로 2.0’을...
AWS "베드록으로 생성AI 앱 쉽게 구축… 韓스타트업도 지원" 2023-05-03 14:26:57
년 전만 해도 AI 머신러닝(기계학습) 모델의 파라미터(매개변수)는 수백만에 불과했으나 이제는 수백억개로 늘어 ‘파운데이션 모델’이 대세”라며 “이를 통해 챗GPT 같은 생성형 AI가 부상하고 있고, 아마존 베드록은 생성 AI 앱을 구축하고 확장할 수 있는 가장 쉬운 방법”이라고 말했다. 그는 이어 “기업은 베드록을...
LLM이 대세?…'가성비' 무장한 sLLM도 있다 2023-04-21 16:56:32
출시 행렬도 이어지고 있다. 소형언어모델은 파라미터(매개변수가) 대형에 비해 적지만 훈련 및 운영 비용 부담 또한 낮다. 또한 LLM과 달리 오픈소스로 공개해 누구나 무료로 사용할 수 있다는 장점도 있다. 빅테크 간 LLM 기술 경쟁과 함께 소형언어모델과의 주도권 경쟁도 뜨거워질 것이라는 전망이 나온다. ‘가성비’...
빅테크 AI전쟁에…엔비디아 칩 '부르는게 값' 2023-04-20 18:04:37
페이스북)가 개발한 라마는 2048개의 A100을 통해 650억 개의 파라미터를 처리하고 있다. 구글 람다는 1370억 개, 네이버 하이퍼클로바는 2040억 개의 파라미터를 활용 중이다. 오픈AI는 GPT-4의 파라미터 수를 공개하지 않았다. 업계에선 이전 모델(GPT-3·1750억 개)보다 30% 이상 많은 파라미터를 썼을 것으로 추정하고...
"초거대 AI 도전하는 韓기업 약점…이탈리아에도 밀린 슈퍼컴 성능" 2023-04-19 17:43:34
1750억 개 파라미터를 갖고 있다. 최근 발표된 GPT-4의 파라미터는 공개되지 않았지만 조 단위가 넘을 것으로 예상된다. 이런 막대한 파라미터가 작동하려면 슈퍼컴이 필수다. 챗GPT에 대항할 국내 AI 언어모델로 네이버 하이퍼클로바, 카카오브레인 KoGPT, LG그룹 엑사원 등이 있다. KISTI에 따르면 이들 모델은 여러 가지...