LLMs
3
폴더의 모든 글 3
- LLMs Transformer 기반 AI 가속 프레임워크 ALiBi FlashAttention 공개 ALiBi FlashAttention - Speeding up ALiBi by 3-5x with a hardware-efficient implementation Sanghun Cho (Kakao Brain), Ofir Press (Princeton), Tri Dao (Princeton) Attention with linear bias, aka ALiBi (Press et al.), is a simple and widely used method to improve Transformer performance and its ability to extrapolate to sequences longer than those it was trained… 2024-02-06 #ALiBiFlashAttention #editor'spick #LargeScale-AI(초거대AI)
- LLMs 멀티모달 언어모델 오픈소스 프로젝트 ‘허니비’ 공개 - 이미지와 명령어 입력하면 텍스트로 답변하는 멀티모달 언어모델 오픈소스 프로젝트 ‘허니비’ 깃허브에 공개- MME, MMBench, SEED-Bench 등 벤치마크에서 타 모델 대비 최고 성능 달성- 카카오브레인, 더욱 발전된 AI 모델 확보를 위해 끊임없이 연구⋅개발할 것 카카오브레인이 자사가 개발한 멀티모달 언어모델 오픈소스 프로젝트 ‘허니비(Honeybee)’를 ‘깃허브(Github)’에 공개했다.카카오브레인은 이미지와 대규모 언어모델을 연결할 수 있는 새로운 모듈을 제안하고자 높은 수준의… 2024-01-25 #editor'spick #Honeybee #LLM(LargeLanguageModel) #공개공유
- LLMs 카카오브레인, 초거대 AI 언어 모델 ‘KoGPT’ 활용 시집 출간 미디어아트 그룹 슬릿스코프와 협력… KoGPT 활용한 시 쓰는 AI 모델 ‘시아’ 개발 총 53편의 시 수록된 시집 ‘시를 쓰는 이유’ 출간…오는 8월 대학로에서 시극 공연 펼쳐 초거대 AI 모델 활용될 수 있는 문화 및 예술 분야에서의 접점 지속 탐색 계획 카카오브레인(대표 김일두,이하 커티스)이 미디어아트 그룹 슬릿스코프와 함께 시 쓰는 AI 모델 ‘SIA(이하 시아)’를 개발하고, 오는… 2022-08-01 #KoGPT #LanguageModel(언어모델) #Sia(시아) #라지스케일