게시글

모든 게시글 목록입니다. 최신순으로 정렬되어 있습니다.

총 511개의 게시글
총 86페이지

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

논문 링크 Native Sparse Attention (NSA) — 64 k 토큰도 11× 빠르게, 정확도는 그대로 한 줄 요약 (TL;DR) NSA는 ‘압축 → 선택 → 슬라이딩’ 3 분기 희소 어텐션과 GQA/MQA-친화 커널을 결합해 64 k 컨 …

31 분
2502.11089v2 Sparse Attention Long Context Transformer Optimization Efficient LLM GPU Acceleration FlashAttention Memory Efficiency Inference Speedup Trainable Sparsity Triton Kernel Deep Learning Language Models DeepSeek

디지털 드래곤의 심장: AI 시대, 중국 데이터센터 배터리 시장에 투자해야 하는 이유

아래 글은 gemini의 deep research를 이용하여 생성한 리포트입니다. 앞으로의 시대에서 2차전지는 전기차와 휴머노이드와 같은 산업에서 많은 수요가 있을것으로 예상이 됩니다. 그중에서도 데이터센터에 필요한 2차전지에 주목한다면(UPS/AI …

11 분
데이터센터 배터리 LFP CATL BYD AI ESG 중국

Janus-Pro: UnifiedMultimodalUnderstanding and Generation with Data and Model Scaling

논문 링크 Janus-Pro 7B: Dual-Encoder Multimodal LLM That Outsmarts Bigger Models 한 줄 요약 (TL;DR) SigLIP 이해 인코더 + VQ 생성 인코더를 완전히 분리한 뒤 7 B …

31 분
DeepSeek 2501.17811v1 Janus-Pro Dual-Encoder Multimodal Learning Vision-Language Models Text-to-Image Image Understanding Large Language Models Adapter Networks Visual Tokenization GenEval MMBench DPG-Bench DeepSeek-LLM Efficient Training Synthetic Data

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키