게시글

모든 게시글 목록입니다. 최신순으로 정렬되어 있습니다.

총 515개의 게시글
총 86페이지

Code I/O: Condensing Reasoning Patterns via Code Input-Output Prediction

논문 링크 CODE I/O: 코드 입·출력 + 자연어 CoT로 범용 추론까지 — 데이터 설계만으로 7B-30B LLM을 평균 +2 점 끌어올리다 TL;DR “코드 함수 → 입력·출력 예측 + 체계적 Chain-of-Thought(CoT)”라는 단일 데 …

31 분
2502.07316v4 DeepSeek LLM Code Reasoning Chain-of-Thought I/O Prediction Execution Feedback Data-Centric AI Instruction Tuning Transformer Long Context

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

논문 링크 Native Sparse Attention (NSA) — 64 k 토큰도 11× 빠르게, 정확도는 그대로 한 줄 요약 (TL;DR) NSA는 ‘압축 → 선택 → 슬라이딩’ 3 분기 희소 어텐션과 GQA/MQA-친화 커널을 결합해 64 k 컨 …

31 분
2502.11089v2 Sparse Attention Long Context Transformer Optimization Efficient LLM GPU Acceleration FlashAttention Memory Efficiency Inference Speedup Trainable Sparsity Triton Kernel Deep Learning Language Models DeepSeek

디지털 드래곤의 심장: AI 시대, 중국 데이터센터 배터리 시장에 투자해야 하는 이유

아래 글은 gemini의 deep research를 이용하여 생성한 리포트입니다. 앞으로의 시대에서 2차전지는 전기차와 휴머노이드와 같은 산업에서 많은 수요가 있을것으로 예상이 됩니다. 그중에서도 데이터센터에 필요한 2차전지에 주목한다면(UPS/AI …

11 분
데이터센터 배터리 LFP CATL BYD AI ESG 중국

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키