
K-뷰티, 새로운 도약의 기로에 설까?
K-뷰티, 새로운 도약의 기로에 서다 최근 K-뷰티 산업이 다시 한 번 주목받고 있습니다. 투자자로서 산업을 들여다보면서 느끼는 점은, 이 산업이 단순한 유행이 아니라 진지한 구조적 전환의 시기를 맞이하고 있다는 것입니다. 과거엔 중국 의존도가 높았 …
모든 게시글 목록입니다. 최신순으로 정렬되어 있습니다.

K-뷰티, 새로운 도약의 기로에 서다 최근 K-뷰티 산업이 다시 한 번 주목받고 있습니다. 투자자로서 산업을 들여다보면서 느끼는 점은, 이 산업이 단순한 유행이 아니라 진지한 구조적 전환의 시기를 맞이하고 있다는 것입니다. 과거엔 중국 의존도가 높았 …
Jekyll에서 Hugo로 블로그를 이전한 이유 저는 2021년에 처음 블로그를 시작하면서 Jekyll을 선택했습니다. 당시 GitHub에서 공식 지원하고 자료도 풍부했기 때문에 자연스레 사용하게 되었습니다. 초기에는 블로그에 글을 거의 올리지 않았 …
논문 링크 Massive Activations, Hidden Biases: 재해석된 Self-Attention의 비밀 한 줄 요약 (TL;DR) 수천만 개 중 4–10 개의 초거대 스칼라(×10 000) 가 LLM · ViT의 성능을 사실상 ‘혼자서’ …
논문 링크 Peri-LayerNorm: Post-LN와 Pre-LN을 넘어서는 세 번째 선택지 한 줄 요약 (TL;DR) Residual 직후에 LayerNorm을 한 번 더 넣는 “Peri-LayerNorm(Peri-LN)” 구조만으로 — 400 …
![[논문리뷰] SageAttention3: Microscaling FP4 Attention for Inference and An Exploration of 8-bit Training](https://cdn-uploads.huggingface.co/production/uploads/66c0a08bac74db25de8427ec/Tb20E3IJSV6PjcD9Nkvfg.png)
논문 링크 SageAttention 3 & SageBwd — FP4로 달리고 8-bit로 학습한다 📝 한 줄 요약 (TL;DR) Blackwell 세대 GPU의 FP4 Tensor Core를 100 % 활용하도록 설계된 SageAttention …
![[논문리뷰] Helix Parallelism: Rethinking Sharding Strategies for Interactive Multi-Million-Token LLM Decoding](https://www.storagereview.com/wp-content/uploads/2025/07/image2-2-png-e1752234784623.webp)
논문 링크 Helix Parallelism: 초장기 LLM 디코딩의 지연-처리량 벽을 깨다 한 줄 요약 (TL;DR) Helix Parallelism은 Attention과 FFN을 서로 다른 병렬화 전략으로 스케줄링해 KV 캐시 중복과 FFN 가중치 …
검색어를 입력하세요