
K-뷰티, 새로운 도약의 기로에 설까?
K-뷰티, 새로운 도약의 기로에 서다 최근 K-뷰티 산업이 다시 한 번 주목받고 있습니다. 투자자로서 산업을 들여다보면서 느끼는 점은, 이 산업이 단순한 유행이 아니라 진지한 구조적 전환의 시기를 맞이하고 있다는 것입니다. 과거엔 중국 의존도가 높았지만, 지금은 미국, 일본, 유럽, …
모든 게시글 목록입니다. 최신순으로 정렬되어 있습니다.
K-뷰티, 새로운 도약의 기로에 서다 최근 K-뷰티 산업이 다시 한 번 주목받고 있습니다. 투자자로서 산업을 들여다보면서 느끼는 점은, 이 산업이 단순한 유행이 아니라 진지한 구조적 전환의 시기를 맞이하고 있다는 것입니다. 과거엔 중국 의존도가 높았지만, 지금은 미국, 일본, 유럽, …
Jekyll에서 Hugo로 블로그를 이전한 이유 저는 2021년에 처음 블로그를 시작하면서 Jekyll을 선택했습니다. 당시 GitHub에서 공식 지원하고 자료도 풍부했기 때문에 자연스레 사용하게 되었습니다. 초기에는 블로그에 글을 거의 올리지 않았기 때문에 Jekyll 자체에 대한 …
논문 링크 Massive Activations, Hidden Biases: 재해석된 Self-Attention의 비밀 한 줄 요약 (TL;DR) 수천만 개 중 4–10 개의 초거대 스칼라(×10 000) 가 LLM · ViT의 성능을 사실상 ‘혼자서’ 지탱한다. 이 스칼라는 입력과 무관 …
논문 링크 Peri-LayerNorm: Post-LN와 Pre-LN을 넘어서는 세 번째 선택지 한 줄 요약 (TL;DR) Residual 직후에 LayerNorm을 한 번 더 넣는 “Peri-LayerNorm(Peri-LN)” 구조만으로 — 400 M→3.2 B 파라미터 LLM …
논문 링크 SageAttention 3 & SageBwd — FP4로 달리고 8-bit로 학습한다 📝 한 줄 요약 (TL;DR) Blackwell 세대 GPU의 FP4 Tensor Core를 100 % 활용하도록 설계된 SageAttention 3(추론)과 SageBwd(훈련) …
논문 링크 Helix Parallelism: 초장기 LLM 디코딩의 지연-처리량 벽을 깨다 한 줄 요약 (TL;DR) Helix Parallelism은 Attention과 FFN을 서로 다른 병렬화 전략으로 스케줄링해 KV 캐시 중복과 FFN 가중치 로드 병목을 동시에 해소—1 M …
검색어를 입력하세요