Notice
Recent Posts
Recent Comments
Link
250x250
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Doit점프투파이썬
- 혼만딥
- 진짜쓰는일러스트레이터
- 맛있는디자인스터디12기
- 3주차후기
- 프리미어프로
- 회고
- 혼공바
- 혼공JS
- 후기
- 맛있는디자인
- 애프터이펙트
- 6주차후기
- 혼공C
- CS2023
- 혼공머신
- 스터디
- Doit파이썬스터디
- 혼공파
- 혼공단
- 맛있는디자인스터디13기
- 바이브코딩
- 전면개정2판
- CC2023
- 혼공
- 혼공학습단
- 챌린지
- 제이펍
- 혼공자
- 혼공분석
Archives
- Today
- Total
728x90
목록2026/02/25 (1)
애독자's 공부방
혼공단 - 혼공바, 혼자 공부하는 바이브 코딩 with 클로드 코드 역자와 함께 하는 완독 챌린지 성공(?) 후기솔직히 말해서, 제 진짜 관심사는 요즘 가장 핫한 LLM, 그러니까 출시 예정인 '밑바닥부터 시작하는 딥러닝 6편'이었습니다. 하지만 화려해보이는 대규모 언어 모델을 제대로 이해하려면, 결국 그 문장들이 어떻게 숫자로 바뀌고 계산되는지 '밑바닥'의 원리를 아는 게 먼저라고 생각했습니다. 그렇게 시작한 3주간의 챌린지는 넘지못하는 커다란 산과 같았던 AI를 점점 수학과 논리로 풀어나가는 시간이었습니다. 1. 왜 1권부터 시작해야 했을까?아직 책이 나오지 않은 문제도 있지만 LLM도 결국엔 아주 큰 신경망으로, 이번에 배운 오차역전파법을 모르면 트랜스포머가 학습되는 원리를 이해하기 어렵습니다...
머신러닝+딥러닝
2026. 2. 25. 01:11
