안녕하세요?
도쿄박입니다.
딥시크발 폭락에 따른 앞으로의 저와, 파이닉스의 생각을 이곳에 담도록 하겠습니다.
더이상 이 이상으로 딥시크로 인한 하락으로 인해 우왕좌왕 하는 모습 안봤으면 좋겠습니다.
가독성을 위하여 반말을 섞을 수 있으니 이 점 양해바랍니다.
1) 딥시크가 발표 됌.
2) 더 적은 비용으로, 더 나은 성능을 보여준다가 이 딥시크 LLM의 핵심임.
3) 더 적은 비용이 충격적인지, 더 나은 성능이 충격적인지 비교를 해봤을 때,
4) AI인프라의 타격이 심각한것으로 보아서 더 적은 비용에 방점을 찍은 움직임이 큼.
5) '더 적은 비용' 에 대한 몆가지 생각을 정리해보고자 함.
6) 첫째, 딥시크는 언론에 발표한 공식적인 GPU 칩 갯수에 비해서 과대 축소 되었음을 의심 중
7) 둘째, 딥시크의 더 적은 비용에 대한 기술적 측면에서의 의심
8) 첫째는 말 그대로 칩 갯수가 본래 투자 된 칩 비용에 비해 과대 축소 되었음을 일론머스크가 거의 확정적으로 보고 있음.
아래의 사진 대화내용을 축약해보면 딥시크가 헐값에 개발이 된것이 아니라고 얘기하고 있음.
또한, 아래의 뉴스 전문에서 살펴볼 수 있듯이 일론은 딥시크 관련한 적은 비용이라는 부분에 대한 발표를 거의 확정적으로 거짓이라고 얘기하는 중.
9) 사실 나는 지금 딥시크가 적은 비용으로 나은 성능을 이끌었다는 부분에 대해서 크게 의심을 하지 않음. 적은 비용이 맞다고 생각함.
10) 그런데, 적은 비용을 어떻게 해냈는가에 대한 부분을 짚고 싶음. 바로 두번째 논지인 기술적 측면임.
11) 이제부터 얘기 할 내용은 공학적인 부분이 있기 때문에 참조해주길 바람.
12) 테슬라의 FSD v12 발표 당시에 일론머스크가 가장 강조한 부분이 자율주행을 '저전력' 소모로 획기적인 비용 축소를 이끌어 냈다고 발표함.
13) 그렇게 가능한 이유는 변수의 자료형 범위를 FR16 에서 INT8로 설정을 하면서 부동소수점 연산을 자르고 비트의 수를 획기적으로 줄였기 때문임.
14) 현재 AI 학계에서는 AI의 정교한 출력을 위해서 많은 수의 연산을 할 필요없이 양질의 데이터를 취합해서 적은 자료형 범위만으로도 충분히 성능을 이끌어 낼 수 있다는 발표가 지속적으로 나오고 있음.
15) 아래의 자료를 살펴보면 알겠지만, 자료형 범위가 줄어들수록 효율성은 올라가지만 출력의 정확도는 다소 줄어드는 함수(상관관계)를 갖고 있는데, 이 함수의 효율성이 현재처럼 FR16 체계만큼 과도하게 설정 될 필요는 없다고 거의 가닥이 나오고 있다는 사실임.
주주클럽 구독으로 더 많은 콘텐츠를 만나보세요!
전일 00시~24시까지 집계한 결과입니다.