안녕하세요. 초파고 개발자 로파고입니다.


오늘 장갑 7단계 업데이트로 초월 방어구 전 부위 전 단계의 업데이트가 끝났습니다.






제가 초월 1단계 모델 학습을 시작했던 10월 7일로부터 46일만에 모든 모델 학습을 마쳤습니다.
그동안 많은 관심 가져 주시고 느린 학습 시간을 기다려 주신 분들에게 감사드립니다.

그 외 짜잘한 업데이트나 기능 추가는 웹페이지의 '업데이트 로그' 및 '설명서'를 참조해주시면 감사하겠습니다.


**** 재미없는 잡소리 ****


1. 초파고 성능에 관해서

초파고 성능은 제가 늘 말씀드리지만 '최고의 성능'이 아니라 '쓸만한 성능'가 목표입니다.
성능에 관해서 설명을 드리려면 우선 학습 그래프를 먼저 설명 드릴 필요가 있습니다.
다음은 투구 6단계 초월 학습 그래프 중 초반 일부입니다.
(학습을 위해 일부러 훨씬 쉬운 엘조윈 8단계부터 시작한 것이라 실제 성능과는 차이가 있습니다.)


세로축은 3성 달성 확률, 가로 축은 학습 횟수를 의미합니다.
약 400회까지는 3성 달성률이 1%도 되지 않다가, 또 다시 이어지는 380회 정도는 2~3%대에서 전혀 성능이 오르지 않는 모습을 보입니다. 그러다가 약 780회 쯤에 5%의 벽을 뚫고, 약 150회 만에 성능이 20% 넘게 치솟는 것을 보실 수 있습니다.
이후에는 성능 개선 속도가 점점 느려집니다.

이 그래프는 위의 투구 6단계 엘조윈 8단계를 계속해서 3번에 나누어 진행한 총 약 105시간의 학습 그래프입니다.
후반부로 가면 갈 수록 점점 학습 속도가 느려지게 됩니다.
이 '천천히 오르는' 구간에서는 여러분들이 흔히 말하는 '초파고가 고장났다' 하는 부분들이 하나씩 고쳐지는 과정입니다.

초반에야 12시간만에 10% 성능이 36%까지 상승할 정도로 급격하게 성능 향상이 있기 때문에 시간과 연산력을 투자할 가치가 있지만, 후반으로 가면 12시간동안 74% 성능이 76%로 기껏해야 2~3%p 상승하는 것이 고작이기 때문에 투자할 가치가 크게 줄어듭니다. 따라서 성능과의 타협이 불가피합니다.

또 하나, 성능을 타협해야 하는 이유는 모델의 크기와도 관련이 있습니다.
현재 초파고의 확률을 계산하는 계산 담당 모델의 경우, 1~5단계는 약 5MB 크기이며, 6,7단계는 조금 더 큰 6.5MB의 크기입니다. 이게 어느 정도로 작은 모델인지 비교를 해드리자면, 현재 가장 성능 불만이 많은 타일 인식 모델의 경우 16MB 이며, 딥러닝이 아닌 단순 테이블 방식을 사용한 엘파고의 경우 비저격, 저격모드 전체 합쳐서 약 20GB의 용량을 차지합니다.

물론 강화학습(Reinforcement Learning)에서 모델의 크기는 다른 딥러닝 분야에 비해 중요도가 많이 떨어지지만, 초월이나 엘릭서와 같은 경우는 '난이도'가 어렵다기 보다는 '가짓수'가 많은 경우이기 때문에 '최고점'의 성능을 노린다면 모델 크기가 영향을 줄 수밖에 없습니다.

모델 크기를 키우면 다음 3가지 문제가 발생합니다.
1. 학습 시간이 대폭 증가합니다.
2. 브라우저에서 돌리기 때문에 이용자인 여러분들의 브라우저 및 컴퓨터 성능에 따라 극심한 성능 저하가 발생할 여지가 있습니다. 지금 모델로도 한번 계산에 1초 이상 걸리시는 분들도 계신 것으로 알고 있기 때문에 무시할 수 없는 문제입니다.
3. 네트워크 트래픽이 대폭 증가합니다. 엘파고까지만 해도 이용자가 일 수백명 수준이어서 구글 클라우드 기본 무료 제공 수준에서 해결되었습니다만, 현재는 최근 30일간 약 300GB로 전체 요금의 약 1/3 가량을 차지할 정도로 늘었습니다. 그나마도 클라우드 플레어 통계상 6TB 정도가 캐시로 제공된 상태입니다.




2~3배 정도면 크게 상관없겠지만, 현실적으로 유의미한 성능 고점을 바라본다면 모델 크기를 최소 10배정도는 키워야 의미가 있는데, 돈은 둘째 치고 여러분들 다운로드 시간을 포함해서 웹사이트가 훨씬 느려질 가능성이 높습니다. 

이러한 제약 사항들을 따져봤을 때, 성능에 타협을 하는 것이 맞다는 생각이 들어 현재 모델 성능을 유지하기로 결정했습니다.

2. 초파고의 역할

공식적인 제 입장은, 초파고의 성능은 사람보다 낫지 않다 입니다. 그럼 왜 쓰느냐?
초파고의 역할은 여러분들에게 '안전망'을 제공하는 것입니다.
초월 7단계 견갑 엘조윈 0단계를 예로 들자면, 초파고는 초졸, 중졸, 고졸, 대졸, 척척석사, 척척박사 아무 상관 없이 약 21.71%의 확률로 3성 달성하는 방법을 알려드립니다.

위 표의 21.71%는 여러분들이 흔히 말씀하시는 '초파고가 후반 가니 고장났다' 라고 하는 상황을 모두 포함해서 10만 번의 초월을 진행 했을 때 약 2만 번이 3성을 달성했다는 뜻입니다. 즉, 초파고가 100% 확률로 왜곡 3개를 부수라고 시키건, 재배치를 부수라고 시키건 아~무 의심 없이 무작정 따라도 100번 초월 진행하면 평균적으로 21번은 3성에 도달한다는 의미입니다.

여러분이 더 잘 깎으실 자신이 있거나, 초파고의 추천이 잘못되었다고 생각하신다면 당연히 여러분의 선택을 따르는 것이 맞습니다. 
'초파고를 따르지 않으면 망한다' 가 아니라,
'선택을 못 할 때 초파고를 따라가면 최소한 초파고만큼은 할 수 있다' 입니다.

특히 '후반부에 가면 초파고가 고장난다' 라는 말은 반은 맞고 반은 틀립니다.
좀 정확한 표현은
'후반부에 가면 초파고가 고장난 것을 알아차릴 수 있다' 입니다.

상의 1~5단계처럼 극단적으로 횟수가 적은게 아닌 이상, 수학적으로 봤을 때 경우의 수 자체는 후반부 보다 중반부가 더 많습니다. 즉, 초파고가 엉뚱한 조언을 중반부에 할 가능성도 상당히 높습니다. 하지만 중반부에서는 뭔가 잘못된 것 같은 '느낌'은 있어도 증명할 수는 없고, 후반부에서는 실제로 확률을 수학적으로 계산 가능하다는 차이점 때문에 후반부에 특히 고장이 많이 난다고 느끼실 수 있습니다.

따라서 초파고를 '경쟁 상대' 보다는 '조수' 정도로만 생각해 주시기 바랍니다.
가성비라는 개념이 들어가는 순간 AI는 근본적으로 사람을 이기기 어렵습니다. 인간만큼 성능 대비 저렴한 것도 없기 때문입니다.
대기업 AI도 이 문제에서 벗어나지 못하는데, 하물며 무료로 제공하는 제 초파고가 여러분보다 나을 수 없습니다.

3. 초파고 코드 관해서

결론부터 말씀드리면, 프론트엔드를 포함해서 초파고의 모든 코드는 공개하지 않습니다.

특히 학습 환경, 세팅, 모델 종류 등에 관해서도 일체 공개하지 않을 예정이니, 더 이상 문의 주시지 않으셨으면 좋겠습니다.
제게 코드 관해서 연락 주시는 분들은 크게 두 부류로 나뉩니다.
1. 프론트엔드 개발 협력 문의
2. 초파고 학습 세팅 문의

첫번째 분들은 공통적으로 본인이 어떤 사람인지, 어떤 기술이 있는지, 어떤 도움을 줄 수 있는지 자세하게 말씀해 주시면서 프론트엔드 개발에 도움을 주고 싶다는 연락을 주십니다. 정말 감사한 연락입니다만, 프론트엔드 개발은 전문가 분으로부터 이미 조언을 받고 있기 때문에 정중하게 거절했습니다.

두번째 연락의 경우 단 한번도 어떤 사람인지, 어떤 연구를 했는지, 혹은 어떤 도움을 줄 수 있는지 말씀 주신 분이 없었고, 학습 세팅과 모델, 방법에 대해서 질문만 주셨습니다.
제가 모은 데이터는 모두 인게임 내에서 얻을 수 있는 정보입니다. 스스로 충분히 모을 수 있는 정보를 아무런 맥락도 없이 요구하는 것은 대단히 무례한 행동입니다. 

서버 보안 측면에서도 코드 공유가 어려우니, 코드 공개/공유 관련 문의는 받지 않습니다. 양해 부탁드립니다.



*****************

초파고에 많은 관심 주신 것 다시 한 번 감사드립니다.

이후 진행 방향은 화면인식 개선을 할 지, 엘파고 개선을 할 지는 아직 미지수입니다만,

최소한 초월/엘릭서 같은 쓰레기 강화시스템이 또 나와서 또 다른 파고 시리즈를 만들 일이 없었으면 좋겠습니다.

혜자고 창렬이고 상관 없이 돈 들어가는 강화 시스템에 확률 가지고 장난치는 역겨운 짓을 좀 그만 봤으면 하는 바람이 있습니다.

감사합니다.