본문 바로가기

카테고리 없음

오늘은

바빴다 또 나름대로. 아침에 회의 준비해 톰선생 보고, 지오노드 업데이트 방안 의논하고 논문 계획 관련해서 얘기 나눴다. 그리곤 응용 전산과 가서 좀 쉬다가 보 박사 만나서 회의 했는데 아 머리 빠개 질 뻔 했다. 그냥 데이터 논의 좀 하재서 갔는데 뭔가 엄청 새롭고 새로운 것이었음. 결론은 내 자료에 그 방법론 적용해서 테스트하고 잘 되면 같이 논문 쓰기로. 뭔가.. 구글에서 나와 야후로 갔다는 그 유명한 여사장이랑 얘기하면 이런 기분일까 싶게 단위 시간에 뭔가 엄청 많은 정보가 쏟아져서 정신이 혼미해졌다. 여튼 한 마디로 줄이면, 차원 축소를 하는 새 알고리즘이 나와서 시계열 자료에 적용 해 보고 있는데 공간 자료에도 적용 해 보고 싶은데 내용으 데이터를 n차원 초공간에 뿌린 다음에 유클리드 거리를 안 쓰고 네트워크로 보고 쇼티스트 패스를 norm 으로 쓴 후에 이터러티브한 뭐시기 알고리즘을 쓰면 n차원 자료가 우리가 원하는 만큼의 비트 수를 가진 2진 자료로 변환 되는데 여러가지 테스트를 해보니 데이터 요약 능력이 아주 좋고 수학적으로 건강하다는 게 입증 돼서 쓰면 좋겠는데 아직 계산은 엄청 오래 걸려서 800 줄에 8 컬럼 자료 압축 하는 데 30분 정도 걸리고 그래도 C로 돼 있으니까 속도를 더 빠르게 하긴 힘들고 공간 데이터에 쓰면 아직 공간적 연속성을 고려하는 방법은 생각 안 해 봤는데 알게 되면 굉장히 신선하고 그건 생각해 보면 SSA도 공간에서 하면 똑같이 따끈따끈 할 것 같은데 아무튼 다시 dms로 돌아가면 내가 위성 영상 자료와 학습 할 수 있는 토지 이용 자룔르 만들어서 보내 주면 보 박사가 데이터 차원 축소 해서 다시 반송한 걸 내가 분류기에 넣고 돌려서 분류 결과가 일관적으로 향상 되는 지 보면 좋겠다. 

뭐 그런 얘길 했다. 자세한 계산 디테일은 다 뺐음. 기억도 잘 안나. 대충 뭐.. 일종의 2진 클러스터링이다..... 수학적으로 건강한 게 중요한데, 예를 들어 많이 쓰는 PCA에선 후에 아이겐 밸류를 기준으로 적당히 자르는 데 이게 마땅치 않을 때가 있는데 이 새로운 방법에선 몇 개 이진 컬럼으로 딱 떨어지고, 또 그게 판별력이 좋을 수 밖에 없음 수학 증명도 끝났다고 함. 

할턴 머리 아파. 발 박사랑 같이 하는 연구 던데, 나중에 끼워 주나..  

그 담엔 집에 와서 하드 교체하고, 뭐 잡다하게.. 다시 학교 가서 이불도 가져 왔고, 밥도 적당히 해 먹고, 내일 변사마 회의라 준비하고, 고셀 만나서 열쇠 받은 것 사인도 했구나. 서버도 체크하고 계속 자료 분석 돌리고, 뭐 아 몰라

워우어워 워우어워워

바쁜 만큼 잘 됐으면 좋겠다. 톰선생 오늘 얘기 처럼, 야.. 너 졸업만 해 제발.. 얼른..  



주 참고 문헌

Rohde, D.L.T. (2002). “Methods for binary multidimensional scaling”. In: Neural Computation 14.5, pp. 1195–1232.

Tenenbaum, J.B., V. de Silva, and J.C.S Langford (2000). “A Global Geometric Framework for Nonlinear Dimensionality Reduction”. In: Science 290, pp. 2319–2323. URL: http://www.sciencemag.org/content/290/5500/2319. abstract.