<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
  <channel>
    <title>KDST</title>
    <link>https://kdst.tistory.com/</link>
    <description>KDST는 딥러닝을 포함한 데이터와 지능에 관련된 여러 주제에 대해서 연구하는 팀입니다. </description>
    <language>ko</language>
    <pubDate>Wed, 8 Apr 2026 00:23:33 +0900</pubDate>
    <generator>TISTORY</generator>
    <ttl>100</ttl>
    <managingEditor>KDST</managingEditor>
    <item>
      <title>KAVA: LATENT REASONING VIA  COMPRESSED KV-CACHE DISTILLATION</title>
      <link>https://kdst.tistory.com/117</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;안녕하세요. KDST 한용진입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번에 소개해 드릴 논문은 2026년도 ICLR에 발표된 &quot;KAVA: LATENT REASONING VIA&amp;nbsp;&amp;nbsp;COMPRESSED KV-CACHE DISTILLATION&quot;입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문을 소개해 드리게 된 배경은 다음과 같습니다. 우리가 사용하는 &lt;i&gt;KV cache가 중요한 정보를 잘 담고 있다면&lt;/i&gt;, KV cache를 다양한 태스크에 활용할 수 있지 않을까?라는 궁금증에서 시작되었습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;LLM은 Chain-of-Thought(CoT)를 활용해 추론(reasoning)과 같은 복잡한 문제를 잘 풀게 되었습니다. 그러나 일반적으로 사용하는 CoT는 자연어로 구성되어 있어 자연어가 가지고 있는 무의미한 단어들을 처리하는 데 불필요한 연산을 사용하는 문제점이 존재합니다. 이러한 문제를 해결하기 위해 CoT를 latent variable로 변환하여 추론하는 Latent reasoning 방법이 등장하게 됩니다. 하지만 변환된 latent variable은 사람이 해석할 수 없기 때문에 latent로 바뀌는 과정이 제대로 이루어지는지 확인할 수 없다는 문제가 있습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서는 KV cache에 내재된 정보를 활용하여 latent reasoning에서 발생하는 문제(lack of supervision)를 해결하는 방법을 제안합니다.&lt;/p&gt;
&lt;hr contenteditable=&quot;false&quot; data-ke-type=&quot;horizontalRule&quot; data-ke-style=&quot;style6&quot; /&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;논문에서 제안하는 KAVA는 먼저 teacher의 KV cache를 압축하여 중요한 정보들만 캐시에 남긴 뒤, teacher의 압축된 KV cache를 student의 KV cache로 지식 증류를 함으로써 latent reasoning 모델을 학습시킨다. 이러한 과정에서 R-KV [1]와 CODI [2] 방법이 함께 사용되는데 두 방법을 간단하게 알아보도록 하자.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;R-KV&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;추론 모델의 출력 결과는 일반적으로 장문으로 구성되기 때문에, 추론 시 캐싱된 값들이 상당히 반복적이라는 문제가 존재한다. R-KV는 Importance score(어텐션 스코어)와 Redundancy score를 통해 반복적이지 않으면서도 중요한 정보들만 저장하는 KV compression method를 제안한다.&lt;/p&gt;
&lt;div data-ke-type=&quot;moreLess&quot; data-text-more=&quot;더보기&quot; data-text-less=&quot;닫기&quot;&gt;&lt;a class=&quot;btn-toggle-moreless&quot;&gt;더보기&lt;/a&gt;
&lt;div class=&quot;moreless-content&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;R-KV(&lt;b&gt;R&lt;/b&gt;edundancy-aware &lt;b&gt;KV&lt;/b&gt; Cache Compression for &lt;b&gt;R&lt;/b&gt;easoning models)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;추론 모델에서 장문의 출력을 생성함에 따라 반복되는 캐싱 문제를 해결하기 위한 방법을 제안한다. Importance score는 일반적인 어텐션 스코어를 사용하며 Redundancy estimation에서는 코사인 유사도를 활용한다. 두 평가지표를 통해 중요도와 반복성을 \lambda로 제어하여 적절한 전략을 탐색한다. 계산된 점수를 통해 Top-k의 값들만 캐시에 저장한다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;실제 구현에서는 KV cache를 일정 예산만큼만 압축한 뒤, 나머지는 새로운 토큰값으로 채운다. 이를 통해 최신으로 들어온 토큰 정보를 유지하면서 이전에 있던 토큰들은 반복적이지 않고 중요한 토큰들만 남기도록 한다.&lt;/p&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;793&quot; data-origin-height=&quot;336&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/2BRlW/dJMcahRiyXQ/kXqjckPWYzktvqhTkHo601/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/2BRlW/dJMcahRiyXQ/kXqjckPWYzktvqhTkHo601/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/2BRlW/dJMcahRiyXQ/kXqjckPWYzktvqhTkHo601/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F2BRlW%2FdJMcahRiyXQ%2FkXqjckPWYzktvqhTkHo601%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;597&quot; height=&quot;253&quot; data-origin-width=&quot;793&quot; data-origin-height=&quot;336&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;CODI&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Explicit CoT는 자연어로 구성되어 있어 중요하지 않은 단어/토큰도 처리해야 하는 문제점이 존재한다. 이러한 문제를 해결하기 위해 Latent reasoning이 제안되었지만 latent variable은 해석할 수 없기 때문에 제대로 추론이 이루어지고 있는지 확인하기 어렵다. CODI는 teacher와 student 모델에 KV cache를 두고 teacher의 KV cache를 supervisor로 활용하는 지식 증류 방법을 제안한다.&lt;/p&gt;
&lt;div data-ke-type=&quot;moreLess&quot; data-text-more=&quot;더보기&quot; data-text-less=&quot;닫기&quot;&gt;&lt;a class=&quot;btn-toggle-moreless&quot;&gt;더보기&lt;/a&gt;
&lt;div class=&quot;moreless-content&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;CODI(Continuous Chain-of-Thought via Self-Distillation)&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;일반적으로 CoT 기반 추론 모델은 자연어 토큰에 의존하는 반면, 프롬프트를 continuous representation으로 표현하면 짧아진 프롬프트로 인해 더 효율적인 추론이 가능해진다. CODI는 teacher task와 student task를 두고 증류를 하는 방법을 제안한다. 또한 증류를 위한 손실 함수로 정답 직전 토큰의 hidden state를 사용하는 데, 이는 정답 직전의 토큰이 정답을 유추하는 데 가장 큰 기여를 하기 때문이라고 한다. 아래 그림을 예시로 들면, 정답 직전의 토큰은 &quot;:&quot;이므로 &quot;:&quot;에 해당되는 hidden state를 정렬하는 손실 함수를 통해 모델을 학습한다.&lt;/p&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;765&quot; data-origin-height=&quot;270&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bA8phG/dJMcagETOLv/PklH7Akkx17zfEat0tvc5k/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bA8phG/dJMcagETOLv/PklH7Akkx17zfEat0tvc5k/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bA8phG/dJMcagETOLv/PklH7Akkx17zfEat0tvc5k/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbA8phG%2FdJMcagETOLv%2FPklH7Akkx17zfEat0tvc5k%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;510&quot; height=&quot;180&quot; data-origin-width=&quot;765&quot; data-origin-height=&quot;270&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;KAVA가 사용하는 손실함수는 다음과 같다: 1) student/teacher loss, 2) CODI loss, 3) KV distillation&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;876&quot; data-origin-height=&quot;113&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/26IRR/dJMcafMLo69/RA0oNL9RwoVj6y0eovaiN0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/26IRR/dJMcafMLo69/RA0oNL9RwoVj6y0eovaiN0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/26IRR/dJMcafMLo69/RA0oNL9RwoVj6y0eovaiN0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F26IRR%2FdJMcafMLo69%2FRA0oNL9RwoVj6y0eovaiN0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;488&quot; height=&quot;63&quot; data-origin-width=&quot;876&quot; data-origin-height=&quot;113&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size18&quot;&gt;1) student/teacher loss&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;먼저 Teacher loss는 질문이 주어졌을 때 올바른 추론 과정(CoT, C)과 올바른 답(A)을 생성하는지 확인하는 손실 함수이며 CrossEntropy loss를 사용한다. Student loss는 질문과 latent variable로 표현된 추론 과정(implicit CoT, Z)이 주어졌을 때 올바른 답(A)을 생성하는지 확인하는 손실 함수이다. 두 손실 함수의 차이점은 C/Z의 위치인데, 이는 latent reasoning의 단점인 supervision이 부족한 것을 보완하기 위한 조치라고 보면 되겠다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size18&quot;&gt;2) CODI loss&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;CODI loss는 student/teacher 모델에서 정답 직전 토큰의 hidden state를 정렬시키기 위한 손실 함수이다. Teacher 모델에서 Student 모델로 지식을 증류시킬 것이므로 sg(stop gradient)를 통해 teacher에 gradient가 흐르지 않도록 한다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;316&quot; data-origin-height=&quot;91&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bJFSRN/dJMcai3HxqD/CqKj0lgXmft9byQaKVYzKk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bJFSRN/dJMcai3HxqD/CqKj0lgXmft9byQaKVYzKk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bJFSRN/dJMcai3HxqD/CqKj0lgXmft9byQaKVYzKk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbJFSRN%2FdJMcai3HxqD%2FCqKj0lgXmft9byQaKVYzKk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;191&quot; height=&quot;55&quot; data-origin-width=&quot;316&quot; data-origin-height=&quot;91&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size18&quot;&gt;3) KV distillation&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;KV distillation loss는 R-KV로 압축된 teacher의 KV cache에 내재된 정보들을 student의 KV cache로 증류하는 함수이다. CODI loss와 유사하게 손실 함수가 설계되었다. 이때 p는 1 또는 2의 값을 가지며, student의 KV cache 사이즈(M)에 맞추어 압축이 되었기 때문에 M으로 두 번 나눈다. (key, value 한 번씩)&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;628&quot; data-origin-height=&quot;80&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/AfhQx/dJMcagkyx4H/mIIKvfOnCSKiYL4UatWQX1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/AfhQx/dJMcagkyx4H/mIIKvfOnCSKiYL4UatWQX1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/AfhQx/dJMcagkyx4H/mIIKvfOnCSKiYL4UatWQX1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FAfhQx%2FdJMcagkyx4H%2FmIIKvfOnCSKiYL4UatWQX1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;392&quot; height=&quot;50&quot; data-origin-width=&quot;628&quot; data-origin-height=&quot;80&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1359&quot; data-origin-height=&quot;772&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/drL3xh/dJMcaaEFF3E/lYmbgrGF9ZxB6KmdVmbKC0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/drL3xh/dJMcaaEFF3E/lYmbgrGF9ZxB6KmdVmbKC0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/drL3xh/dJMcaaEFF3E/lYmbgrGF9ZxB6KmdVmbKC0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdrL3xh%2FdJMcaaEFF3E%2FlYmbgrGF9ZxB6KmdVmbKC0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;661&quot; height=&quot;375&quot; data-origin-width=&quot;1359&quot; data-origin-height=&quot;772&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table 1은 GSM8k-AUG와 GSM8k-AUG-NL에 대한 실험 결과이다. KAVA가 대체적으로 더 좋은 성능을 보이고 있으며, 좀 더 어려운 데이터셋인 GSM8k-AUG-NL에 대해서도 정확도 감소가 덜하다는 장점이 있다고 저자들이 주장한다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;856&quot; data-origin-height=&quot;625&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/kSh5B/dJMcacbo4WL/R6Vc420uhCSDNTcKGkmRFk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/kSh5B/dJMcacbo4WL/R6Vc420uhCSDNTcKGkmRFk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/kSh5B/dJMcacbo4WL/R6Vc420uhCSDNTcKGkmRFk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FkSh5B%2FdJMcacbo4WL%2FR6Vc420uhCSDNTcKGkmRFk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;563&quot; height=&quot;411&quot; data-origin-width=&quot;856&quot; data-origin-height=&quot;625&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Figure 4는 explicit CoT 토큰을 일정 비율만큼 latent token으로 변경하여(20%-&amp;gt;40%-&amp;gt;60%-&amp;gt;80%) 정확도와 효율성 간의 상관관계를 측정한 결과이다. x축은 CoT를 생성하는 데 필요한 forward pass의 수를 의미한다. 그림을 통해 알 수 있듯이, KAVA가 다른 방법들보다 더 좋은 Pareto frontier를 보여주고 있다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;882&quot; data-origin-height=&quot;484&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bClj42/dJMcajauhre/dCyuHFdAOLxrqnb7QXECn0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bClj42/dJMcajauhre/dCyuHFdAOLxrqnb7QXECn0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bClj42/dJMcajauhre/dCyuHFdAOLxrqnb7QXECn0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbClj42%2FdJMcajauhre%2FdCyuHFdAOLxrqnb7QXECn0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;559&quot; height=&quot;307&quot; data-origin-width=&quot;882&quot; data-origin-height=&quot;484&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Figure 5는 KV distillation loss에서 p를 어떤 값으로 설정해 주었는지에 따른 정확도를 보여준다. 신기하게도 p=1 (l1 norm)을 사용했을 때 더 좋은 성능을 보인다고 한다. 그러나 저자들은 이 부분에 대해서 의미 있는 해석을 제공하지는 않고 있다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Figure 6은 R-KV를 통해 teacher의 KV cache를 압축할 때 redundancy에 초점을 맞출 것인지 importance에 초점을 맞출 것인지를 확인하는 실험이다. 그림을 통해 확인할 수 있듯이 두 평가 지표를 적절하게 모두 고려하는 것이 좋은 성능을 낸다는 것을 보여준다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;670&quot; data-origin-height=&quot;316&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bin6lH/dJMcajnZoj5/l2bBIA8GoWhDUohrC60m4K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bin6lH/dJMcajnZoj5/l2bBIA8GoWhDUohrC60m4K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bin6lH/dJMcajnZoj5/l2bBIA8GoWhDUohrC60m4K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbin6lH%2FdJMcajnZoj5%2Fl2bBIA8GoWhDUohrC60m4K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;411&quot; height=&quot;194&quot; data-origin-width=&quot;670&quot; data-origin-height=&quot;316&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Figure 7은 latent CoT(implicit CoT)와 정답 CoT 간의 코사인 유사도를 측정한 결과이다. 왼쪽 그림은 R-KV로 KV cache를 압축하지 않은 상태에서 KV distillation loss로 학습한 결과인데, 정답 CoT와의 유사도가 거의 없는 반면, 압축된 KV cache로 학습한 결과 대각 행렬의 값이 높은 것을 통해 정답 CoT와 latent CoT의 유사도가 높은 것을 확인할 수 있다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1068&quot; data-origin-height=&quot;407&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Hxp7B/dJMcabDzGuD/Su8xAlNeZs3U9RsxlQo4k0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Hxp7B/dJMcabDzGuD/Su8xAlNeZs3U9RsxlQo4k0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Hxp7B/dJMcabDzGuD/Su8xAlNeZs3U9RsxlQo4k0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FHxp7B%2FdJMcabDzGuD%2FSu8xAlNeZs3U9RsxlQo4k0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;624&quot; height=&quot;238&quot; data-origin-width=&quot;1068&quot; data-origin-height=&quot;407&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;KV cache를 압축(compression) 또는 축출(eviction)하는 과정에서 레이어/헤드 간의 관계가 고려되지 않아 입력 토큰과의 직접적인 연계가 어려운 점이 존재한다. 그럼에도 불구하고 압축/축출된 KV cache에 있는 정보를 통해 더 좋은 추론 성능을 낼 수 있다는 점에서 유의미한 논문이라고 생각한다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 글에서 다루지 않은 내용 및 실험이 있으니 더 깊은 이해를 위해 논문 읽기를 권장드립니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://openreview.net/pdf?id=ePrhcLbtGv&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://openreview.net/pdf?id=ePrhcLbtGv&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;긴 글 읽어주셔서 감사합니다.&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;참고문헌&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;[1] &lt;span style=&quot;background-color: #ffffff; color: #222222; text-align: left;&quot;&gt;Cai, Zefan, et al. &quot;R-kv: Redundancy-aware kv cache compression for reasoning models.&quot;&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;i&gt;arXiv preprint arXiv:2505.24133&lt;/i&gt;&lt;span style=&quot;background-color: #ffffff; color: #222222; text-align: left;&quot;&gt;&lt;span&gt;&amp;nbsp;&lt;/span&gt;(2025).&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;[2] &lt;span style=&quot;background-color: #ffffff; color: #222222; text-align: left;&quot;&gt;Shen, Zhenyi, et al. &quot;Codi: Compressing chain-of-thought into continuous space via self-distillation.&quot;&lt;span&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;i&gt;Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing&lt;/i&gt;&lt;span style=&quot;background-color: #ffffff; color: #222222; text-align: left;&quot;&gt;. 2025.&lt;/span&gt;&lt;/p&gt;</description>
      <category>Chain-of-Thought</category>
      <category>KV cache</category>
      <category>KV cache compression</category>
      <category>Latent reasoning</category>
      <category>LLM</category>
      <category>Reasoning</category>
      <author>jinius730</author>
      <guid isPermaLink="true">https://kdst.tistory.com/117</guid>
      <comments>https://kdst.tistory.com/117#entry117comment</comments>
      <pubDate>Tue, 24 Mar 2026 12:50:02 +0900</pubDate>
    </item>
    <item>
      <title>One Paper Accepted at ICLR 2026</title>
      <link>https://kdst.tistory.com/115</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;4월에 브라질에서 열리는 ICLR 2026에 다음 1편의 논문을 발표하게 되었습니다. 최초로 T2V 모델에 특화된 탈옥 기법을 제안한 점이 인정받은 것 같습니다. 점점 더 활용이 늘어날 T2V 모델의 safety에 대한 연구의 시작점으로서의 의의가 크다고 생각합니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;더 자세한 내용은 공저자로 참여한 박하언 님의 아래 링크의 글을 참조하시기 바랍니다.&amp;nbsp;&lt;br /&gt;&lt;br /&gt;&quot;Jailbreaking&amp;nbsp;on&amp;nbsp;Text-to-Video&amp;nbsp;Models&amp;nbsp;via&amp;nbsp;Scene&amp;nbsp;Splitting&amp;nbsp;Strategy&quot;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh/?utm_source=share&amp;amp;utm_medium=member_desktop&amp;amp;rcm=ACoAAAEo1YsBRipDMyvWjsR4fw_VpQN-EzddNmY&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh/?utm_source=share&amp;amp;utm_medium=member_desktop&amp;amp;rcm=ACoAAAEo1YsBRipDMyvWjsR4fw_VpQN-EzddNmY&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1769434104772&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;article&quot; data-og-title=&quot; &amp;nbsp; We jailbroke Google Veo2, Luma Ray2, and Hailuo with 84% success rate.&amp;nbsp;The results were&amp;hellip; harder to look at than we exp&quot; data-og-description=&quot; &amp;nbsp; We jailbroke Google Veo2, Luma Ray2, and Hailuo with 84% success rate.&amp;nbsp;The results were&amp;hellip; harder to look at than we expected.   Working on LLM jailbreaks, you see harmful text: uncomfortable, but just text. With video generation, bypassing safe&quot; data-og-host=&quot;www.linkedin.com&quot; data-og-source-url=&quot;https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh/?utm_source=share&amp;amp;utm_medium=member_desktop&amp;amp;rcm=ACoAAAEo1YsBRipDMyvWjsR4fw_VpQN-EzddNmY&quot; data-og-url=&quot;https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/Uv9xS/dJMb88eU4NI/2lPC6zMaa1JfV4UWLFGEik/img.jpg?width=800&amp;amp;height=670&amp;amp;face=0_0_800_670,https://scrap.kakaocdn.net/dn/i3QcQ/dJMb9aKzzvc/GZSiOaNeSDXEF8kpI0esHk/img.jpg?width=800&amp;amp;height=670&amp;amp;face=0_0_800_670,https://scrap.kakaocdn.net/dn/zc8ya/dJMb86nR0pE/H5rPjXQQbCk3RW3BEXAFKK/img.jpg?width=800&amp;amp;height=200&amp;amp;face=0_0_800_200&quot;&gt;&lt;a href=&quot;https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh/?utm_source=share&amp;amp;utm_medium=member_desktop&amp;amp;rcm=ACoAAAEo1YsBRipDMyvWjsR4fw_VpQN-EzddNmY&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh/?utm_source=share&amp;amp;utm_medium=member_desktop&amp;amp;rcm=ACoAAAEo1YsBRipDMyvWjsR4fw_VpQN-EzddNmY&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/Uv9xS/dJMb88eU4NI/2lPC6zMaa1JfV4UWLFGEik/img.jpg?width=800&amp;amp;height=670&amp;amp;face=0_0_800_670,https://scrap.kakaocdn.net/dn/i3QcQ/dJMb9aKzzvc/GZSiOaNeSDXEF8kpI0esHk/img.jpg?width=800&amp;amp;height=670&amp;amp;face=0_0_800_670,https://scrap.kakaocdn.net/dn/zc8ya/dJMb86nR0pE/H5rPjXQQbCk3RW3BEXAFKK/img.jpg?width=800&amp;amp;height=200&amp;amp;face=0_0_800_200');&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt; &amp;nbsp; We jailbroke Google Veo2, Luma Ray2, and Hailuo with 84% success rate.&amp;nbsp;The results were&amp;hellip; harder to look at than we exp&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt; &amp;nbsp; We jailbroke Google Veo2, Luma Ray2, and Hailuo with 84% success rate.&amp;nbsp;The results were&amp;hellip; harder to look at than we expected.   Working on LLM jailbreaks, you see harmful text: uncomfortable, but just text. With video generation, bypassing safe&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;www.linkedin.com&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/115</guid>
      <comments>https://kdst.tistory.com/115#entry115comment</comments>
      <pubDate>Mon, 26 Jan 2026 22:37:06 +0900</pubDate>
    </item>
    <item>
      <title>2026년 대한전자공학회 영상이해/ 영상처리 연구회 합동겨울학교 초청 강의</title>
      <link>https://kdst.tistory.com/116</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;지난 1월 13일(화)~15일(목)에 소노캄 비발디파크에서 열린 2026년 대한전자공학회 영상이해/ 영상처리 연구회 합동겨울학교에서 파라미터 효율적 미세 조정(PEFT)에 대한 초청 강의를 진행하였습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;최근에는 워낙 큰 모델이 많이 나와서 실제로도 많이 활용되는 기술이면서 연구도 활발히 진행되고 있는 분야입니다. 자원이 제한된 대학 연구실에서 특히 활용도가 높아서 많이들 관심 갖고 들어주셔서 감사했습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/116</guid>
      <comments>https://kdst.tistory.com/116#entry116comment</comments>
      <pubDate>Mon, 26 Jan 2026 22:36:45 +0900</pubDate>
    </item>
    <item>
      <title>Curvature Tuning: Provable Training-free Model Steering From a Single Parameter</title>
      <link>https://kdst.tistory.com/114</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;안녕하세요. KDST 한용진입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 시간에는 2025년도 NeurIPS에서 소개된 논문에 대해 이야기를 나눠보고자 합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;데이터의 양과 모델의 크기가 증가함에 따라서 이제는 사전학습된 모델을 불러와 특정 작업에 맞춰 모델을 가볍게 수정하는 미세조정(fine-tuning) 방법이 표준으로 자리매김하고 있습니다. 현재까지 Low-Rank Adaptation(LoRA)와 같은 학습 가능한 파라미터의 수를 줄이는 다양한 방법들이 제안되어 왔는데 이는 모델의 가중치를 수정하는 방법입니다. 이와 반대로 본 논문에서 저자들은 활성화 함수를 수정하는 것에 눈을 돌렸습니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;비선형 활성화 함수는 신경망의 표현력을 담당하는 실질적인 요소라고 봐도 무방합니다. 본 논문에서는 ReLU 활성화 함수를 새로운 활성화 함수로 바꾸어 가중치를 수정하지 않고 곡률을 조절할 수 있는 방법을 제안합니다. 아래 Figure 1은 저자들이 제안하는 방법을 통해 곡률을 조절했을 때 분류/회귀 문제를 시각화한 그림입니다. 왼쪽 아래 그림에서 어떠한 하이퍼 파라미터 베타를 줄이면 활성화 함수의 곡률이 줄어드는 것을 확인할 수 있습니다. 이를 분류/회귀 문제에 적용하면, \beta=0.5일 때 분류 문제에서 결정 경계가 완만해지면서 데이터를 더 잘 분류하고, \beta=0.9일 때 또한 ReLU network보다 데이터에 잘 맞는 회귀 곡선을 추정하는 것을 볼 수 있습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.24.54 PM.png&quot; data-origin-width=&quot;853&quot; data-origin-height=&quot;458&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/RandM/dJMcacIBna9/2Ok8qChqOGFwsktkSTBdl0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/RandM/dJMcacIBna9/2Ok8qChqOGFwsktkSTBdl0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/RandM/dJMcacIBna9/2Ok8qChqOGFwsktkSTBdl0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FRandM%2FdJMcacIBna9%2F2Ok8qChqOGFwsktkSTBdl0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;676&quot; height=&quot;363&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.24.54 PM.png&quot; data-origin-width=&quot;853&quot; data-origin-height=&quot;458&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저자들은 spline function의 개념을 활용하여 곡률을 조정하는 방법을 제안합니다.&lt;/p&gt;
&lt;div data-ke-type=&quot;moreLess&quot; data-text-more=&quot;더보기&quot; data-text-less=&quot;닫기&quot;&gt;&lt;a class=&quot;btn-toggle-moreless&quot;&gt;더보기&lt;/a&gt;
&lt;div class=&quot;moreless-content&quot;&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Spline function s는 piece-wise polynomial로 정의된 s: \mathbb{R}^D \rightarrow \mathbb{R} 인 연속 함수이다. 아래의 그림처럼 Linear splines는 구간별로 선형 함수가 정의된 것을 확인할 수 있다. 이를 통해 실제 함수를 추정할 때 자주 사용한다.&lt;/p&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;568&quot; data-origin-height=&quot;352&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dc5PnL/dJMcajgBaVS/VxriAB1ltBp7ciRKKmnJq0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dc5PnL/dJMcajgBaVS/VxriAB1ltBp7ciRKKmnJq0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dc5PnL/dJMcajgBaVS/VxriAB1ltBp7ciRKKmnJq0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fdc5PnL%2FdJMcajgBaVS%2FVxriAB1ltBp7ciRKKmnJq0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;269&quot; height=&quot;167&quot; data-origin-width=&quot;568&quot; data-origin-height=&quot;352&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;

&lt;p data-ke-size=&quot;size16&quot;&gt;Affine spline function은 affine mapping으로 정의된 spline function의 special case이다.&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;Matrix A\in \mathbb{R}^{R\times D}&lt;/li&gt;
&lt;li&gt;Offset b\in \mathbb{R}^R&lt;/li&gt;
&lt;li&gt;
&lt;div style=&quot;text-align: left;&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;Partition &lt;/span&gt;&lt;span&gt;&amp;Omega;≜{&amp;omega;_1, &amp;hellip;,&amp;omega;_R}&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; of the input space &lt;/span&gt;&lt;span&gt;R^D&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; into &lt;/span&gt;&lt;span&gt;R&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt; regions&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;&lt;/span&gt;&lt;/div&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;582&quot; data-origin-height=&quot;98&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bMXWsH/dJMcad1Kf8H/8BglR5eNpi7KlpvxKigYlk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bMXWsH/dJMcad1Kf8H/8BglR5eNpi7KlpvxKigYlk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bMXWsH/dJMcad1Kf8H/8BglR5eNpi7KlpvxKigYlk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbMXWsH%2FdJMcad1Kf8H%2F8BglR5eNpi7KlpvxKigYlk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;321&quot; height=&quot;54&quot; data-origin-width=&quot;582&quot; data-origin-height=&quot;98&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;

&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;각 구간/파티션에 알맞은 affine mapping이 적용된다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Max-affine spline function은 파티션&amp;nbsp;&lt;span style=&quot;background-color: #fafafa; color: #333333; text-align: left;&quot;&gt;&amp;Omega;의 정확한 정보 없이도 정의할 수 있는 affine spline function의 special case이다.&lt;/span&gt;&lt;/p&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;464&quot; data-origin-height=&quot;68&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/Gm5Vl/dJMcaaYjrHd/68N1K0WZzRxNdotYfK1UYK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/Gm5Vl/dJMcaaYjrHd/68N1K0WZzRxNdotYfK1UYK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/Gm5Vl/dJMcaaYjrHd/68N1K0WZzRxNdotYfK1UYK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FGm5Vl%2FdJMcaaYjrHd%2F68N1K0WZzRxNdotYfK1UYK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;287&quot; height=&quot;42&quot; data-origin-width=&quot;464&quot; data-origin-height=&quot;68&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;

&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;신경망 또한 max-affine spline function으로 해석하여 연구하는 논문이 다수 존재하니 관심이 있다면 살펴보면 좋겠다.&lt;/p&gt;
&lt;/div&gt;
&lt;/div&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Curvature Tuning: a provable method for model steering&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서는 steering이라는 표현을 미세 조정(fine-tuning)의 상위 개념으로 소개하고 있습니다. 신경망을 구성하는 요소 중에서 가중치를 조정하는 것과 활성화 함수를 조정하는 것 모두 steering 범주 안에 들어간다고 표현하겠습니다.&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Toy example&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.24.02 PM.png&quot; data-origin-width=&quot;843&quot; data-origin-height=&quot;415&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/MWxkd/dJMcad1KfXt/8UsnJ4502F3AUhOYzf4DzK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/MWxkd/dJMcad1KfXt/8UsnJ4502F3AUhOYzf4DzK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/MWxkd/dJMcad1KfXt/8UsnJ4502F3AUhOYzf4DzK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FMWxkd%2FdJMcad1KfXt%2F8UsnJ4502F3AUhOYzf4DzK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;496&quot; height=&quot;244&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.24.02 PM.png&quot; data-origin-width=&quot;843&quot; data-origin-height=&quot;415&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위 Figure 1 예제를 통해 곡률을 수정하는 것에 대한 유효성을 확인하였습니다. 만약 2차원 실수 공간에서 이진 분류 문제가 주어졌고 최적의 decision boundary가 단위원 S^&amp;prime;={x&amp;isin;R^2:‖x‖_2=1}&amp;nbsp;이라고 하겠습니다. 이때 x는 다음과 같이 파라미터화 됩니다: &lt;span&gt;&amp;gamma;:t&lt;/span&gt;&lt;span&gt;↦(cos2&amp;pi;t, sin2&amp;pi;t), &lt;span&gt;t&amp;isin;[0,1]. &lt;span&gt;&amp;sigma;는 시그모이드 함수입니다.&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span&gt;&lt;span&gt;&lt;span&gt;R^2에서 R로 가는 함수 f는 두 클래스를 같은 확률로 분류하는 게 가장 이상적일 것입니다.&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;
&lt;p style=&quot;text-align: center;&quot; data-ke-size=&quot;size16&quot;&gt;&lt;span&gt;&amp;sigma;(f(&amp;gamma;(t)))=0.5, &amp;forall;t&amp;isin;[0,1]&lt;/span&gt;&lt;span&gt;&amp;hArr;&lt;/span&gt;&lt;span&gt;f(&amp;gamma;(t))=0, &amp;forall;t&lt;/span&gt;&lt;span style=&quot;color: #000000;&quot;&gt;.&lt;/span&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;이에 대한 함수의 오차는 선적분으로 표현할 수 있으며, 이를 아래와 같이 전개할 수 있습니다.&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 6.51.12 PM.png&quot; data-origin-width=&quot;1000&quot; data-origin-height=&quot;226&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/ba8F5U/dJMcac9BVZ6/uktUD4IOKwkzII1YjpF1K1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/ba8F5U/dJMcac9BVZ6/uktUD4IOKwkzII1YjpF1K1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/ba8F5U/dJMcac9BVZ6/uktUD4IOKwkzII1YjpF1K1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fba8F5U%2FdJMcac9BVZ6%2FuktUD4IOKwkzII1YjpF1K1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;390&quot; height=&quot;88&quot; data-filename=&quot;Screen Shot 2026-01-11 at 6.51.12 PM.png&quot; data-origin-width=&quot;1000&quot; data-origin-height=&quot;226&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;에러 e를 줄이기 위해서는 &lt;span&gt;t_(k+1)&amp;rarr;t_k 로 만들어야 하는데, 이는 결국 뉴런의 개수가 무한대로 늘어나야 함을 의미합니다. 그러나 현재는 네트워크에 존재하는 뉴런의 수를 조절하지 못하므로 다른 방법이 필요합니다.&amp;nbsp;&lt;/span&gt;따라서 non-linearity를 완만하게 만들어주는 방법을 통해 decision boundary를 완만하게 만드는 방법을 제안합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;지금부터는 좀 전에 소개해드린 spline function의 개념을 적용할 차례입니다. Non-linear ReLU (Spline function)가 주어졌을 때 어느 부분에서 non-linearity가 발생하는지 생각해 봅시다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Smoothing&amp;nbsp;the&amp;nbsp;non-linearity&amp;nbsp;by&amp;nbsp;smoothing&amp;nbsp;the&amp;nbsp;spline&amp;nbsp;region&amp;nbsp;assignment&amp;nbsp;process&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;첫 번째로는 파티션이 바뀌는 구간입니다. ReLU의 경우에는 x=0인 점이 될 것입니다. 구간을 선택하는 부분을 one-hot encoding 방식이 아닌 soft encoding 방식으로 바꾸고 이를 다시 파티션이 선택될 확률로 다시 보겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;660&quot; data-origin-height=&quot;94&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/duiTs4/dJMcabbQasm/A1cmaack59Tq8x9cgVx1E1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/duiTs4/dJMcabbQasm/A1cmaack59Tq8x9cgVx1E1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/duiTs4/dJMcabbQasm/A1cmaack59Tq8x9cgVx1E1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FduiTs4%2FdJMcabbQasm%2FA1cmaack59Tq8x9cgVx1E1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;393&quot; height=&quot;56&quot; data-origin-width=&quot;660&quot; data-origin-height=&quot;94&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;H(t)를 Shannon entropy라고 했을 때 max-affine spline function을 위와 같이 해석할 수 있습니다. 위 식의 closed form은 아래와 같은데 이는 Sigmoid Linear Unit (SiLU)과 동일합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;616&quot; data-origin-height=&quot;124&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dW0jWD/dJMcadgobpH/I2EZzDrxYv1OD4fKa2xQT0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dW0jWD/dJMcadgobpH/I2EZzDrxYv1OD4fKa2xQT0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dW0jWD/dJMcadgobpH/I2EZzDrxYv1OD4fKa2xQT0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdW0jWD%2FdJMcadgobpH%2FI2EZzDrxYv1OD4fKa2xQT0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;398&quot; height=&quot;80&quot; data-origin-width=&quot;616&quot; data-origin-height=&quot;124&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;Smoothing&amp;nbsp;the&amp;nbsp;nonlinearity&amp;nbsp;by&amp;nbsp;smoothing&amp;nbsp;the&amp;nbsp;max&lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;두 번째로는 max term을 직접 smoothing하는 것입니다. 아마 많은 분들께서 maximum operator가 log-sum-exp operator로 smoothing 될 수 있음을 알고 계실 겁니다. 따라서 이번에는 SoftPlus와 같은 형태의 식이 나옵니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;452&quot; data-origin-height=&quot;100&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/n1pxK/dJMcacaKFOm/ZpPGftaJA7KQnklgXpKOa1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/n1pxK/dJMcacaKFOm/ZpPGftaJA7KQnklgXpKOa1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/n1pxK/dJMcacaKFOm/ZpPGftaJA7KQnklgXpKOa1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fn1pxK%2FdJMcacaKFOm%2FZpPGftaJA7KQnklgXpKOa1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;316&quot; height=&quot;70&quot; data-origin-width=&quot;452&quot; data-origin-height=&quot;100&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;그러나 ReLU에서 SiLU 또는 SoftPlus로 바꾸게 되면, 결괏값의 평균이 아래 그림처럼 각각 작아지거나 커지는 문제가 존재합니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;928&quot; data-origin-height=&quot;86&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/83l2s/dJMcabQrwCg/zARgBeTIoaKLpjx3PuKT9K/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/83l2s/dJMcabQrwCg/zARgBeTIoaKLpjx3PuKT9K/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/83l2s/dJMcabQrwCg/zARgBeTIoaKLpjx3PuKT9K/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F83l2s%2FdJMcabQrwCg%2FzARgBeTIoaKLpjx3PuKT9K%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;635&quot; height=&quot;59&quot; data-origin-width=&quot;928&quot; data-origin-height=&quot;86&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;663&quot; data-origin-height=&quot;273&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dlqerV/dJMcacaKFQz/vAiKQAdWsxq5qKrrxT0Oy1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dlqerV/dJMcacaKFQz/vAiKQAdWsxq5qKrrxT0Oy1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dlqerV/dJMcacaKFQz/vAiKQAdWsxq5qKrrxT0Oy1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdlqerV%2FdJMcacaKFQz%2FvAiKQAdWsxq5qKrrxT0Oy1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;466&quot; height=&quot;192&quot; data-origin-width=&quot;663&quot; data-origin-height=&quot;273&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;따라서 ReLU는 SiLU와 SoftPlus의 convex combination이라고 볼 수 있겠습니다. 이를 Curvature Tuning Unit (CTU)라고 하겠습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;808&quot; data-origin-height=&quot;86&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/blKRuz/dJMcahJUs5Z/8OVcKWJObOA23dUCKv8nTK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/blKRuz/dJMcahJUs5Z/8OVcKWJObOA23dUCKv8nTK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/blKRuz/dJMcahJUs5Z/8OVcKWJObOA23dUCKv8nTK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FblKRuz%2FdJMcahJUs5Z%2F8OVcKWJObOA23dUCKv8nTK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;508&quot; height=&quot;54&quot; data-origin-width=&quot;808&quot; data-origin-height=&quot;86&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;b&gt;&lt;span style=&quot;color: #000000;&quot;&gt;CT as a projection over a space of smooth functions&lt;/span&gt; &lt;/b&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;span style=&quot;color: #000000;&quot;&gt;ReLU 함수를 CTU로 바꾸면 바뀐 네트워크의 곡률이 크거나 같음을 증명할 수 있습니다.&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1084&quot; data-origin-height=&quot;204&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c3nXIc/dJMb99ZprFN/e8Io35jKDPE8sNHUbL6Qsk/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c3nXIc/dJMb99ZprFN/e8Io35jKDPE8sNHUbL6Qsk/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c3nXIc/dJMb99ZprFN/e8Io35jKDPE8sNHUbL6Qsk/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc3nXIc%2FdJMb99ZprFN%2Fe8Io35jKDPE8sNHUbL6Qsk%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;621&quot; height=&quot;117&quot; data-origin-width=&quot;1084&quot; data-origin-height=&quot;204&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;위 정리를 이해하기 위해서는 L^p 공간과 Sobolev 공간에 대한 이해가 필요합니다. 두 개념을 이번 시간에 다루지 않을 계획이지만, 중요한 것은 두 공간에서 정의한 norm이 유한하다는 것입니다. L^p 공간은 함수의 크기만을 정의하기 때문에, 기울기나 곡률을 구하기에는 정보가 부족합니다. Sobolev 공간에서는 q계 도함수까지의 크기를 정의할 수 있으며, 곡률에 대한 정보는 q=2로 설정하여 얻을 수 있습니다. Sobolev 공간에서도 norm이 유한함을 구할 수 있는데, ReLU는 x=0에서 곡률을 구할 수 없으므로 0이 되며 결국 위 정리가 성립함을 보일 수 있게 됩니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;404&quot; data-origin-height=&quot;84&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nxm0q/dJMcafSRBLo/ZkZ11xRGkbX1sxI8sHFWak/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nxm0q/dJMcafSRBLo/ZkZ11xRGkbX1sxI8sHFWak/img.png&quot; data-alt=&quot;L^p norm은 유한하다.&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nxm0q/dJMcafSRBLo/ZkZ11xRGkbX1sxI8sHFWak/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fnxm0q%2FdJMcafSRBLo%2FZkZ11xRGkbX1sxI8sHFWak%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;236&quot; height=&quot;49&quot; data-origin-width=&quot;404&quot; data-origin-height=&quot;84&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;L^p norm은 유한하다.&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 7.16.14 PM.png&quot; data-origin-width=&quot;646&quot; data-origin-height=&quot;130&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/JmAs5/dJMcacu3zun/vJJIkavRevzv8bCo20R7I1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/JmAs5/dJMcacu3zun/vJJIkavRevzv8bCo20R7I1/img.png&quot; data-alt=&quot;Sobolev norm&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/JmAs5/dJMcacu3zun/vJJIkavRevzv8bCo20R7I1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FJmAs5%2FdJMcacu3zun%2FvJJIkavRevzv8bCo20R7I1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;412&quot; height=&quot;83&quot; data-filename=&quot;Screen Shot 2026-01-11 at 7.16.14 PM.png&quot; data-origin-width=&quot;646&quot; data-origin-height=&quot;130&quot;/&gt;&lt;/span&gt;&lt;figcaption&gt;Sobolev norm&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;결국 ReLU를 CTU로 바꿈으로써 곡률이 커지는 것을 보일 수 있고, 이를 통해 generalization과 robustness 성능이 향상됨을 실험적으로 보여주고 있습니다.&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Experiments&lt;/h3&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Comparison with LoRA&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.10.07 PM.png&quot; data-origin-width=&quot;1360&quot; data-origin-height=&quot;385&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cUS8tN/dJMcacaKEX2/LO0XnxmBnoBxzXHJ09oso0/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cUS8tN/dJMcacaKEX2/LO0XnxmBnoBxzXHJ09oso0/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cUS8tN/dJMcacaKEX2/LO0XnxmBnoBxzXHJ09oso0/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FcUS8tN%2FdJMcacaKEX2%2FLO0XnxmBnoBxzXHJ09oso0%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1360&quot; height=&quot;385&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.10.07 PM.png&quot; data-origin-width=&quot;1360&quot; data-origin-height=&quot;385&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;Table 1과 4를 통해 CT의 generalization 성능이 여러 아키텍처에서 일관되게 향상되는 것을 확인할 수 있습니다. 이때 $\beta\in [0.7, 1]$ 범위에서 Grid search를 수행한 값을 사용합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Robustness improvement&lt;/h4&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.13.55 PM.png&quot; data-origin-width=&quot;642&quot; data-origin-height=&quot;367&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c646oe/dJMcaaYjrls/YqACWizjU4hB7oAddqxsHK/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c646oe/dJMcaaYjrls/YqACWizjU4hB7oAddqxsHK/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c646oe/dJMcaaYjrls/YqACWizjU4hB7oAddqxsHK/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc646oe%2FdJMcaaYjrls%2FYqACWizjU4hB7oAddqxsHK%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;642&quot; height=&quot;367&quot; data-filename=&quot;Screen Shot 2026-01-11 at 2.13.55 PM.png&quot; data-origin-width=&quot;642&quot; data-origin-height=&quot;367&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;beta 값이 1보다 작아짐에 따라 (beta=1 &amp;lt;=&amp;gt; ReLU), curvature가 조정되고 이로 인해 robustness가 향상되는 것을 확인할 수 있습니다. \ell_\infty perturbation에서 가장 유의미한 향상을 보이고 있습니다. 다만 다른 robustness criteria에서는 향상 폭이 미미한데, beta 값이 1에 굉장히 가까워져 활성화 함수가 ReLU와 별반 다르지 않기 때문입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h4 data-ke-size=&quot;size20&quot;&gt;Transformer-based architecture&lt;/h4&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;CT 방법은 트랜스포머 기반 아키텍처에서는 다소 좋은 모습을 보여주지는 못하였습니다. 다만 저자들은 LoRA에서 사용한 학습 가능한 파라미터 수보다 CT가 훨씬 적기 때문에 이러한 점이 유의미하다고 언급하고 있습니다. 제 개인적인 견해로는 트랜스포머 기반의 아키텍처는 주로 GeLU라는 활성화 함수를 사용하는데, 이는 2차 미분이 가능한 활성화 함수로써 CT에서 해결하고자 하는 문제점이 이미 어느 정도 해소된 상태이기 때문에 성능 향상이 미미했다고 볼 수 있겠습니다.&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;Screen Shot 2026-01-11 at 7.18.40 PM.png&quot; data-origin-width=&quot;1290&quot; data-origin-height=&quot;454&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/GrSSX/dJMcahC7mrn/jnO2JdYnRunEkU2Qe5HvC1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/GrSSX/dJMcahC7mrn/jnO2JdYnRunEkU2Qe5HvC1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/GrSSX/dJMcahC7mrn/jnO2JdYnRunEkU2Qe5HvC1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FGrSSX%2FdJMcahC7mrn%2FjnO2JdYnRunEkU2Qe5HvC1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;778&quot; height=&quot;274&quot; data-filename=&quot;Screen Shot 2026-01-11 at 7.18.40 PM.png&quot; data-origin-width=&quot;1290&quot; data-origin-height=&quot;454&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;h3 data-ke-size=&quot;size23&quot;&gt;Conclusion&lt;/h3&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;본 논문에서는 모델의 decision boundary를 증명가능한 방법으로 조절하는 방법을 제안합니다. ReLU의 비선형성을 완만하게 하는 활성화 함수를 제안하고 굉장히 적은 파라미터 만으로도 generalization &amp;amp; robustness 성능이 향상될 수 있음을 보입니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;활성화 함수의 곡률 정보를 활용하여 모델의 성능을 적은 파라미터를 가지고도 향상할 수 있는 부분이 굉장히 흥미로웠습니다. 개인적으로는 Sobolev 공간에서 이를 증명하는 과정이 재미있게 느껴졌던 것 같습니다. 실험적으로 아쉬운 부분이 있었지만 한 번쯤 읽어도 좋은 논문이라고 생각합니다.&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이번 소개 글에서 다루지 않은 내용들이 많으니 더 깊은 이해를 위해 논문 읽기를 권장드립니다. 부록에 수록된 증명 부분도 생각보다 쉽게 따라갈 수 있으니 읽어보시는 것을 추천드립니다. 내용 정정 또는 의견이 있으신 분께서는 댓글 남겨주시면 감사하겠습니다.&lt;/p&gt;</description>
      <author>jinius730</author>
      <guid isPermaLink="true">https://kdst.tistory.com/114</guid>
      <comments>https://kdst.tistory.com/114#entry114comment</comments>
      <pubDate>Sun, 11 Jan 2026 19:29:29 +0900</pubDate>
    </item>
    <item>
      <title>25/12/22 범용인공지능(AGI) 테크 세미나</title>
      <link>https://kdst.tistory.com/113</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;과학기술정보통신부와 IITP (정보통신기획평가원)에서 주최하는 범용인공지능(AGI) 테크 세미나에서 김수현 교수가 &quot;AGI를 위해 필요한 기술&quot;이라는 주제로 발표합니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;KakaoTalk_20251221_012733159.jpg&quot; data-origin-width=&quot;542&quot; data-origin-height=&quot;1280&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dzWsZC/dJMcadgfggX/q9bo8qfKMSkU1HWhv4Awx1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dzWsZC/dJMcadgfggX/q9bo8qfKMSkU1HWhv4Awx1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dzWsZC/dJMcadgfggX/q9bo8qfKMSkU1HWhv4Awx1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdzWsZC%2FdJMcadgfggX%2Fq9bo8qfKMSkU1HWhv4Awx1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;542&quot; height=&quot;1280&quot; data-filename=&quot;KakaoTalk_20251221_012733159.jpg&quot; data-origin-width=&quot;542&quot; data-origin-height=&quot;1280&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/113</guid>
      <comments>https://kdst.tistory.com/113#entry113comment</comments>
      <pubDate>Sun, 21 Dec 2025 02:39:58 +0900</pubDate>
    </item>
    <item>
      <title>연구 주제 소개 자료 (25/11/28 update)</title>
      <link>https://kdst.tistory.com/110</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;저희 팀의 연구 방향에 대한 소개를 담은 pdf 파일입니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://drive.google.com/file/d/1P_P2bmXjgI5BrhjImJMCpXsJrjDaR-Mv/view?usp=sharing&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://drive.google.com/file/d/1P_P2bmXjgI5BrhjImJMCpXsJrjDaR-Mv/view?usp=sharing&lt;/a&gt;&lt;/p&gt;
&lt;figure id=&quot;og_1764263088824&quot; contenteditable=&quot;false&quot; data-ke-type=&quot;opengraph&quot; data-ke-align=&quot;alignCenter&quot; data-og-type=&quot;article&quot; data-og-title=&quot;20251127 딥러닝 수업 소개 dist.pdf&quot; data-og-description=&quot;&quot; data-og-host=&quot;drive.google.com&quot; data-og-source-url=&quot;https://drive.google.com/file/d/1P_P2bmXjgI5BrhjImJMCpXsJrjDaR-Mv/view?usp=sharing&quot; data-og-url=&quot;https://drive.google.com/file/d/1P_P2bmXjgI5BrhjImJMCpXsJrjDaR-Mv/view?usp=sharing&amp;amp;usp=embed_facebook&quot; data-og-image=&quot;&quot;&gt;&lt;a href=&quot;https://drive.google.com/file/d/1P_P2bmXjgI5BrhjImJMCpXsJrjDaR-Mv/view?usp=sharing&quot; target=&quot;_blank&quot; rel=&quot;noopener&quot; data-source-url=&quot;https://drive.google.com/file/d/1P_P2bmXjgI5BrhjImJMCpXsJrjDaR-Mv/view?usp=sharing&quot;&gt;
&lt;div class=&quot;og-image&quot; style=&quot;background-image: url();&quot;&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class=&quot;og-text&quot;&gt;
&lt;p class=&quot;og-title&quot; data-ke-size=&quot;size16&quot;&gt;20251127 딥러닝 수업 소개 dist.pdf&lt;/p&gt;
&lt;p class=&quot;og-desc&quot; data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p class=&quot;og-host&quot; data-ke-size=&quot;size16&quot;&gt;drive.google.com&lt;/p&gt;
&lt;/div&gt;
&lt;/a&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/110</guid>
      <comments>https://kdst.tistory.com/110#entry110comment</comments>
      <pubDate>Fri, 28 Nov 2025 02:05:10 +0900</pubDate>
    </item>
    <item>
      <title>오픈랩 워크샵 성황리에 마무리</title>
      <link>https://kdst.tistory.com/112</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;많은 분들이 와주셔서 오픈랩 워크샵이 성황리에 마무리되었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;자리가 모자라서 뒤편에 의자를 추가로 놓고도 자리가 부족해서 돌아가신 분들이 계셨습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;내년에는 더 큰 장소에서 진행하고 피자도 더 많이 준비하도록 하겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;참석하신 모든 분들에게 감사드리며 워크샵을 준비하신 저희 팀원들에게 특히 더 고맙다는 말씀을 드리고 싶습니다.&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-filename=&quot;KakaoTalk_20251118_000211586.jpg&quot; data-origin-width=&quot;1428&quot; data-origin-height=&quot;1071&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/UCJvc/dJMcahbJb8y/F4e5yalt7lOKRhmCfO8pf1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/UCJvc/dJMcahbJb8y/F4e5yalt7lOKRhmCfO8pf1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/UCJvc/dJMcahbJb8y/F4e5yalt7lOKRhmCfO8pf1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FUCJvc%2FdJMcahbJb8y%2FF4e5yalt7lOKRhmCfO8pf1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1428&quot; height=&quot;1071&quot; data-filename=&quot;KakaoTalk_20251118_000211586.jpg&quot; data-origin-width=&quot;1428&quot; data-origin-height=&quot;1071&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/112</guid>
      <comments>https://kdst.tistory.com/112#entry112comment</comments>
      <pubDate>Tue, 18 Nov 2025 00:07:13 +0900</pubDate>
    </item>
    <item>
      <title>People</title>
      <link>https://kdst.tistory.com/pages/People</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;현재 멤버 소개&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;김수현 (Principal Investigator)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;김유진&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;이원준&lt;/li&gt;
&lt;li&gt;김현수&lt;/li&gt;
&lt;li&gt;원희지&lt;/li&gt;
&lt;li&gt;한용진&lt;/li&gt;
&lt;li&gt;김민환&lt;/li&gt;
&lt;li&gt;옥윤승&lt;/li&gt;
&lt;li&gt;전상우&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이전 멤버 소개 (공간 제약 등으로 단기 인턴은 포함하지 못하였습니다)&lt;/p&gt;
&lt;ul style=&quot;list-style-type: disc;&quot; data-ke-list-type=&quot;disc&quot;&gt;
&lt;li&gt;강진구 (영국 취업)&lt;/li&gt;
&lt;li&gt;남현우 (티머니 취직 후 창업: &lt;a href=&quot;http://nemolabs.co.kr&quot;&gt;http://nemolabs.co.kr&lt;/a&gt; )&lt;/li&gt;
&lt;li&gt;박대혁 (제인모터스)&lt;/li&gt;
&lt;li&gt;이해동 (미국 취업)&lt;/li&gt;
&lt;li&gt;홍길원 (LG전자)&lt;/li&gt;
&lt;li&gt;Linh Ho Tran (Runi Solutions CEO)&lt;/li&gt;
&lt;li&gt;서동만 (대구가톨릭대 교수)&lt;/li&gt;
&lt;li&gt;서대일 (현대자동차)&lt;/li&gt;
&lt;li&gt;박호건 (성균관대 교수)&lt;/li&gt;
&lt;li&gt;홍승길 (withSG)&lt;/li&gt;
&lt;li&gt;황혜진 (캐나다 취업)&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;이관훈 (고려대 대학원 진학)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;송규원 (차세대융합기술연구원)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;장강희 (고려대 포닥)&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;&lt;span style=&quot;letter-spacing: 0px;&quot;&gt;Muhammad Irfan Yousuf (&lt;/span&gt;University of Engineering &amp;amp; Technology, Lahore 교수)&lt;/li&gt;
&lt;li&gt;김우정 (Cornell Univ. CS 박사과정)&lt;/li&gt;
&lt;li&gt;박도균 (고려대 박사과정)&lt;/li&gt;
&lt;li&gt;Assel Kembay (UC Santa Cruz 박사과정)&lt;/li&gt;
&lt;li&gt;김준수 (UBC 박사과정)&lt;/li&gt;
&lt;li&gt;김동진 (군사과학기술병)&lt;/li&gt;
&lt;li&gt;강민구 (삼성전자)&lt;/li&gt;
&lt;li&gt;강민수 (현대모비스)&lt;/li&gt;
&lt;li&gt;박윤아 (연세대-KIST 학연)&lt;/li&gt;
&lt;li&gt;박민철 (삼성 종기원)&lt;/li&gt;
&lt;/ul&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/pages/People</guid>
      <pubDate>Wed, 5 Nov 2025 02:36:57 +0900</pubDate>
    </item>
    <item>
      <title>2025/11/07 학부생을 위한 오픈랩 워크샵</title>
      <link>https://kdst.tistory.com/109</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;딥러닝 연구에 관심 있으신 학부생 분들 많이 와주세요.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;저희 랩의 학부연구생에 관심 있으시면 아래 링크로 신청해 주시면 저희가 연락드리도록 하겠습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&lt;a href=&quot;https://forms.gle/3ZGaFXjR8XCzTsQo6&quot; target=&quot;_blank&quot; rel=&quot;noopener&amp;nbsp;noreferrer&quot;&gt;https://forms.gle/3ZGaFXjR8XCzTsQo6&lt;/a&gt;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2880&quot; data-origin-height=&quot;3840&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/dEWdeJ/dJMcagRlzxk/zu5rteqqo3rcIkgkBcnCC1/img.png&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/dEWdeJ/dJMcagRlzxk/zu5rteqqo3rcIkgkBcnCC1/img.png&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/dEWdeJ/dJMcagRlzxk/zu5rteqqo3rcIkgkBcnCC1/img.png&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FdEWdeJ%2FdJMcagRlzxk%2Fzu5rteqqo3rcIkgkBcnCC1%2Fimg.png&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2880&quot; height=&quot;3840&quot; data-origin-width=&quot;2880&quot; data-origin-height=&quot;3840&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/109</guid>
      <comments>https://kdst.tistory.com/109#entry109comment</comments>
      <pubDate>Mon, 3 Nov 2025 14:12:18 +0900</pubDate>
    </item>
    <item>
      <title>Two Papers Accepted as Spotlight at NeurIPS 2025</title>
      <link>https://kdst.tistory.com/106</link>
      <description>&lt;p data-ke-size=&quot;size16&quot;&gt;12월에 San Diego에서 열리는 NeurIPS 2025에 다음 2편의 논문을 spotlight로 발표하게 되었습니다.&amp;nbsp; &lt;br /&gt;&lt;br /&gt;&quot;Rethinking&amp;nbsp;Entropy&amp;nbsp;in&amp;nbsp;Test-Time&amp;nbsp;Adaptation:&amp;nbsp;The&amp;nbsp;Missing&amp;nbsp;Piece&amp;nbsp;from&amp;nbsp;Energy&amp;nbsp;Duality&quot; &lt;br /&gt;&lt;br /&gt;&quot;Shortcut&amp;nbsp;Features&amp;nbsp;as&amp;nbsp;Top&amp;nbsp;Eigenfunctions&amp;nbsp;of&amp;nbsp;NTK:&amp;nbsp;A&amp;nbsp;Linear&amp;nbsp;Neural&amp;nbsp;Network&amp;nbsp;Case&amp;nbsp;and&amp;nbsp;More&quot;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;이것으로 2025년은 마무리까지 아주 성공적인 한 해가 되었습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;올 한해 저희 KDST 팀은 IF 20.8인 TPAMI와 IF 7.2인 Knowledge-Based Systems에 SCIE 저널 논문을 실었을 뿐 아니라 총 11편의 AI top conference 학회 논문(최근순으로 2 NeurIPS, 2 ICCV, 1 ACL, 2 ICML, 1 CVPR, 3 AAAI)을 발표하는 성과를 얻었습니다. 다들 열심히 하신 결과라 생각하고, 모두들 정말 수고하셨고 자랑스럽다고 말씀드리고 싶습니다.&amp;nbsp;&lt;/p&gt;
&lt;p data-ke-size=&quot;size16&quot;&gt;&amp;nbsp;&lt;/p&gt;</description>
      <author>KDST</author>
      <guid isPermaLink="true">https://kdst.tistory.com/106</guid>
      <comments>https://kdst.tistory.com/106#entry106comment</comments>
      <pubDate>Sat, 20 Sep 2025 03:59:11 +0900</pubDate>
    </item>
  </channel>
</rss>