본문 바로가기

대학생 꿀팁/-인재림 4기

인재림 강연1, AI 이론의 태동과 혁명적 발전 부분 정리

반응형

연사: 노영균 한양대 교수님

 

AI보다는 기계학습이라는 말이 더 편한 이유

트레이닝 데이터로 학습을 하고, 학습된 정보로 재미있는 다른 일을 함. 

classification

learning(파라미터에 저장) by example(학습한 데이터)

 

의학에서 AI 활용 사례.

ASH와 NASH를 구분하는 것이 중요한 이유: ASH로 판정되는 사람들은 보험에 들거나 취직활동을 하기가 어려움.

ASH는 알코올중독과 연결됨. NASH는 술을 마시지 않음에도 비슷한 대우을 받으면 안 좋을 것임. 

 

머신러닝 기본 속성

model을 만든다. parameter를 수식에 집어넣음. 

데이터를 가지고 parameter를 adapting(학습) 시킴

실제 예측을 진행함. 

사실 많은 과학적인 방법이 그렇긴 함. machine learning이 더 special 한 것임.

 

예를 들어, 관성의 법칙이 model임. 

속력이 얼마다, 속도가 얼마다 말하지는 않음. 그것은 data를 통해서 구함. 

parameter를 구하기 위해 data를 모음. 

임의의 시간 t에서의 위치를 예측할 수가 있게 됨. 

-> machine learning이 가져옴. 

but, parameter를 많이 줘서, data를 많이 모아서, input과 output의 과정을 알아냄. 

 

좋은 모델과 나쁜 모델?

맞는 모델과 안 맞는 모델?

Heliocentrism(지동설)과 Geocentism(천동설) 

parameter가 적은 모델과 많은 모델 

->이분법적으로 생각하는 것을 다시 생각해봐야 한다. 

 

Neural Information Processing System 학회 머신 러닝을 초기에 연구했음

 

고전적 학회, functionalism, function이 똑같으면 문제가 없다. ->튜닝테스트

로직 based 방법론, 어제 뭐 했어? -> 어제가 들어갔으니 뭘 조사해서 어제 한 일이 뭔지 찾아서

logic으로 진행되는 것. a면 b해라. b 하면 c해라. 

->한계가 있음

 

large language model 이 이를 따라가는 현상

 

뉴런이 수학적으로 기술해서 지능으로 구현하게끔 만드는, 겉에서 function만 취하는 것이 아님.

뉴런으로 들어가서 뉴런이 신호를 전달하면서 하는 게 수학적으로 기술하려고 하며, connectionist,

AI 메이저 그룹에 저항해서 나와서 만든 학회가 NeuriPS. 이 사람이 머신러닝이라는 말을 썼음. 

머신 러닝을 공부한다?-> 나는 AI를 연구하는 사람이 아닙니다. 

AI를 연구한다? 우리를 이해하지 못한다! 2000년대 초반 

NeurIPS 가 엄청 활발해짐. 

 

환경오염, 화학에서 활용되는 AI

폴리머의 사이즈는 분자보다 큼. 원자와 분자가 결합된 구조체. 

플라스틱이 매우 편한데, 하나의 단점: 분해가 안됨. 

폴리머와 단백질 사이즈가 비슷함. 

버리면 분해가 될 수 있도록. 

단백질 연구가 신약 개발뿐만 아니라, 그것만 임팩트가 있는 것이 아니라, 나노사이즈에서 만들 수 있는 온갖 것들을

특정한 구조를 만들도록 시퀀스를 디자인해 볼 수 있음. 

노벨상을 준 것 자체가 그 가능성을 준 것임. 

여기서 AI가 매우 중요한 역할을 한 것임. 

 

Darpa Urban Challenge

Daniel D. Lee, Cornell Tech: Autonomous Car, Little Ben with sensor suite and drive-by-wire control system.

10억 지원을 받지 않고 진행, 테슬라 쇼크, 차를 양산하는 것이 중요함. 차 한 대를 10억을 들여서 차를 팔 수는 없음. 

저가로 만든 차와 비싼 차의 차이는, 10억 차는 레이저 센서와 레이더 온갖 센서를 다 붙여서 만들 수 있음. mm단위로 뭐가 있는 지를 알 수 있음. 저가로 만들면 라이더 센스를 저렴한 것을 써야 하고, noise가 너무 많음. machine learning으로 noise를 제거한다는 전략이었음. 결과는 좋았음. 

 

웨이모와 테슬라 차이

 

과학적 측면에서 본 AI 활용

스위스의 입자 가속기. 길이가 27km, CERN's Large Hadron Collider for New Physics.

머신러닝을 통해 새로운 물리를 만드는 것이 목표

Standard Model. 우리가 경험할 수 있는(중력, 전자기력), 원자의 핵 안에(강력, 약력) 이 네 가지 힘. 

가속기 안에서 입자들이 부딪힘. 어마어마하게 양쪽에서 쏴서 부닥치게 하는 것. 

3000개의 번들이 서로 지나가는데 번들 하나당 1 BILLION 입자들이 있음. 

부딪히는 사건을 가지고 강력에 대한 이론을 분석하기도 하고. 

 

학문의 경계가 물론 우리가 유용하고 필요하기 때문에 만든 거지만, 필요하지 않을 때에는 그 경계를 넘어갈 줄 아는 게 굉장히 유용해요.

 

Fariness, Causality and decision making과 같은 부분 고려해야 할 것임. 

Simpson's Paradox, -> Confounding Effect 

 

 

728x90