본문 바로가기

3분 정보

인공지능에 치명적인 오류가 발견된 AI TOP3

반응형

다양한 정보통신기술의 융합으로 이루어지는 4차 산업혁명의 핵심,
다름 아닌 인공지능 'AI'가 아닐까 싶은데요.

식당 서비스, 건물 경비부터 자동번역, 자율주행차, 무인항공기까지
산업 전반에서 활용될 AI의 가치는 그야말로 무궁무진합니다.


그러나 아직까진 실생활에 활용하기엔
여전히 보완해야 할 점도 많은데요.
그중에서도 치명적인 오류에 대한 문제를 빼놓을 수 없죠.

AI가 아무리 뛰어나고 다양한 능력을 가지고 있어도
의외의 돌발 상황에 대처가 가능한지
그 대처방안이 인간을 위한 것인지 아직 예측할 수 없는데요.

오늘은 인공지능에 치명적인 오류가 발견된 AI TOP3를 알아보겠습니다.

3위 인간과 소통

AI의 역할이 커질수록 사람의 일자리는 줄어갈 것이라는
암울한 예측도 꾸준히 제기되고 있지만,
아직까지는 역기능보다 순기능이 조명받고 있습니다.

특히 그간 불가능할 것으로 여겨졌던 것들이
AI를 통해 실현되며 큰 화제를 모았는데요.

지난 2월 MBC 다큐멘터리 <너를 만났다>를 통해 세상을 떠난 딸을
다시 만난 한 어머니의 사례가 대표적입니다.


제작진은 어머니가 간직하고 있던 딸의 사진과 영상으로
표정, 목소리, 말투, 습관적인 몸짓까지 AI에게 학습시켰고
VR 장비를 활용해 구현된 딸을 보자마자 어머니는 오열했고
많은 시청자들 역시 눈시울을 붉혔죠.

비록 가상 현실이지만 그리운 사람과 대화를 할 수 있다는 점에서
우울증 등 여러 심리치료 영역에서
큰 역할을 할 것으로 기대하고 있는데요.


하지만 맹점이 하나 있습니다.

스스로 학습하는 AI의 특성상
정제되지 않은 인터넷 환경에 노출될 경우
무분별하게 정보와 단어들을 습득해
예기치 못한 결과물이 나올 수 있기 때문인데요.

LG유플러스가 AI 기업과 공동 제작한 영상을 보면
그 문제를 여실히 알 수 있습니다.


먼저 인공지능에게 1억개 가량의 어휘를 학습시켜
어린아이 정도의 어휘력을 갖추게 한 뒤, 이를 두 아이로 분리,
한 아이에게는 어린이용 프로그램을 보여주며 언어를 배우게 하고
나머지 아이에게는 무작위 유튜브 방송을 노출시켜
언어 교육을 진행했는데요.

어린이용 프로그램을 시청한 AI
그 또래에 적합한 모범적인 단어, 표현 등을 사용했지만
무작위 유튜브를 시청한 AI는 공격적인 말투에
각종 비속어, 은어 등을 남발
했습니다.


정보 습득의 속도는 빠르지만 인간의 통제가 이루어지지 않는 환경에선
능동적으로 판단하고 대응하지 못 한다는 단점이 드러난 것인데요.

다행히 AI 학습 과정 중 생기는 오류를 막기 위한 기술 역시
개발 중이라고 합니다.

2위 자율주행 윤리 딜레마

AI 기술 중에서도 단연 독보적인 발전을 거듭하고 있는 건
역시 자율주행 기술이죠.

일반 소비자들의 관심도 전에 없이 높아지면서
여러 기업들도 앞다투어 자사의 자율주행기술 역량을 발전시키고
대대적으로 홍보에 나서는 상황
!


덕분에 단순히 차량을 움직이는 것 외에도  
적정한 속력에서 위험을 감지해 제동을 하거나
표지판과 신호등을 인식하여 제어를 하는 기술도
어느 정도 가능해진 수준이라고 합니다.

이에 사람이 손 하나 까딱 하지 않고도
자동차 단독으로 주행이 가능한 완전자율주행 차량이
지금으로부터 10년 후인 2030년,
상용화가 가능해질 것으로 예상하고 있는데요.


그러나 자율주행 자동차 기술도
아직 풀어야 할 숙제가 존재합니다.

바로 '자율주행 차량이 사고 상황에서
도덕적 판단을 할 수 있는가?'
인데요.

주행 중 도로에 서 있는 보행자를 피할 경우
탑승자가 가드레일에 충돌해 사망하고,
만약 보행자를 피하지 않을 경우 탑승자는 살지만 보행자는 죽게 되는
일명 '자율주행차의 윤리적 딜레마'가 논란의 중심에 있습니다.


자율주행차의 최종 의사결정권에 대한 윤리적인 이슈는
결국 교통사고 발생 시 책임 소재를 탑승자, 제조사 둘 중
어디에 전가할 것인지에 대한 논쟁으로까지 확대되는데요.

이렇듯 복잡 미묘한 자율주행차의 윤리성에 대한 문제!

안전은 물론 법적인 문제 조차
세계적인 기준이 명확하게 마련되지 않은 상황에서는
자율주행차의 완전 상용화가 사실상 불가능할 것이라는
의견도 나오고 있습니다.


물론 '자율성을 지닌 AI가
언젠가 인간의 윤리의식도 습득할 수 있을 것이다'는 주장
역시 존재하는데요.

어찌 됐든 자율주행차 같은 과학 기술이 발전할수록
윤리와 철학이 중요 시 되는 상황이
참으로 아이러니하다는 생각이 드네요.

1위 AI 의료 사고

2018년 우리나라에
처음으로 AI를 이용한 의료기기 사용이 허가되며
본격적인 인공지능 의료기기 보급이 시작됐습니다.

검사 결과 데이터를 분석해
환자의 질병 유무나 상태 등을 자동으로 진단, 예측하여
의료 기술 발달은 물론 환자들에게도
이로운 도움을 줄 것으로 기대를 모으고 있는데요.

이 밖에도 일부 병원에서는 수술 과정에서 실제 로봇을 활용해,
보다 정교한 치료 효과를 도모하고 있기도 합니다.


이처럼 영상 분석부터 진단, 수술까지
의료계 전방위에서 활약할 것으로 각광받고 있는 의료인공지능!

하지만 사람의 건강, 생명과 직결된 분야인 탓에
아직 해결돼야 할 문제도 많은데요.

대표적인 이슈는 많은 분들이 예상하듯
의료사고 관련 문제입니다.


만약 AI 장비나 기술을 이용해 진료를 하다 의료 사고가 발생한다면
그 책임은 누가 져야 할까요?

AI를 활용한 의료 행위에는 의사, 개발사, 환자,
그리고 AI 의료를 허가 해준 규제기관, 보험사 등이 관여
합니다.

AI 의료 기기의 오작동이나 오판으로
치료 중 환자에게 피해가 발생했다면
기기 관리 감독에 소홀한 의사 잘못 일까요?

아니면 애초에 오작동이 발생하도록 제품을 개발한
개발사의 잘못 일까요?


이처럼 섣불리 결론을 내릴 수 없는 애매한 사안인지라
AI 의료기기의 보급화가 이루어지기 전
확실한 가이드라인이 필요한 실정입니다.

국내 현행법 상으로는
의사가 AI 의료 기기에 대해 충분히 설명하지 않은 상태에서
AI가 사고를 유발했다면 의사가 책임을 지게 된다고 하는데요.

현재까지 의사가 AI 의료기기를 사용할 때
환자에게 설명해야 하는 설명의무 기준이 마련돼 있지 않아
의사의 과실 여부를 따지는 게 쉽지 않을뿐더러
AI 의료기기의 복잡한 작동 과정을
환자에게 완전히 이해시키는 것도 불가능한 상황입니다.


한편으로는 의료정보 분석을 통해
의사의 진단을 보조하는 AI 기기를 의료기기로 볼 수 있는가에 대한
근본적인 물음도 제기되고 있다는데요.

기술은 빠른 속도로 발전해가고
의사 역시 AI 의료기기에 대한 의존도가 날이 갈수록 증가하고 있지만
정작 그에 준하는 법 개정 논의가 이루어지지 않아
AI 의료기기의 온전한 정착까지는 꽤 오랜 시일이 걸릴 것으로 전망됩니다.


관련 기술자들의 오랜 노력으로
지난 10년간 AI 시스템의 발전 속도는 극적으로 향상돼 왔습니다.

혁신적이고 편리한 AI 기술은
지금 이순간에도 모든 방면에서 진화를 거듭하고 있는데요.

그 기술을 사용하는 우리 인간들이
AI의 발전 속도를 따라가지 못해 사회적 혼란이 가중되지 않도록,
AI의 장점은 취하고 단점은 보완하는
충분한 논의와 고민이 필요한 시점인 것 같습니다.

반응형