AI 시대의 명암을 알 수 있는 책이다.

 

AI에서멀티모달은 텍스트, 이미지, 음성, 동영상 등 서로 다른 방식으로 표현된 정보를

함께 처리하거나 활용하는 것을 말합니다....

챗GPT는 텍스트만을 입력받고 출력했지만 그다음에 나온  GPT-4는 이미지도 입출력할 수 있습니다...

그 뒤에 나온 클로드, 제미나이, 라마 등의 인공 지능도 모두 멀티모달입니다.

 

2024년 1월 구글 딥마인드팀이 스탠퍼드대학과 협업해 만든 알로하라는 로봇을 발표했습니다.

이 로봇은 모방학습을 합니다... 

평균 50차례 시범을 보이면 85~90퍼센트의 확률로 그 동작을 해내는 데 성공한다고 합니다.

연구팀은 이 로봇을 오픈소스로 공개했습니다. 이 로봇의 제작비는 3만 2000달러에 불과합니다.

부품 설계도, 소스 코드, 부품을 살 수 있는 곳까지 모두 공개했습니다.

누구든 이 로봇을 만들 수가 있다는 이야기지요.

놀라운 점은 이뿐이 아닙니다. 이 로봇은 전이학습을 합니다.

다른 로봇이 익힌 동작을 따로 배울 필요 없이 바로 전달받을 수 있다는 뜻입니다.

 

2024년 4월 18일 세계 최고의 휴머노이드 로봇 제조사인 보스턴 다이나믹스가 올 뉴 아틀라스를 발표합니다...

보스톤 다이나믹스는 2020년 말에 현대자동차그룹이 인수한 곳입니다...

지금까지 예를 든 휴머노이드 어느 것도 사람이 알고리즘을 짜지 않습니다.

AI를 써서 강화학습 혹은 모방학습, 전이학습으로 스스로 배워나가는 로봇들입니다.

 

휴머노이드를 만드는 또 하나의 특별한 이유가 있습니다.

이런 종류의 휴머노이드 로봇을 '몸을 가진 AI'라고 부릅니다.

'몸을 가진'이 무슨 뜻일까요?

인공지능이 제대로 '지능'이 되기 위해서는 '몸'을 가지고 있어야 한다고 주장하는 AI과학자들이 있습니다.

그래야 세계에 관한 모델을 가질 수 있다는 것입니다.

세계에 관한 모델은 '외부 세계가 실제로 어떻게 생겼다'는 것에 관한 지각을 합니다.

 

로드니 부룩스

1. 지능은 환경의 상호작용에서 발현된다.

2.실제 환경의 복잡성을 반영

3.학습의 효율성

 

AI과학자들은 할루시네이션(아주 멀쩡히 거질말하는 것을 뜻함)이 버그가 아니라 특징이라고 말하기 시작했습니다.

 

프롬프트 인젝션 공격은, 사용자 입력을 받는 텍스트 기반 어플리케이션 또는 시스템을 말합니다.

공격자는 악성 코드나 텍스트를 삽입하여 시스템의 동작을 조작하거나 무단 억세스 권한을 얻거나

기타 보안 문제를 일으킵니다.

 

프롬프트 인젝션은 쉽게 말해 교묘한 요구를 입력해서 인공지능이 규칙 밖의 행동을 하게 만드는 것을 말합니다.

 

게리 마커스의 다섯가지 걱정

1.극단주의자들이 어마어마한 허위 정보를 생성해 민주주의와 공론을 휩쓸어버릴 것이다.

2.환각은 잘못된 의료 정보를 생성할 것이다.

3.콘텐츠 팜들이 광고 클릭을 위래 사실과 상관없는 자극적인 내용을 생성할 것이다.

4.챗봇은 일부 사용자들에게 감정적인 고통을 유발할 수 있다.

5.남용으로 인해 웹 포럼과 피어리뷰 사이트를 붕괴시킬 것이다.

 

테그마크 교수는 서아프리카의 검은코뿔소를 예로 듭니다. 그의 말은 다음과 같습니다.

초지능이 인류를 멸종시킨다면 그것은 아마도 그것이 사악해지거나 의식을 잃었기 때문이 아니라,

유능해지고 목표가 우리와 맞지 않게 되었기 때문일 것입니다.... 거의 모든 개방형 목표를 가진 초지능은 자신을 보존하고 그 목표를 더 잘 달성하기 위해 자원을 축적하려고 할 것입니다....

우리가 예측할 수 없는 하찮은 부작용으로 멸종하는 것입니다.

'우리는 괜찮을 것'이라는 일부 주장은 완전히 우스꽝스럽습니다. 인공지능으로 구동되는 열추적 미사일에 쫓기고 있는데

'인공지능은 의식을 가질 수 없다', '인공 지능은 목표를 가질 수 없다'는 말을 들으면 안심할 수 있을까요?

열대우림에 사는 오랑우탕이, 지능이 높은 생명체는 더 친절하고 동정심이 많다는 말을 들으면 안심할 수 있을까요?

아니면 인공지능은 인간이 통제할 수 있는 도구일 뿐이라는 말에 안심할 수 있을까요?

공장에서 사육되는 소나 불쌍한 오랑우탕처럼, 인간이 자신들의 운명에 대한 통제력을 잃게 된다면 과연 이를

기술적인 '진보'로 간주해야 할까요?

 

옥스포드대학교의 컴퓨터 과학자 일리아 슈마일로프 등이 쓴 <재귀적 생성 데이터로 훈련한 인공지능 모델의 붕괴>에

따르면 인공지능이 생성한 데이터로 훈련한 인공지능은 마치 종의 근친교배와도 같이 붕괴해버립니다.

생성 모델은 자신이 생성한 데이터로 훈련을 거듭할수록 점차 원본 데이터의 분포를 잃어가게 되는데 특히

분포의 꼬리 부분, 즉 빈도가 낮은 부분을 쉽게 잃게 됩니다.

초기 단계에서는 드문 특징들을 잊기 시작하다가,

나중이 되면 인공지능이 만든 것들이 본래 데이터와는 비슷하지도 않게 됩니다.

대를 거듭할수록 오차가 점점 증폭되기 때문입니다.

 

웹은 이미 인공자능이 생성한 저품질의 콘텐츠로 넘쳐나기 시작했습니다.

상위 검색 결과의 10퍼센트 이상을 이미 AI가 가져가고 있습니다.

그런데 양질의 콘텐츠를 생산하는 것으로 가는 트래픽을 구글이 AI 개요로 또 가로채버립니다.

이 사이트들이 다 망하면 구글은 어디서 검색을 해오려는 것일까요?

+ Recent posts