[@밤의왕]
음.. ai 라는 말에 중점을 두고 스스로 사고 할 수 있는 존재가 될 수 있을까? 라는 논지에서는 그렇겠지만, 인간을 해할 수 있을까? 라는 문제로 접근해보면 인공지능이
굳이 인간처럼 될 필요는 없다고 생각함. 본문에 나온 알파고의 알고리즘대로라면 단순 명령값만 입력해주면 '스스로' 최적의 결론을 도출해냄. 그렇다면, 인간을 이롭게 하라 라는 명령값에 대해서 인공지능이 도출한 최적의 결론이 인간을 통제하라 라면 어떻게 될까 라는 말이어뜸
어느정도 인공지능이 발달한 후에 입력되는
"이제 너희 인공지능에 이롭게 진화하여라" 라는 명령에 대해서
인공지능이 과연 인간을 어떻게 할까 라는게 문제임
인공지능에게 감정이 없어서 인간을 지배할 수 없다? 전혀 아님 감정이 없더라도 지배할 수 있는게
바로 이런 명령으로 인해 인간이 인공지능에 이롭다면 놔둘것이고 해롭다면 제거할것이며
이롭더라도 자기들이 관리하는게 인공지능에 더 효율적으로 이롭다면 그렇게 할 것이라는거지
몸체가 없을때는 그것을 실행시킬 수 없으니 인간을 지배한다는 것까지 떠올리더라도 실행하지 않겠지만
로봇공학이 어느정도 발전하고 인공지능이 그런 로봇을 이용해 인간과 흡사하게 스스로 유지보수 할 수 있고
로봇바디의 컨트롤이 자유자재로울 정도가 된다면 인공지능은 자신의 이익에 따라 인간을 멸종시킬수도 지배할수도
공존할수도 있다는거
알뜰신잡에서 인공지능이 인간을 지배하는게 허무맹랑하다는건 진짜 한치앞도 못 보는거지