우리가 기계에서 바라는 것은, 인공지능 기계 안에서의 모든 계산의 첫 번째 인과관계는 인간이어야 된다는 거죠. 만약 인공지능 스스로 첫 번째 인과관계를 만들어냈다면 위험해질 수 있습니다. 거기서부터가 자기 의지의 시작이기 때문이죠. 그때부터의 인공지능은 지능이 있어서 생각도 한다는 겁니다. 그렇게 되는 것은 막아야 하는데 만약 감시할 수만 있다면 자기 의지가 생기는 그 순간에 자폭시켜야 합니다. 이 원리를 튜링폭탄이라고 불러요. 하지만 문제는 이것이 수학적으로 가능할지 아무도 모른다는 거예요. 컴퓨터 안에서 계산되는 과정을 보고 랜덤인지 아니면 스스로 만들어낸 것인지 수학적으로 계산해 본질적으로 안다는 것은 불가능할 것 같습니다. 아직 할 수 있다는 증명이 없거든요. 아마 안 될 겁니다. 다른 방법으로는..