'정보: 새로운 과학의 언어'라는 책은 정보학에서 다루는 정보가 물리학자의 관점에서 어떻게 인류가 다루는 이론들의 기초 구성단위가 될지를 예측한다.다. 대학 다닐 시절에 우연히 읽고는 다시 한번 읽어봐야겠다고 생각했었지만 이름이 도통 기억이 나지 않아 졸업할 때 까지 한번도 찾을 수 없다가 동네 시립 도서관에서 우연히 다시 찾게 되었다. 어렵게 다시 찾은 책인데 그래도 기록이라도 남여야겠다는 생각에 써 놓는다.
책은 크게 정보라는 이론의 배경과 고전적인 정보에 대한 설명, 그리고 양자정보와 인간의 앎에 대한 정보이론적인 사유에 대해서 다룬다.
배경에서는 정보(Information)이라는 말의 어원에 대해서 설명을 하고 물리학자들이 정하는 언어의 조작적 정의에 다룬다. 여기서 조작적 정의란 어떤 이론을 구사하는데 있어서 수량적으로 정의된 용어로 전적으로 그 이론의 편의를 위해 정의된다. 섀넌의 정보도 그와 같이 정보의 문맥적인 의미를 무시한 채 정보의 비트 수의 로그값으로 정의된다. 이와 같이 환원적이고 수량적인 정의는 공식과 법칙으로 확장되서 추상적인 의미를 얻게 된다.
고전적인 정보에서는 정보와 확률의 관계를 설명한다. 그 유명한 몬티홀 문제와 베이즈 정리를 통해 확률은 관찰자가 알고 있는 정도, 즉 정보에 관련됨을 말한다. 또한 통계역학적 엔트로피 정의와 섀넌 정보의 수식의 유사성을 통해 엔트로피는 정보의 부재의 정도를 말한다는 것을을 보여준다. 이후 잡음의 문제와 효용성, 그리고 정보의 한계에 대해 논한다.
양자 정보에서는 양자이론의 논란과 고전 정보에 대응하는 양자정보에 대한 계념, 계산과 효용성에 대해서 다룬다. 블랙홀에 관한 논의에서 블랙홀, 양자역학, 상대성 이론의 문제를 통해 고전적인 정의에서 통계역학적인 정의로 옮겨갔던 엔트로피의 정의가 다시 고전적인 정의로 이동함을 보여주고 마지막으로 양자역학과 인간의 앎의 한계에 관하여 정보이론 적인 설명에 대해서 이야기 한다. 양자역학에서 관측값이 이산적인 이유는 인간이 알아가는 과정 때문이라고 이 책에서 말한다. 어떤 것을 알아가는 과정이 참과 거짓의 1비트와 같은 형식이기 때문에 양자역학이 연속적이 아닌 이산적으로 나타난다는 것이다. 나아가서 인간의 앎이란 것도 그런식일 수 밖에 없지 않을까하는 의문을 던지고 따라서 모든 인간의 지식도 정보개념을 통해 설명할 수 있지 않을 까라고 말한다.
사실 이 책을 처음 읽었을때 감명깊었던 이유는 각 부분에서는 중요한 개념에 대해 아주 간단한 예시를 통해 가능한한 간단한 수식으로 설명을 하지만 각각의 예시는 정말 명쾌하고 개연성이 있어서 관련 내용에 대해 쉽게 이해할 수 있었기 때문이다. 대학교를 처음 들어왔을 때 관심 있었던 물리와 확률에 대해서 쉽게 이해할 수 있었다. 예를 들면 엔트로피 증가를 보여주는 예시에서 엔트로피의 정의가 열량 나누기 온도로 정의 되는데 높은곳과 낮은곳의 온도가 1과 10으로 일정하다고 가정하고 높은곳에서 낮은 곳으로 이동하는 열이 10일 경우 총 엔트로피 변화량은 10/1 - 10/10 = 9 로 증각하게 된다는 식이다. 몬티홀 문제는 볼때마다 신기하다. 나 같은 범부뿐만 아니라 그 유명한 에르되시도 착각했던 문제라서 그런지도 모른다. (몬티홀 문제는 3개의 선택 중에 2개는 꽝이고 하나는 보상이 있을때 참가자가 하나의 문을 선택한 후 사회자가 꽝인 문을 알려주었을 때 참가자가 선택을 바꾸는 경우 상품을 탈 확률이 어떻게 될 것인가 하는 문제이다). 이 책에서는 몬티홀 문제에 한가지 유용한 해석을 하는데 사회자가 잘못된 문을 알려주면 자동차를 탈 확률이 증가하는 이유는 참가자의 정보가 증가하기 때문이라는 것이다. 이런 아주 간단한 예시를 통해 정보 개념과 관련된 로그함수, 엔트로피, 베이즈 정리와 같은 개념을 유기적이면서 명쾌하게 설명하고 있다.
이렇게 짧은 글으 쓴 후에도 나는 정말 엉망인 글을 쓴다고 느꼈는데 저자의 글쓰는 실력이 정말 대단하다는 것을 느낀다. 고등학교때 물리를 선택과목으로 하거나 일반 물리를 공부하는 이공계 1학년들에게 이책을 추천하고 싶다.
수정1: 숫자...