情報とは,直観に従って形式張らずに定義してみると,「不確実性を守るもの」のようになるかもしれない。実は,これはきちんとした定義でもあるとわかった——情報の量は,不確実性を低減させるものの量によって決まる(ゆえに,圧縮したファイルはランダムに見える。0番のビットからn番のビットまでの値がわかったところで,n+1番のビットにどんな値があるかはまったく予測できない——もし予測できるのであれば,まだ圧縮する余地があるということになる)。情報の量,つまり情報の「質量」に相当するものは,もともとシャノンの1948年の論文で発表されたもので,「情報エントロピー」,「シャノンのエントロピー」,または単に「エントロピー」と呼ばれている。エントロピーが高いほど情報量は多くなる。いまや驚くほど多くのもの——コイントスから電話での通話,ジョイスの小説,初デート,遺言,チューリングテストにいたるまで——の情報量が,測定可能であることがわかっている。
ブライアン・クリスチャン 吉田晋治(訳) (2012). 機械より人間らしくなれるか:AIとの対話が,人間でいることの意味を教えてくれる 草思社 pp.308
PR