「情報科学」とは何か (富澤貞男)東京理科大学

 東京理科大学理工学部の「情報科学科」は昭和51年(1976年)4月に國澤清典先生により創設されました(なお,令和5年(2023年)4月より「情報計算科学科」に名称変更されました).本「情報科学科」が唱える「情報科学」とは何かについて以下に述べさせていただきます.ご参考になりましたら幸いです:

 「情報科学」とは何かを述べる前に「あいまいな情報のもつ魔力」について若干述べたいと思います(参考文献 [1] を参照).ある情報に対して多くの人の行動を起こす力,つまり十分に人間に関心を持たす力(情報の人々の間での持続性)は,(1)情報のもつ「あいまいさ」(情報量の大きさ)と(2)その情報の「重大性」を表す量,の両方の積に比例します.

 たとえば,「近日中に,首都圏に震度6の大きな地震が起こるらしい」という情報が流れたとします.多くの人は地震が起こるか起こらないかは全くわからず,もし地震が発生する場合,日本のどこで発生するかもわからず,この情報の「あいまいさ」は大きいといえるかと思います.また,本当に震度6の地震が起これば「重大」な被害を招きますので,多くの人はこの情報を信じるならば,地震に備えて大きな行動を起こす傾向にあるかと思います.逆に,「近日中に,首都圏に震度1程度の地震が起こるらしい」という情報が流れても,この情報の「あいまいさ」は大きいですが,日常生活に大きな影響を与えるほどの「重大さ」はあまりなく,そのためこの情報で多くの人が大きな行動を起こすことは,ほとんどないかと思います.

 また,昔から多くの人が賭け事に関心をもっています.なぜ関心があるのでしょうか.たとえば,賞金3000万円当たる宝くじが発売されるとします.宝くじは多くの売り場で売られていますが,どこの売り場で買ったものが当たるのかについては全く「あいまい」であります.どこの売り場で買っても,その買った一枚が当たる可能性は皆同じでありますので,「どの宝くじ番号が当たるのか」は全く「あいまい」であり(当選番号の発表に対する情報量(エントロピー)は大きく(最大)),また高額の宝くじならば当たれば「重大」ですので,多くの人が宝くじを買う行動に出るかと思います.

(ちなみに賞金3000万円が当たる割合(確率)が,発売枚数1000万枚のうち1枚(1000万分の1)とすると,「当選番号を当てること」あるいは「当選番号の発表」には多くの人が関心をもち,その「あいまいさ」である情報量(エントロピー(entropy))は 約23.25ビット(bit)(底が2の1000万の対数の値)となり,これは非常に大きな情報量(価値ある情報)です(以下の(補足)を参照).また当選すれば「重大」であり,「あいまいさ(情報量23.25ビット)」と「重大さ(賞金3000万円)」は積の意味で非常に大きく,つまり,「人間の行動を起こす力」は非常に大きく,多くの人が宝くじに関心をもち,買う行動に出ると思われます).

 世の中には昔から「あいまいな」(つまり,大きな情報量をもつ)情報が何処からともなく流れてくることが多くあります.そしてその情報により大金が動くような場合や生命に重大な影響を与える場合など,その情報は多くの人の行動を起こす力,関心を持たす力をもっています.人間の行動に関わるこのような「情報」意外にもいろいろな情報があります.種々の「情報」を科学的(数理的)に分析するにはどのようにすれば良いでしょうか:

 「情報科学」:

 自然科学,社会科学,人間科学などの各分野において,いろいろな「情報」があります.医療分野における「情報」,観測・実験・調査等から得られる集団の一部分の「情報」,人間の行動に関する「情報」,人の感覚や思考に付随する「情報」,遺伝子に書き込まれている生命に関する「情報」,物理現象の運ぶ「情報」,経済に関する「情報」など,いろいろな情報があります.これらの情報を数量化し,科学的に扱うのが「情報科学」であります.

 「情報」を科学的に扱うためにはどのようにすれば良いでしょうか.洪水のように氾濫しているともいえる種々の大量の「情報」に対して,有用な情報を引き出し,人間にとって役に立つようにするために,「情報」を数量化し,「情報」の不確定さ,大きさ,価値などを情報量として測り,「情報」を数理表現し,数理的に分析する必要があります.加えて,情報科学は,自然科学,社会科学,人間科学などの各分野における,現象,システムの種々の「情報」に関わる問題を定式化し,現象,システムの仮説(あるいは,モデル,原理)を数理的に作成し,「情報,情報量」に基づく数理的分析方法,手法を理論構築し,それにより,(得られた「情報,情報量」の関数としての)最適な解を推論して,種々の分野における実用上の問題点を解決,改善することを目的としています.

 「情報科学」は,基礎数学を基盤とし,「情報」をどのように数理的に扱うかを対象とする「基礎数理情報」と,世の中の実用上の問題への情報数理の応用を対象とした「応用数理情報」,そして情報を計算機上でどのように処理するのかを対象とする「計算機情報」の3分野からなり,「情報科学」はこれら3分野が互いに重なり合って(互いに独立しているのではなく)構成されています.



(補足1)

 上記の情報量(エントロピー)の約23.25ビットについてですが,次の例を考えるとこの情報量が非常に大きいこと(価値ある情報)が実感いただけるかと思います:

Aさんがカバンに入れて所持していた3000万円が(額はいくらでもよいのですが),大都市で人口1000万人のうちの誰か一人に奪われました.警察は1000万人のうちの誰が犯人なのか全くわからず困っていました.そこへ犯人を知っているMさんがやってきました.Mさんが警察官に「犯人は1000万のうちの誰なのか」をこれから教えてくれる情報(エントロピー),あるいは「1000万人の中で犯人はあのW氏です」と教えてくれた情報(自己情報量)は非常に大きな価値(最大の情報量)があります.詳細は略しますが,その情報量は(自己情報量もエントロピーも)約23.25ビットです(底が2の1000万の対数の値).上記の宝くじの「当選番号の発表」はMさんの情報量と同じく約23.25ビットの非常に大きな情報量(価値ある情報)を持っています.高額な賞金の宝くじを人間は買いたくなる行動心理はここにあるかと思います.


(補足2)

 上記の宝くじで,自分が買った宝くじ番号が「当たるか当たらないか」を知らせてくれる情報は,情報量であるエントロピー(「あいまいさ」の程度を示す情報量)はほぼゼロであり,この情報の価値はほとんどないです.なぜならば,我々はこの情報を得なくても「当たるか」「当たらないか」をほぼ確実に予想できるからです.実際,我々は約99.99999パーセント当たらないことを知っており,確率がほぼ1(約0.9999999)で「あなたの宝くじ番号ははずれです」という情報が得られても最初から我々はそのことを知っているからです.また「あなたの宝くじ番号は当たりです」という情報が得られた場合(予期せぬめったに起こらないことが今起こったことを知らせてくれる情報なので)それは大きな(価値ある)情報量ですが,しかしその情報が得られる確率はほぼゼロ(約0.0000001)であり,「当たりです」という情報が得られることはほとんどないだろう,ということを我々は最初から知っています.したがって,「当たりか当たりでないかを知らせてくれる情報の大きさ(価値)」の期待の程度を示す情報量であるエントロピーはほぼゼロであり,この情報の価値はほとんどないといえます.

 多くの人が高額な賞金の宝くじを買う行動に出るのは,「当たるか当たらないか」を知らせてくれる情報が影響しているのではなく,「当選番号を当てること」の「あいまいさ」,つまり「どの番号が当たりであるのか」を知らせてくれる情報量(エントロピー)である「あいまいさ」の程度が非常に大きい(最大である)ことが影響しているからであります.(1000万枚中どの番号が当たるのかを予想するのは困難です.したがって,どの番号が当たりなのかを知らせてくれる「当選番号の発表」は大変大きな価値ある関心のある情報であります).


(補足3)

 高額の賞金3000万円の宝くじが当たる割合(確率)は,(上述したように)発売枚数1000万枚のうち1枚(1000万分の1)とすると,当たる可能性はほとんど無い(確率はほぼゼロ)にもかかわらず,なぜ非常に多くの人が宝くじを買う行動に出るのかというと,1000万通りあるどの宝くじ番号であっても当たる可能性(確率)は,どれも非常に低いけれども(おそらく当たらないだろうとわかっていても),しかし当たる可能性は1000万通りの どの宝くじ番号であっても,1000万分の1の「すべて同じ」確率で実際にどれか1枚は当たるからであります(「あいまいさ」を示すエントロピーが非常に大きい(最大である)からです).

 当たる可能性がほぼゼロであっても,1000万枚のどの宝くじ番号も当たるチャンスは同じ(あいまいさが最大)ですので,もしかすると自分の宝くじ番号が当たるかもという心理が働き,また賞金も高額ですので,多くの人が宝くじを実際に購入するのだと思います(多くの人の行動を起こす力となっています).

(実際にはあり得ない話ですが,逆に,あいまいさ(エントロピー)が小さい,特に最小の場合,すなわち,もし 本当に当たる番号を誰もが最初から知っていたならば,宝くじを実際に購入する人は(番号を指定して宝くじを買えるとして)その当たりの番号の宝くじを買えた人だけとなり,外れくじは誰も買わないと思います.すなわち,「あいまいさ」の程度が最小の(あるいは小さい)場合は,その情報は多くの人の行動を起こす力(多くの人が実際にくじを購入する力)とは成り得ないです).


(補足4)

 「情報量とエントロピー」の詳細や意味については よろしければ こちら をご覧下さい.

参考文献
[1] 國澤清典: 曖昧な情報のもつ魔力.情報科学講座 月報,No.50, 1頁〜2頁 (1984・1)
[2] 国沢清典: エントロピー・モデル (日科技連)
[3] 国沢清典: 情報理論 I (共立出版)

 戻る