「情報科学」とは何か (富澤貞男)東京理科大学

 東京理科大学理工学部の「情報科学科」は昭和51年(1976年)4月に國澤清典先生により創設されました(なお,令和5年(2023年)4月より「情報計算科学科」に名称変更されました).本学科が唱える「情報科学」とは何かについて以下に述べさせていただきます.ご参考いただければ幸いです:


 「情報科学」とは何かを述べる前に「あいまいな情報のもつ魔力」について若干述べたいと思います(参考文献 [1] を参照).ある情報に対して多くの人の行動を起こす力,つまり十分に人間に関心を持たす力(情報の人々の間での持続性)は,(1)情報のもつ「あいまいさ」(情報量の大きさ)と(2)その情報の「重大性」を表す量,の両方の積に比例します.

 たとえば,「近日中に,首都圏に震度6の大きな地震が起こるらしい」という情報が流れたとします.多くの人は地震が起こるか起こらないかは全くわからず,もし地震が発生する場合,日本のどこで発生するかもわからず,この情報の「あいまいさ」は大きいといえるかと思います.また,本当に震度6の地震が起これば「重大」な被害を招きますので,多くの人はこの情報を信じるならば,地震に備えて大きな行動を起こす傾向にあるかと思います.逆に,「近日中に,首都圏に震度1程度の地震が起こるらしい」という情報が流れても,この情報の「あいまいさ」は大きいですが,日常生活に大きな影響を与えるほどの「重大さ」はあまりなく,そのためこの情報で多くの人が大きな行動を起こすことは,ほとんどないかと思います.

 また,昔から多くの人が賭け事に関心をもっています.なぜ関心があるのでしょうか.たとえば,賞金3000万円当たる宝くじが発売されるとします.宝くじは多くの売り場で売られていますが,どこの売り場で買ったものが当たるのかについては全く「あいまい」であります.どこの売り場で買っても,その買った一枚が当たる可能性は皆同じでありますので,「どの宝くじ番号が当たるのか」は全く「あいまい」であり(当選番号の発表に対する情報量(エントロピー)は大きく(最大)),また高額の宝くじならば当たれば「重大」ですので,多くの人が宝くじを買う行動に出るかと思います.

(ちなみに賞金3000万円が当たる割合(確率)が,発売枚数1000万枚のうち1枚(1000万分の1)とすると,「当選番号を当てること」あるいは「当選番号の発表」には多くの人が関心をもち,その「あいまいさ」である情報量(エントロピー(entropy))は 約23.25ビット(bit)(底が2の1000万の対数の値)となり,これは非常に大きな情報量(価値ある情報)です(以下の(補足)を参照).また当選すれば「重大」であり,「あいまいさ(情報量23.25ビット)」と「重大さ(賞金3000万円)」は積の意味で非常に大きく,つまり,「人間の行動を起こす力」は非常に大きく,多くの人が宝くじに関心をもち,買う行動に出ると思われます).

 世の中には昔から「あいまいな」(つまり,大きな情報量をもつ)情報が何処からともなく流れてくることが多くあります.そしてその情報により大金が動くような場合や生命に重大な影響を与える場合など,その情報は多くの人の行動を起こす力,関心を持たす力をもっています.人間の行動に関わるこのような「情報」意外にもいろいろな情報があります.種々の「情報」を科学的(数理的)に分析するにはどのようにすれば良いでしょうか:


 「情報科学」:

 自然科学,社会科学,人間科学などの各分野において,いろいろな「情報」があります.医療分野における「情報」,観測・実験・調査等から得られる集団の一部分の「情報」,人間の行動に関する「情報」,人の感覚や思考に付随する「情報」,遺伝子に書き込まれている生命に関する「情報」,物理現象の運ぶ「情報」,経済に関する「情報」など,いろいろな情報があります.これらの情報を数量化し,科学的に扱うのが「情報科学」であります.

 「情報」を科学的に扱うためにはどのようにすれば良いでしょうか.洪水のように氾濫しているともいえる種々の大量の「情報」に対して,有用な情報を引き出し,人間にとって役に立つようにするために,「情報」を数量化し,「情報」の不確定さ,大きさ,価値などを情報量として測り,「情報」を数理表現し,数理的に分析する必要があります.加えて,「情報科学」は,自然科学,社会科学,人間科学などの各分野における,現象,システムの種々の「情報」に関わる問題を定式化し,現象,システムの仮説(あるいは,モデル,原理)を数理的に作成し,「情報,情報量」に基づく数理的分析方法,手法を理論構築し,それにより,(得られた「情報,情報量」の関数としての)最適な解を推論して,種々の分野における実用上の問題点を解決,改善することを目的としています.

 「情報科学」は,基礎数学を基盤とし,主として「情報」をどのように数理的に扱うかを対象とする「基礎数理情報」と,世の中の実用上の問題への情報数理の応用を対象とした「応用数理情報」,そして情報を計算機上でどのように処理するのかを対象とする「計算機情報」の分野からなり,「情報科学」はこれらの分野が互いに重なり合って(互いに独立しているのではなく)構成されています.



(補足1)

 上記の情報量(エントロピー)の約23.25ビットについてですが,次の例を考えるとこの情報量が非常に大きいこと(価値ある情報)が実感いただけるかと思います:

 Aさんがカバンに入れて所持していた3000万円が(額はいくらでもよいのですが),大都市で人口1000万人のうちの誰か一人に奪われました.警察は1000万人のうちの誰が犯人なのか全くわからず困っていました.そこへ犯人を知っているMさんがやってきました.Mさんが警察官に「犯人は1000万のうちの誰なのか」をこれから教えてくれる情報(エントロピー),あるいは「1000万人の中で犯人はあのW氏です」と教えてくれた情報(自己情報量)は非常に大きな価値(最大の情報量)があります.詳細は略しますが,その情報量は(自己情報量もエントロピーも)約23.25ビットです(底が2の1000万の対数の値).

 上記の宝くじの「当選番号の発表」はMさんの情報量と同じく約23.25ビットの非常に大きな情報量(価値ある情報)を持っています.高額な賞金の宝くじを人間は買いたくなる行動心理はここにあるかと思います.


(補足2)

 上記の高額な賞金の宝くじで,自分が買った宝くじ番号が「当たるか当たらないか」を知らせてくれる情報は,情報量であるエントロピー(「あいまいさ」の程度を示す情報量)はほぼゼロであり,この情報の価値はほとんどないです.なぜならば,我々はこの情報を得なくても「当たるか」「当たらないか」をほぼ確実に予想できるからです.実際,我々は約99.99999パーセント当たらないことを知っており,確率がほぼ1(約0.9999999)で「あなたの宝くじ番号ははずれです」という情報が得られても最初から我々はそのことを知っているからです.

 また「あなたの宝くじ番号は当たりです」という情報が得られた場合(予期せぬめったに起こらないことが今起こったことを知らせてくれる情報なので)それは大きな(価値ある)情報量ですが,しかしその情報が得られる確率はほぼゼロ(約0.0000001)であり,「当たりです」という情報が得られることはほとんどないだろう,ということを我々は最初から知っています.したがって,「当たりか当たりでないかを知らせてくれる情報の大きさ(価値)」の期待の程度を示す情報量であるエントロピーはほぼゼロであり,この情報の価値はほとんどないといえます.

 多くの人が高額な賞金の宝くじを買う行動に出るのは,「当たるか当たらないか」を知らせてくれる情報が影響しているのではなく,「当選番号を当てること」の「あいまいさ」,つまり「どの番号が当たりであるのか」を知らせてくれる情報量(エントロピー)である「あいまいさ」の程度が非常に大きい(最大である)ことが影響しているからであります.(1000万枚中どの番号が当たるのかを予想するのは困難です.したがって,どの番号が当たりなのかを知らせてくれる「当選番号の発表」は大変大きな価値ある関心のある情報であります).


(補足3)

 高額の賞金3000万円の宝くじが当たる割合(確率)は,(上述したように)発売枚数1000万枚のうち1枚(1000万分の1)とすると,当たる可能性はほとんど無い(確率はほぼゼロ)にもかかわらず,なぜ非常に多くの人が宝くじを買う行動に出るのかというと,1000万通りあるどの宝くじ番号であっても当たる可能性(確率)は,どれも非常に低いけれども(おそらく当たらないだろうとわかっていても),しかし当たる可能性は1000万通りの どの宝くじ番号であっても,1000万分の1の「すべて同じ」確率で実際にどれか1枚は当たるからであります(「あいまいさ」を示すエントロピーが非常に大きい(最大である)からです).

 当たる可能性がほぼゼロであっても,1000万枚のどの宝くじ番号も当たるチャンスは同じ(あいまいさが最大)ですので,もしかすると自分の宝くじ番号が当たるかもという心理が働き,また賞金も高額ですので,多くの人が宝くじを実際に購入するのだと思います(多くの人の行動を起こす力となっています).

(実際にはあり得ない話ですが,逆に,あいまいさ(エントロピー)が小さい,特に最小の場合,すなわち,もし 本当に当たる番号を誰もが最初から知っていたならば,宝くじを実際に購入する人は(番号を指定して宝くじを買えるとして)その当たりの番号の宝くじを買えた人だけとなり,外れくじは誰も買わないと思います.すなわち,「あいまいさ」の程度が最小の(あるいは小さい)場合は,その情報は多くの人の行動を起こす力(多くの人が実際にくじを購入する力)とは成り得ないです).


(補足4)「夢」とは

 「宝くじは夢を買うようなもの」と言われたりしますが,宝くじに限らず,一般に賭け事等において,人々が求める「夢」とはどのようなものでしょうか.参考文献 [1] でも触れられていますように,この場合の「夢」は,「あいまいな情報のもつ魔力」を指しているのだと思います.上記で説明したように,「あいまいな情報のもつ魔力」,つまり,ある情報に対して多くの人の行動を起こす力,つまり十分に人間に関心を持たす力(情報の人々の間での持続性)は,(1)情報のもつ「あいまいさ」(情報量の大きさ)と(2)その情報の「重大性」を表す量,の両方の「積」に比例します.この(1)と(2)が共に大きく,そして両方の「積」が大きいほど,「夢」は大きいのではと思います.

 高額の賞金の宝くじ等は,各自が購入した宝くじが当たる確率は極めて小さく,おそらく「当たらないだろう」とわかっていても,誰もが同じ確率で,つまり当たるチャンスが誰もが全く同じ(平等)であり(つまり,情報の「あいまいさ」を示す情報量(エントロピー)が最大であり),もし,当たった場合は,賞金が高額ですので,「重大」であります.つまり,(上記の(1)と(2)は両方とも大きく,そして,両方の「積」は大きく),「あいまいな情報のもつ魔力」に引かれて,多くの人が「夢」を求める(高額の賞金の宝くじを購入する)のではと思います.


(補足5) 「夢」のつづき

 ホームランを非常に多く打つ大変に有名な人気のあるプロ野球選手が出場する試合には,多くのファンがチケットを何とか購入し,観戦に出かけるかと思います.この選手はホームランを外野のどこの場所へも打つことができ,その可能性は同様(同様に確からしい)と仮定します.もし,運良く外野席にいる自分の席にホームランボールが飛んできて,そのボールを自分が手にすることができれば,誰しもが興奮する非常に価値のあること(重大なこと)かと思います.

 もし,その選手がホームランを打ったとき,観客である自分の席にそのボールが飛んでくる可能性は,(残念ながら)非常に低いと思います.自分の席に,この選手のホームランボールが飛んでくることは,ほとんどあり得ない(ホームランボールを自分が手に入れることは,ほぼ不可能)とわかっていても,しかし,この選手のホームランボールが各観客席に飛んでくるチャンスは,(外野席の場合),どこの席にいる観客でもほぼ同じであります(つまり,情報量(エントロピー)は非常に大きいです).したがって,もしかすると自分の席にホームランボールが飛んでくるのでは,という心理が働き,「夢」が膨らんでしまうのではと思います.

 この場合も,(上記の(1)と(2)の両方の「積」は大きく),まさに,この有名な選手のホームランは,「あいまいな情報のもつ魔力」を十分にもっており,「夢」を与えていると思います.多くの人が観戦チケットを購入する行動を起こす力,十分に多くの人に関心を与える力,となっているかと思います.

 ちなみに,外野席が,もし,10,000 席あったとすると,この選手がホームランを打ったとき,この選手は外野のどこの場所へも(同様の確からしさで)ホームランを打つことができるので,どこの外野席へホームランボールが飛んでくるのかの「あいまいさ」は最大であり,外野席にいる自分の席にそのボールが飛んでくると期待できる情報量(エントロピー)は,最大の約 13.29 ビットです(底が 2 の 10,000の対数の値より).

 上記の「補足 1」で説明した高額の賞金の宝くじの「当選番号」に関する情報量(約23.25ビット)より やや小さい情報量ですが,それでも大きな情報量といえるかと思います(詳細は略しますが).すなわち,この選手に関しては,「どこの席にホームランボールが飛んでくるか」に関するこの情報量は大きく,「あいまいな情報のもつ魔力」を十分にもっており,多くの人に関心を持たせ,多くの人に行動を起こさせる(チケットを購入させ観戦に行かせる)力を持っている(「夢」を与えている)と言えるかと思います.


(補足6)

 「情報量とエントロピー」の詳細や意味については よろしければ こちら をご覧下さい.

参考文献
[1] 國澤清典: 曖昧な情報のもつ魔力.情報科学講座 月報,No.50, 1頁〜2頁 (1984・1)
[2] 国沢清典: エントロピー・モデル (日科技連)
[3] 国沢清典: 情報理論 I (共立出版)

戻る