「気候変動の真実」から何を学ぶか②

アゴラ 言論プラットフォーム

shansekala/iStock

気候変動の真実 科学は何を語り、何を語っていないか」については分厚い本を通読する人は少ないと思うので、多少ネタバラシの感は拭えないが、敢えて内容紹介と論評を試みたい。1回では紹介しきれないので、複数回にわたることをお許しいただきたい。

(前回:「気候変動の真実」から何を学ぶか①

第4章「乱立するモデル」

本書の中で、一般読者にとって最も有用な情報の一つが、この章だと思う。ここでは、気候のあれこれを予測する「気候モデル」の実像について、具体的に書かれている。本書の著者が、計算物理学すわなち科学コンピューティングの専門家だったからこそ書けた章とも言える。

まず、気候モデルやその開発者(気候モデラー)が実際に何をするかを詳しく述べている。なるほど、こんなことをやっているのね、と良く分かる。

気候モデリングで不確実性が最も大きいのが「雲」の扱いに関わる部分だと言うことも、筆者には納得できる。水蒸気は気体だから、大気中にほぼ均一に分布しているはずなのに、なぜここには雲があり、あそこには雲がないのかを、現代の科学はまだ十分に説明できていないからだ。しかも、雲の出来具合は地球のアルベド(太陽光の反射率)にモロに響く。つまり地球気温の予測に大きく影響するこの部分が不確実なのである。

また、モデルの「網目」に相当する「グリッド」をきめ細かくすることの困難さも理解できる。モデルが3次元なので、グリッド幅を細かくするごとに3乗ずつ計算量が増えるからである(半分にすると23=8倍、1/3にすると33=27倍、1/10にすると103=1000倍)。

さらに、グリッドの中にサブグリッドを作る必要性も述べているが、長くなるので省く。さらに、シミュレーションに不可欠な「初期化」についても。計算するには、最初の状態を決めなければならない(これが初期化だ)が、全ての変数を正確に決めるのは困難だし、2週間分も計算すると使い物にならなくなると。

しかも、これらをすべて制御できたとしてもまだ足りない。数多い変数(パラメーター)をどう設定するかと言う問題だ。これを「調整(チューニング)」と呼んでいるが、身も蓋もない言い方をすれば、現実にモデルをなるべく近づけるための「辻褄合わせ」である。

実際、この「調整」の具合によって計算結果は大きく異なってくる。その実例も示されているが、サブグリッドのパラメーターを10倍も変更した論文があった。「調整」とは言うが、要するに目的の結果を得るためにどのようにでも変えられる部分が存在すると言う意味である。

そして、様々なモデルが提案され計算結果が示された結果はどうであったか? 著者の言うところをそのまま引用しよう。

(前略)・・別の言い方をすれば、後の世代のモデルのほうが昔の世代よりも不確かなのだ。これは実に驚くべきことだ。グリッドが細かくなり、パラメーターが精巧になるなど、モデルが高度化したにもかかわらず、不確実性は減るどころか増大した。ツールや情報が向上すれば、モデルは正確さを増し、互いに同じような結果を示すはずなのに、そうならなかった。

さらに、これらのモデルが過去の観測結果も再現出来なかったことも述べられている。

モデルと観測結果の不一致の原因はわからないとIPCCは素っ気なく言う。その何十年の間に気候が変化した理由を説明できないのだ。

過去の気候も再現出来ないモデルで、今世紀末までの予測をするとは・・。こんなものを信用しろと言われてもなあ・・、と言うのが正直な感想である。

この種の記述は、温暖化の危機を煽るマスコミ記事には全く出てこない。温暖化論者たちにとっては文字通りの「不都合な真実」であるからに違いない。何しろ、国連事務総長やグレタ嬢の言う「科学の言うことを聞け」の「科学」とは、IPCCの信奉する「気候モデル・シミュレーション」であるのに、その計算機シミュレーションがこれほどにも不確実だと言うのだから。

世の中の人々は、このような事実をもっと広く知る方が良い。「IPCCの権威」などと言うものが、この程度のシロモノに過ぎないと言う事実を、しかと見つめる必要がある。

筆者は本章を読んで、ここに書かれていることは、かつて読んだ中村元隆氏の「気候科学者の告白 地球温暖化説は未検証の仮説」の内容とほぼ同じであることを思い出した。この方も気象物理を真剣に学び、気候モデルシミュレーションに全力で取り組んできた研究者の一人で、この本の中で極めて率直に真実を述べていたのだと、改めて感銘を受けた。

この本では、同氏が日本に戻ってある研究機関に務めたが、その後、率直な意見を述べたらクビになったと書かれていた。日本では、マスコミ・学界・論壇を問わず、正論を述べる論客は疎んじられるような気がするが、このような人材を埋もれさせるのは、我が国にとって大きな損失であると思う(同氏が思う存分活躍できる場が確保されていれば良いのであるが・・)。

最近も、2019年の台風19号の被害が温暖化のせいで5200億円も増えたとの研究結果が出たと報じられたが、これもその内実はコンピュータ・シミュレーションの結果であり、温暖化の影響がなかったらこうなっていたはずだと言う結果との比較で述べられているので、結果の信頼度は、結局、シミュレーションの正確さに依存することになる。しかるに、気候モデルシミュレーションの信頼度というものは、上に書いた程度に過ぎないのである(過去の気候さえも再現出来ないと言う現実!)。

第5章「気温上昇の誇大アピール」

本章の内容は、冒頭部分がほぼ全てを語っている。曰く「テレビの気象キャスターは今や『気候・気象キャスター』と化し、自分たちの報じる厳しい気象事象は『気候破壊』のせいだと非難する。実際、マスコミや政治家、さらには一部の科学者が、熱波、干ばつ、洪水、暴風雨など人々が怖れる現象の原因は人間にあるとほのめかすのが、まるでお決まりのようになっている。(中略)しかし科学が語るのは別のストーリーだ。」

日本でも正にこの通りになっている。NHKの番組に東大教授などが出てきて「(種々の気象現象に対して)気候変動の影響が考えられます」等の御宣託を並べると、一般視聴者はその「権威」にひれ伏してしまう。筆者などはそのたびに「その科学的根拠・データを示してくれよ・・」とTVの前で毒づくのであるが。

本章では、数多くの気温データが紹介されている。それらを載せた報告書でどんな言い回しが使われ、それが適切かどうかを検証している。筆者にとっては、それらの言い分はいずれも説得的で、十分に納得できるものであった。

その結果として言えるのは「(・・前略)だが、『記録的な高温相次ぐ!』みたいな見出しによって醸成される、極端に高い気温が増えつつあるという一般認識はまったく正しくない。世界で最も幅広く質の高い気象データを有する米国の場合、記録的な低温はあまり見られなくなっているが、記録的な高温日の頻度は100年前と変わらない。」となる。

上記の内容は、気象庁データを精査しても、ほぼ同じ結果になるだろう。ただし、国土の狭い日本では都市化によるヒートアイランド現象の影響を受けやすいから、観測地点を良く吟味する必要はあると思う。

また本章では、データの整理の仕方によって、同じデータでも見え方が違ってくる実例を示していて興味深い。「記録的高温日・低温日」の扱いが、それまでの観測期間全部を対象とするか(連続的記録)、ある観測期間内での値を取るか(絶対的記録)で違ってくるのである。しかし多くのマスコミ報道では、そのような違いが説明されることは通常あり得ない。

第6章「嵐の恐怖」

この章では、米国におけるハリケーン(日本で言う「台風」)の発生状況と、竜巻の発生件数について述べている。

台風については、日本でも「温暖化の進行とともに『スーパー台風』が発生しやすくなる」としばしば述べられるが、実際には、気象庁データで明らかなように、過去に上陸した台風で最強は1961年、参考記録としては1934年で、10位以内に入るものの最近例は1993年、つまり、この約30年間は強さトップ10に入る台風は上陸していない。「スーパー台風」は、温暖化など騒がれていなかった時代にこそ襲ってきたのである。

米国でも同様で、1851〜2020年のハリケーン発生数は周期的に変動しながらほぼ横ばいである。その変動状況は、大西洋の海水温変動を示すAMO(大西洋数十年規模震動)と幾分かの相関を示しているように見える。そして、それらの観測データを分析した研究論文では、ハリケーンの頻度、強さ、降水量、高潮に関して自然変動以外の有意な傾向は見られないと明記されているにもかかわらず、政府機関の報告書には「危険な未来」が書かれていて、それをマスコミが強調するとも書かれている。

ハリケーン活動の指標である「勢力散逸指数」を見ても、1985〜2005年の間を取れば明確に増加傾向を示すが、1945〜2015年の間を取れば、そんな増加傾向は見られず、単に周期的な上下が観察されるだけである。ここでも、データの「見せ方」次第で印象は大きく異なる。

竜巻の発生数についても同様で、発生数データを一見すると増加傾向にあるように見えるが、実際には、昔は弱い竜巻はカウントしていなかったことが関係している。ある程度以上の強さの竜巻発生数で見ると、1954〜2014年でほぼ横ばい、強い竜巻に絞るとむしろ減少傾向が見られる。

このように、気象データについては、慎重に見定める必要があり、マスコミが得意とする印象操作に引っかかってはならないことを、本書は教えている。

(次回へ続く)