以下のように添削しました。文章の構造を整え、明確さと読みやすさを向上させました。
インターネット上には様々な情報があふれており、そのすべてを取り込むことは不可能です。そのため、無意識のうちに、または何らかの外的要因によって、取り込む情報を選別しています。
私が注意している点は、以下の通りです。
- 発信者が不明、もしくは不確かな情報(アノニマス情報)は無視する。
- 根拠に乏しく、事実の裏付けがない噂レベルの情報は無視する。
- 誰にとっても不確実なもの(予測など)に対して、断定的な情報は避ける。
- 「AかBか」という選択肢が提示されている情報で、Aを選ぶことが発信者にとってメリットになる場合、その情報を避ける。
- 当時の世界や身の回りの状況に対して、その状況を過度に強調する情報は避ける。例えば、皆が恐怖を感じている時にそれを煽るような情報や、逆に加熱した状況をさらにヒートアップさせるような情報は避ける。また、その逆に、過度に状況を軽視する情報も同様に避ける。
- ある状況や事実を解説する際に、発信者の意見や推測が多く含まれている情報を避ける。
このようにして情報を選別しようとしていますが、残念ながら最初のアノニマス情報以外は、一度情報に触れてみないとその内容がわからないため、結局は一度はその情報に接する必要があります。多くの情報には、タイトルやコメントなどが付いていて、それが無駄な情報をふるい落とす助けになることもありますが、それらも情報の一部であり、厄介でもあります。
こうした状況で陥りやすいのが、確証バイアスです。気をつけていても、一度玉石混交の情報を取り込んでしまうと、無意識のうちに自分の意見に合致する情報を選別してしまう危険があります。
例えば、米国株が上がってほしいと思っている時は、米国株の上昇に有利な情報ばかりに着目しがちです。また、政府に対して不信感や不満を持っている人は、マイナンバーとマイナンバーカードの区別もできないまま、健康保険証とマイナ保険証のメリット・デメリットを比較しないまま、政府やその制度のマイナス面ばかりを追ってしまいます。これにアノニマス情報や宗教が加わると、群衆操作され、正しい行動が取れなくなります。
こうした状況において、ChatGPTのようなAIは案外役立ちます。AIにも情報のバイアスがかかる可能性は否定できませんが、現時点では概ね公平な情報を提供しているように見えます。Google検索では、自分で情報を拾い集める必要があり、確証バイアスがかかりますが、AIは結果をまとめて示すため、少なくとも自分の確証バイアスがかかりにくいです。これまで多くの質問をAIにしましたが、定義が決まっているような事柄にはストレートに情報が返ってきますし、そうでない場合でも、多くのケースでメリットとデメリットを両方示すような公平な情報が返ってきます。
特に重要なのは、わからないことや不確実なことについては、「不明」「不確実」という答えが返ってくることです。人間相手だと、質問する側は何らかの答えを期待し、答える側も何らかの答えを与えようとしてしまいます。カウンセラーやライフプランナー、弁護士などの有料サービスでは、その傾向がより強まります。
以前、ある件で弁護士に相談したことがありますが、町の無料弁護士相談や保健所、警察、役場などでは、対価の支払いがないため、できないことはできない、わからないことはわからないとストレートに回答が返ってくることが多いです。しかし、有料の医者や弁護士相談では、何らかの回答が返ってきますが、それが必ずしも正しいとは限りません。結果としてセカンドオピニオンを求めることになり、さらにお金がかかり、混乱が深まることがあります。そして最後には、自分の確証バイアスがかかった情報を選んでしまうので、何をしているのか分からなくなることがあります。今後はこうした分野でも、AIによる相談サービスが一定の成果を伴って登場することを期待しています。