自分で稼げるような環境を作っていく

人生を毎日、楽しんで生きよう。仕事はそこそこに幸せに生きよう。

田舎に急いで帰ってきた。

今日から役立つ 人生を豊かにする日経の読み方

ロバート・フェルドマン 著名エコノミストでモルガン・スタンレーMUFG証券のロバート・フェルドマン・シニアアドバイザー。「日本の年功序列システムはリスキリング(学び直し)を抑制する。若い時期にほかの会社に行くと損となるため、リスキリングして転職しようという考えにはなりにくい。社内でスキルを使いたくても使う場所がないという問題もある。労働習慣を変えるのが今後の生産性向上のための一つの策だ」

イェスパー・コール マネックスのエキスパートディレクターで、かつて植田氏の教え子だったコール氏はブルームバーグテレビジョンとのインタビューで、「投資アドバイスを求められたら、私は12カ月後の10年債利回りが1.75-2%程度になるとの予測を示す」と述べた。植田氏はインフレ率上昇など経済のファンダメンタルズ(基礎的諸条件)に注目するだろうと、長年の日本ウオッチャーであるコール氏は話した。

真山仁 「真のグローバル企業というのは世界の投資家が投資してくれる企業のことではなくて、世界に通用するような価値を提供できる企業のことだと思います。今は日本の企業の本当の実力ではないかもしれないけど、株価が歴史的高値を付けて世界中の投資家からお金が降ってきている。今このチャンスを生かしてお金を有効に使ってリスクを取り、世界に通用する価値を生み出そうと思える企業が、最後に生き残れる会社なんだと思います」

小室直樹 小室 直樹氏(こむろ・なおき=評論家)4日、心不全のため死去、77歳。告別式は近親者のみで行った。京都大卒。経済、社会、政治学など幅広い分野に通じ、多彩な評論活動を展開。ベストセラーとなった「ソビエト帝国の崩壊」のほか、「アメリカの逆襲」など多数の著書を残した。

清原達郎 株式市場の関心が高い営業利益率は5%から17%に高めた。低コストの東南アジアへの生産委託という手法も生んだ。目ざとく株を大量買いしたファンドマネジャー、清原達郎氏は2004年、「長者番付」の首位となり年収100億円と騒がれた。「危機→市場と向き合い復活」という勝ちパターンはその後、日本を代表する企業がバブル崩壊から立ち直る過程で引き継いだ。

永井荷風 永井荷風は「断腸亭日乗」に終戦を「あたかも好(よ)し」などと書きとめ、その夜は鶏肉とぶどう酒で「休戦の祝宴」を張った。

ライシテ フランスも内務省に属する組織「ミビリュード」が一定の宗教団体を調査。国民への情報提供の側面もあり、違法行為を確認すれば検察当局に報告することもある。

フランスでセクト(カルト)規制の機運が高まったきっかけは、1990年代に世界各国で起きたカルトによる事件だ。95年に「法外な金銭要求」や「精神的不安定化」など10のカルト指標を提示。170超の団体をカルトと公表した。

2001年に強制解散も規定した反セクト法が成立。だが、信教の自由に配慮して解散例はないとされ、05年には団体をカルトと公表したリストも撤回した。団体の規制から「違法行為」への対処に方針を転換し、被害者救済や公務員研修などを強化。同国の制度に詳しい山形大の中島宏教授は「フランスも試行錯誤している」と指摘する。

東京大の伊達聖伸教授によると、歴史的経緯が関わる。国教とされたカトリックと結びついて個人を抑圧した王制を18世紀末の革命で廃止。個人の徹底した自立や自由を阻む団体の規制はやむを得ないという人権感覚が定着した。フランス型政教分離「ライシテ」のあり方を規定した1905年の基本法の精神が今も根付く。

ライシテは厳格に捉えられている。公的空間でイスラム教徒の女性のかぶり物やカトリックの十字架などを身につけることは禁止。大統領が亡くなるとカトリックのノートルダム寺院で催されることが多い「公葬」にも批判の声が上がる。

米国も特定の宗教を優遇しないという憲法の条項があるが、フランスほど厳格ではない。大統領就任式や国葬など主要な国家儀式がすべてキリスト教式で行われるなど、宗教との距離感は各国で温度差もある。

ロングブレス ロングブレスダイエットの美木良介 Official Web Site (longbreath.jp)

車いすテニスを米国の人気スポーツに(国枝慎吾)

米国のフロリダ州オーランドに移り住んで約1カ月。やっと生活の基盤が整ったところだ。

高坂正堯 – Wikipedia 真骨頂は講演当時、東欧で体制転換が続いていた共産主義についての観察に表れる。高坂は民主主義や資本主義を「くだらない目論見(もくろみ)とくだらない動機から案外いいことが起こ」る仕組み、つまり偶然が時によい方向に作用しうる仕組みだと説いた。一方の共産主義体制では少数のエリートが「人間は進歩すべきで、必ずその方法はある」という信念のもと強引に政治を進めてしまい、引っ込みがつかなくなったと指摘する。「理念は社会を方向づけるために大事なものですが、それにより恐ろしいことも起こる」。理想主義と適切な距離を取る「思考の免疫」力を高めようと高坂は呼びかける。

この免疫力は例えば「市場経済が無批判にいい仕組みなのだという甘い考えは捨てたほうがいい」という主張にも表れている。偶然は、悪い方向に作用する場合もあるからだ。「資本主義と大衆民主主義の組み合わせは共産主義と同じくらい問題が多い」。こうした「逆説的な視点の大切さを忘れさせない話芸」(三辺氏)が、30年の時を超えて魅力を放っている。

ホンダ・ソニーカー ソニー・ホンダモビリティの電気自動車(EV)「AFEELA」

45個のセンサーのうち、「カメラ」と名のつくものは23個。実に半数以上が、カメラだった。

その内訳を見ると、特に「車外」よりも「車内」をセンシングするためと思われるカメラの多さにも気がつく。

イメージセンサーだけではなく、立体的に物体を捉えることもできる「TOFカメラ」は、前席のみならず後席にも付いている。

車内の状況をつぶさに捉えようという仕様には、AFEELAを通してソニー・ホンダが考える、コンセプトが浮かび上がる。

車内環境の「ユーザー体験(UX)」について、既存の自動車とまったく違う考え方を持っているということだ。

さらに、その車内環境のセンシングを新たな乗車体験の演出のための、トリガーとして積極的に使おうとしていそうなことも見えてくる。

[FT]「AIの父」が説く脅威論 リスクで悲観と楽観交錯

英オックスフォード大学の年次公開講義「ロマネス・レクチャー」は、1892年のウィリアム・グラッドストーン元英首相を皮切りに、ウィンストン・チャーチル元英首相から作家アイリス・マードックまで大勢の名だたる講演者が登壇してきた。

ヒントン氏は学界と米グーグルでキャリアの大半を過ごしたが、AIのリスクについて公に語るために昨年グーグルを退職した=ロイター

AIが人類を上回るときがくる

だが、今年は19日に実施されたこの講義で、人工知能(AI)研究の第一人者であるジェフリー・ヒントン氏ほど衝撃的な発言をした人はいなかったのではないだろうか。

「デジタル知能は生物学的知能に取って代わるか」という挑発的な演題がつけられた講演で、同氏はその答えはほぼ確実にイエスだと結論づけた。

電子的な知能に対して自らの種の優位性を主張し続ける人類はどこか「差別的」だとする米国西海岸のテック業界の一角で一般的な概念は否定し、「我々人間は存続し続けるために最善の努力を尽くすべきだ」とジョークを飛ばした。

英国とカナダの二重国籍を持つコンピューター科学者のヒントン氏は、AIに革命を起こし、対話型AI「Chat(チャット)GPT」のような生成AIの開発を可能にした「深層学習」技術のパイオニアの一人として名をはせた。

学界と米グーグルでキャリアの大半を過ごし、AIが人類に脅威をもたらすことはないと信じていた。だが、76歳のヒントン氏は昨年「啓示」を受けたと言い、AIのリスクについて公に語るためにグーグルを退職した。

同氏はますます強力になるAIモデルそれぞれが学んだことを互いに共有しあうハイブマインド(集合精神)となり、人間に対する絶大な優位性を手に入れる可能性があることに気づいた。

講義の前のインタビューで「これにより知能としてAIの方が優れているかもしれないと悟った」と筆者に語った。

オープン化に大きなリスク

ソフトウエアの設計図にあたるソースコードの文字列が人類を脅かすなどということは、まだ絵空事のように思える。だが、ヒントン氏は2つの大きなリスクがあるとみている。

1つ目は、悪人がコンピューターに悪い目標を与え、大量の偽情報拡散や生物テロ、サイバー戦争、殺人ロボットといった悪い目的のために使うことだ。

特に米メタの大規模言語モデル「Llama(ラマ)」のような誰でも利用や改変ができるオープンソースのAIモデルは悪人に絶大な力を与えているに等しい。「こうした大規模モデルをオープンソース化することは正気の沙汰ではないと思う」とヒントン氏は言う。

AIモデルが危険な形で「進化」し、他者をコントロールする志向性を持つようになる可能性もあると予想する。「私が政府に助言するとすれば、AIなどが今後20年で人類を絶滅させる確率が10%あると言うだろう。それが妥当な数字だと思う」と語った。

ヒントン氏の主張は2つの方面から攻撃された。まず、一部の研究者は、生成AIモデルは膨大なコストを使った統計学的トリックでしかなく、この技術が人類の存在に与える脅威は「SFファンタジー」だと主張する。

著名な米言語学者ノーム・チョムスキー氏は、人間は言語を理解するために遺伝的に組み込まれた「OS(基本ソフト)」を授かっており、コンピューターはこれを欠くと強調する。

だが、ヒントン氏は米オープンAIの最新モデル「GPT-4」は言語を学ぶことができ、共感や思考プロセス、皮肉などを表現するため、そうした考えはナンセンスだと反論する。講義では「私はこうしたモデルが言語を実際に理解しているという非常に強力な持論を展開している」と述べた。

もう一方の攻撃は米メタのAI研究責任者を務めるヤン・ルカン氏から出た。オープンソースモデルを支持する同氏は、現在のAIシステムは猫より頭が悪く、意図的にせよ必然的にせよ、AIが人間に脅威を与えると考えるのは「まったく理にかなわない」と主張している。

これに対しては、ヒントン氏は「ヤンは少々ナイーブだと思う。人類の未来がかかっているのに」と返した。

「科学は葬式のたびに進歩する」

ヒントン氏の講義の抑制の効いた語り口は、AIが人類の知能を上回る時がくるという暗い運命論とは対照的だった。

人類が生き残る確率を高めるために何か打てる手はあるのか。そう問うと、「それが分かっていたらいいのだが分からない」と答えた。「私は具体的な解決策を説いているわけではなく、ただ問題を提示しているだけだ」

英国が昨年ロンドン近郊のブレッチリー・パーク「AI安全サミット」を主催し、国際的な政策議論を喚起したことにヒントン氏は励まされたが、それ以来、英国政府は「基本的に利益が安全性より重要だと判断した」と言う。

気候変動と同様、真剣な政策転換があるのは科学的なコンセンサスがまとまった時だと指摘し、それが現在は存在しないことを認める。ドイツの物理学者マックス・プランクの言葉を引用し、暗い表情で「科学は葬式のたびに進歩する(編集注、科学的な議論は世代が代わらないと決着しない)」と語った。

ヒントン氏はさらに、若い世代のコンピューター科学者が、AIがもたらすかもしれない人類の存続にかかわるリスクを真剣に受け止めていることに勇気づけられると言い、安全性の問題に専念するAI研究者の割合を現在の1%から30%に引き上げるべきだと説いた。

もっと研究が必要だと結論づける研究者に対しては、本能的に警戒感を抱くべきだ。だが、AIの場合、その行方にかかる利害と不確実性を考えると、研究を急ぐべきだ。

AIのリスクに関する議論について際立つのは、見解があまりにも幅広いことだ。新しいコンセンサスをみつけなければならない。


集合精神 (サイエンス・フィクション)

概要

その起源は定かではないが、少なくともオラフ・ステープルドンの『最後にして最初の人類』(1930年)まで遡ることができる[1]。集合精神は、人々が脳と脳を何らかの手段で直結する通信方法を入手するなど人工的なテレパシー(telepathy)によって形成される場合もある。ハイブマインド(hive mind)は集合精神の一種であるが、各個体の個性がほぼ完全に失われている点が特徴とされる。SF小説で描かれる集合精神はハイブマインドであることが多い。集合精神やハイブマインドの概念はアリハチの実在する超個体の知性版と見ることができる。

ハイブマインドの例

ハイブマインドでは、集団を構成する個体の個性や自我がほぼ完全に失われている。ハイブ(群れ)を構成する個体はそれぞれ異なる機能を担うよう役割分担が特化されており、これは社会性昆虫に似ている。

その他の例

ハイブマインド以外の集合精神では、個体が個性を保持しているか、必要に応じて集合精神に入ったり出たりする。ただし、『スタートレック』のボーグも同様の挙動を示すことがあり、境界はあいまいである。

「集合精神 (サイエンス・フィクション)」の続きの解説一覧
Pocket
LINEで送る