#20230524nn 日本経済新聞 朝刊 #nn
浮体式原発 英社に出資 今治・尾道造船など 日本勢、過半 まず海外、国内展開も
---
英新興のコアパワー。#2018y 設立で海洋の規制に関するコンサルティングなどを手掛ける。
今治や尾道といった造船会社や商社など13社がコアパワーの第三者割当増資を引き受けた。資本金は約1億ドルとなり、日本勢が過半出資することになる。
コアパワーは、米マイクロソフト創業者のビル・ゲイツ氏が出資する米テラパワーや電力・ガス事業の米サザンカンパニー、核燃料サイクルの仏オラノと共同で浮体式原発を開発している。
原子炉の形式は溶融塩高速炉(MCFR)。塩を400℃以上に加熱して液体に氏、ウランを溶け込ませる。ウランが核分裂して熱エネルギーを得てタービンを回す。加圧設備が不要で小型化できる。炉心溶融や爆発といった事故のリスクも少ない。
Appleの慎重さと開発チームの機能不全が音声アシスタント「Siri」とAIの取り組みを妨げているとの指摘、AIの新時代に乗り遅れる懸念も - GIGAZINE
https://gigazine.net/news/20230428-apple-employees-siri-struggles-ai-era/
---
#2022y 後半には、AppleにおいてAIの実装を担当していた3人のエンジニアがGoogleに転職。3人は「人間のような反応を生み出すことができる大規模言語モデル」に取り組むのに適しているのは、AppleではなくGoogleだと考えた。
#2018y 以前のSiri開発チームは、上級リーダー間の縄張り争いや方向性を巡る議論で混乱していた。Appleのユーザープライバシー保護を優先する姿勢からデータ収集も困難で、Apple幹部はデータ収集に対する投資にも消極的だった。
ブランドイメージを重視するAppleの上級幹部は、Siriが好ましくない反応を示すことを避けたがった。エンジニアが提案した「SiriがチャットAIのように長い対話を実行する機能」の追加も拒否した。
#20230428nn 日本経済新聞 朝刊 #nn
「スター軍団」は元グーグル オープンAIに才能集結 チャットGPTの開発けん引
---
オープンAIの研究開発を率いる責任者のイリア・サツキバー氏はグーグルのAI開発部門で中枢を歩んできた。オープンAIの創設に参加し、#2018y からはチーフサイエンティストを務める。
サツキバー氏はカナダ・トロント大学でジェフリー・ヒントン氏に師事した。「アレックスネット」にも携わった。オープンAIにトップタレントをかき集める役割を担った。
---
「トランスフォーマー」の論文を共同執筆したルカシュ・カイザー氏は #2021y にオープンAIに移った。
---
グーグルから #2016y にオープンAIに転じ、研究担当の副社長を務めたダリオ・アモデイ氏は #2021y に生成AIスタートアップの米アンソロピックを設立して独立した。
---
オープンAIの発足を主導したマスク氏は独自の生成AIの開発に向けた新会社「X.AI」を立ち上げた。同社がキーパーソンとして迎えたイゴール・バブシュキン氏も、グーグル系のディープマインド出身だ。
#2016y #2021y #2018y #nn #20230428nn
#20230419nn 日本経済新聞 朝刊 #nn
自衛官採用、過去最低に 任期制、計画の半数割れ 22年度 防衛力強化に人材の壁
---
防衛省・自衛隊が #2022y 度に採用した任期制自衛官の候補生が計画人数の半分以下だった。これまで最も低かった #2018y 度の72%を大幅に下回る40%台後半だった。
任期制自衛官は18〜32歳を対象に1期2〜3年で募集し、最も階級の低い「士」の職務に就く。自衛隊が #2021y 度に採用した13327人のおよそ4割にあたる5350人が任期制だった。
「士」階級の自衛官の人数は現在でも定員の8割に満たない。#2022y は9245人を採る予定だった。実際の採用数は4300人ほどで計画の46〜47%にとどまった。
自衛官全体でも247000人ほどの定員の「充足率」はここ10年ほど90%台前半で推移している。恒常的に定員よりも15000人から23000人程度少ない状態が続いている。
#2021y #2018y #2022y #nn #20230419nn
#20230418nn 日本経済新聞 朝刊
テクノロジストの時代 毛髪再生へ「苗」を培養
横浜国立大学教授 福田淳二氏
---
#2018y には毛包のもとになる「毛包原基」の大量培養に成功し、海外でも報道された。毛包原基はいわば毛の「種」だ。
#2021y にはスタートアップのTrichoSeeds(川崎市)を設立した。
#2022y 毛髪を生み出す組織である毛包を再現した「ミニ毛包」を試験管内で作ることに成功した。ミニ毛包を培養すると長さ5mm程度の毛が生えてくる。マウスの背中に移植すると、自然の毛髪のように毛が生え替わる脱毛と発毛の周期を繰り返した。
---
毛髪再生には皮膚の休止している毛包を再び活性化する第3の道もある。ロート製薬と連携し、数年以内に毛包活性化の治験を目指す。
#2022y #2021y #2018y #20230418nn
#202305ns 大規模言語モデル
深層学習の課題を克服するアプローチが #2017y から #2018y に登場した。大量のテキストデータで訓練され、多様な個別タスクに適応できる「大規模言語モデル」だ。視覚データを大量に学習するモデルも登場し、それらを総称した「基盤モデル」という呼び名が定着した。
#2018y、時代を画す言語モデルが続々と登場した。#201802m にアレン人工知能研究所のELMo、#201806m にOpenAIのGPT、#201810m にグーグルのBERTという新たな言語モデルが発表され、ベンチマークの記録を競い合うように塗り替えていった。
GPTとBERTのモデル学習の手法は斬新だった。大量データによる事前学習と、比較的少量のデータによる追加的な再学習(ファインチューニング)の2段階に分けていた。大規模言語モデルの事前学習では、学習用のデータセットのラベル付の必要がなく、自動化できた。
#201810m #201806m #201802m #2018y #2017y #202305ns
#202305ns 大規模言語モデル
今のAIブームが始まった #2010y 代前半以来、牽引役は画像や物体、音声や文字などを認識するタスクをこなす「認識系」AIだった。この時、大量のデータをもとに認識対象の背景にあるパターンやルールを学習する深層学習の技術が初めて表舞台に登場した。
深層学習は一般に学習用のデータを数万から数十万セット規模で準備する必要があり、その多くは手作業で作成される。画像診断AIの場合、専門家が病巣部に目印を付けるといったラベル付作業が必要だ。こうした「教師データ」の作成に多大な労力を費やす必要があった。
深層学習の課題を克服するアプローチが #2017y から #2018y に登場した。大量のテキストデータで訓練され、多様な個別タスクに適応できる「大規模言語モデル」だ。視覚データを大量に学習するモデルも登場し、それらを総称した「基盤モデル」という呼び名が定着した。
#2018y #2017y #2010y #202305ns