お問い合わせはこちら

AIに関する政策について/内閣府科学技術・イノベーション推進事務局審議官 恒藤 晃氏

AI基本計画(四つの基本方針)

 このAI法に基づき、昨年12月、政府はAI政策の基本的な方針を明確化した「AI基本計画」を策定しました。この内容は令和7年度補正予算や令和8年度予算案に反映され、関係省庁が連携して施策を推進しています。

 今回策定したAI基本計画においては、政府のAI政策の基本構想として、「危機管理投資」・「成長投資」の中核としてAI戦略を進化させる、そして、「信頼できるAI」を追求し、「世界で最もAIを開発・活用しやすい国」となることを目指すこととしました。

 そして、その実現に向け、「イノベーション促進とリスク対応の両立」「アジャイル(柔軟かつ迅速)な対応」「内外一体での政策推進」という三つの原則のもと、以下四つの方針で各種の施策を推進することとしました。

 ① AI利活用の加速的推進。つまり「AIを使う」
 ② AI開発力の戦略的強化。「AIを創る」
 ③ AIガバナンスの主導。「AIの信頼性を高める」
 ④ AI社会に向けた継続的変革。「AIと協働する」

 端的に言うと、AIは、日本が抱える、人口減少、国内への投資不足、賃金停滞といった課題を解決し、かつ健康・医療、防災を含む安全・安心な国民生活、安全保障や平和構築に貢献するものであり、その実現に向けて、積極的にAIの利活用と研究開発を推し進めていく、というのが大きな方針です。

日本が進むべき方向性

 まず、AIを「①使う」「②創る」を両輪として進めます。AIの利活用を拡大して、そこから得られたデータ等をフィードバックしてAIの開発を進めることにより、次の新たなイノベーションを起こす、そしてさらに利活用が拡大する、そういう好循環の確立を目指します。

 利活用の推進、すなわち「①使う」については、まずはAIによる効果やリスクに対する理解不足の解消に努めることが重要で、そのためにも先行して政府と自治体が積極的にAIを活用します。また、人手不足など社会・国家的課題の解決に直結する分野へのAI利活用を支援する、特に中小企業における導入を促進する、等々の施策を実施します。

 次いで開発力の強化、「②創る」については、日本の強みである「信頼できるAI」の開発を特に重視します。

 人手不足等の課題先進国の日本が、わが国が強みとする、製造業、インフラ、コンテンツ産業、農林水産業等の産業データを活用し、各国共通の課題を解決する 「信頼できるAI」を開発し、日本だけでなく世界に提供していくことを目指します。また、AIをロボットなどと組み合わせたフィジカルAIについて、現場で積極的に使用してそこからリアルな現場データを収集し、より高精度、つまり信頼できるフィジカルAIの開発につなげていくことを進めます。

AIイノベーションによる反転攻勢は可能なのか

 AIの基盤モデルの開発において米国や中国に大きく遅れているわが国が、AIの分野でイノベーションをリードし、反転攻勢をかけることができるのか。政府としては、それは可能と考えています。

 一つは、わが国が課題先進国であるということ。人手不足が深刻な日本でこそ、AIエージェントやロボットなどのフィジカルAIに対するニーズが世界の中でも多く、AIを活用した新たなサービスが広がりやすいと考えられること。

 そして、AIの競争環境が変化してきており、業界や業務に特化したAIアプリ(世界でもvertical AIと呼ばれ成長分野とされています)が求められるようになってきていることに加えて、性能の良いオープンモデルのAI基盤モデルが増え、計算資源が十分でない国でもAIアプリの開発へ参画することが容易になってきていること。

 加えて、インターネット上のデータを学習するだけで差別化することが難しくなりつつあり、質の高いデータの収集と保有が日本の強みとなり得るフェーズになってきたということもあります。こうしたことから、日本が強みとして持つ、産業・医療・研究といった分野における質の高いデータが、有効に活用できるチャンスが広がっています。

 こうした強みを生かして、AIモデルとアプリを組み合わせたサービスを開発・提供することで、日本がAI分野のイノベーションをリードすることが期待されるわけです。実際に、各種サービスに特化した事業者が萌芽していますので、この動きを促進させていくことが大事だと考えています。

補正、当初とも予算を増額

 こうした政策を推進するため、令和7年度補正予算では約4380億円を、同8年度当初予算案では約5027億円をAI関連予算に計上し、かなり予算を増額しました。

 では、具体的にどのような政策を講じているのか、主な政策をご紹介します。

 まず、AIの利活用を進めるため、国の行政機関で率先的にAIの利用を進めています。デジタル庁では現在、ガバメントAI「源内」の導入を進めており、近いうちに国家公務員全員が使えるように整備します。また、例えば防衛省では、AI活用推進の基本方針を策定して活用を進めているなど、各府省で積極的な活用を進めています。

 さらに、令和7年度補正予算においては、介護分野でのAI活用、造船ロボット、スマート農業、中小企業へのAI導入支援などの予算を盛り込みました。

 AIの開発力の強化については、自動運転、フィジカルAIの開発、AIを活用した科学研究革新プログラム、HPCI(革新的ハイパフォーマンス・コンピューティング・インフラ)というAI開発にも使えるスーパーコンピュータの開発などを進めることにしています。

 また経産省ではAIバリューチェーンの各レイヤーごとに、日本企業の研究開発等を支援しており、特にアプリケーションや分野特化型のAIの開発に対しては「GENIACプログラム」で多彩な支援を展開しています。

マルチモーダル基盤モデルの開発に期待

 これに加えて、来年度から新たに、国産のマルチモーダル基盤モデルの開発に令和8年度当初予算3873億円を計上しています。ロボットの自律制御や自動運転の実現のためには、状況を踏まえて自ら次の動きを決定できることが必要で、いわゆるフィジカルAIの開発が必要です。それには言語情報だけではなく画像や音声、さらには、さまざまなセンサーから得られたデータを学習して、状況に応じた動きを生成することができるAI基盤モデルが必要となります。こうしたいわゆるマルチモーダルAI基盤モデル、すなわち言語だけでなく、画像など多様なデータを処理し、かつ判断できるAI基盤モデルは世界的にもまだ開発段階にあり、それを世界に先駆けて開発すべく、政府として強力に支援する方針です。

 これら予算措置に加えて、投資促進税制の創設や研究開発税制の拡充などによる減税措置も実施し、民間企業におけるAI分野の研究開発を支援します。

 付随して、AIの開発において重要な信頼できる日本語データの蓄積を進めるとともに、海底ケーブル等の通信ネットワークの構築や安定的な電力供給体制の確保等、AIインフラの整備も加速していきます。

AIのリスクへの対応

 AI基本計画における四つの基本方針のうち、三つ目の柱はAIガバナンスの主導、つまり「信頼性を高める」取り組みです。これはAIのリスクへの対応が主たる取り組みとなります。

 その取り組みの一つとして、政府は、「AIの研究開発及び活用の適正性確保に関する指針」を策定・公表しました。この指針においては、適正性確保のために考慮すべき要素として、人間中心、安全性、公平性、透明性、アカウンタビリティ、セキュリティ、プライバシー・個人情報、公正競争、AIリテラシー、イノベーション、という、10の要素を考慮することが必要であると整理しました。

 そして、AIを開発・活用する事業者が特に取り組むべき事項として、「AIガバナンスによる俯瞰的な適正性の確保」、「ステークホルダーとの信頼関係の構築に向けた透明性の確保」、「十分な安全性の確保」、「事業継続性確保による安全な環境の維持」、「AIのイノベーションの基盤となるデータの重要性を踏まえたステークホルダーへの配慮」等を明記しました。また国民に対しても、法律の遵守に基づく責任あるAIの利用を促しています。実際にAIを使って作成した著作権や肖像権を侵害するような画像や動画を投稿するといった事案なども発生していて、引き続き国民向けの広報なども進めていくことにしています。

 あわせて、AIに関する情報収集・調査も進めています。もし、国民の権利利益を侵害する恐れのある事案があれば、分析・対策を検討し、必要に応じて事業者等に対し指導や助言、情報提供をおこなっていきます。

安全性確保に向けAISIを設置

 AIのリスクへの対応については、誤動作を防ぐなどの安全性の確保も重要です。政府は2024年にAIセーフティ・インスティテュート(AISI)という、AIの安全性確保に向けたAI開発者等や政府の取り組みを支援する機関をIPA((独)情報処理推進機構)内に設置しました。AISIは、AIの安全性評価に係る調査やガイドライン等の作成、評価の実施手法に関する検討などの業務を行っています。今後、その機能をさらに強化する必要があると考えており、予算を増やすとともに、積極的に人材の採用を進めています。具体的には、企業が開発したさまざまなAIをAISIが自ら分析・評価できる能力を強化するとともに、AIを活用したサイバー攻撃への対応に関する研究なども強化していきたいと考えています。

プリンシプル・コード案に対する意見募集

 AI政策の四つ目の柱は、AI社会に向けた社会制度の継続的変革、「AIとの協働」です。AIの利活用を促進していくにあたり、現状の制度で使い勝手の悪い部分があれば制度を見直します。また、AIを使ったために事故が発生した場合の民事責任はAIを使った者にあるのか、そのAIを製造した者にあるのか等の整理、知的財産の保護の在り方の検討、AI人材の育成、AI時代にふさわしい教育の在り方の検討などを進めます。

 このうち知財に関しては、内閣府の「AI時代の知的財産権検討会」において、2025年末に「生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)」を作成し、パブリックコメントを行いました。この案では、AIを提供する企業は透明性と知財保護のための取り組みの概要、つまり作成においてどのような学習データを使っているのか、学習してほしくないという声に対してどう対応するのか、著作権を侵害しないためにどのような仕組みを導入しているのか、などを自社ウェブサイトで開示することを求めています。また、著作権侵害が疑われるような場合に著作権者等から問い合わせがあった際は、適切に対応することを求めています。何らかの理由でそれらができない場合にはそれは許容されますが、できない理由を説明することを求めています。

 パブリックコメントでは、賛成・反対を含め、多くの意見が寄せられております。それらの意見を参考にしつつ、最適な方策を検討していきます。

 このように、AIに関してはまだ議論の過程にある事案も数多く、今後も多くの人の意見を取り入れながらAI社会の実現を目指して良い政策を進めていきたいと考えていますので、ぜひ、皆さんからもご意見をいただきたく存じます。
                                              (月刊『時評』2026年4月号掲載)