첫 페이지 报纸 본문

日経新聞の最新報道によると、日本政府は来年、民間のAI技術が軍事目的に転用されるリスクを含め、人工知能(AI)の安全面を検討する組織を設立することを検討しており、研究開発を妨げることなく安全性を高めることを目指している。
早ければ今月開かれる人工知能戦略委員会の会議で、AI分野で経験のある民間部門の専門家を含むAIに関する国家戦略を議論する責任を負う計画を正式に発表する見通しだという。
注目のポイントは、OpenAIのChatGPTなど、最先端の製品になります。民間部門への干渉を避けるために、企業が運営効率を高めるための標準的なAI技術は日本政府の目標にはならないだろう。
AI製品は市場に参入する前に一連のテストを行う必要があり、日本政府が購入したAI製品は使用前に専門機関の認証を受けるよう求める提案もある。
上記の新設立組織は、AIを通じて生物、化学、または他の兵器を製造するための情報を取得する可能性など、潜在的な国家セキュリティリスクを研究する計画であり、ネットワークへの攻撃を含むセキュリティホールもチェックする予定である。
また、AIが制御されなくなるリスクや、誤った情報や偏見に関する問題も調査する。AIが制御するソーシャルメディアアカウントは、ネット上で自動的にコンテンツを生成し、人間のユーザーとやり取りし、世論を操作したり感情をあおったりすることができる。
現在から見ると、情報技術の発展に伴い、AI技術が軍事分野に大量に運用されていることが現実となり、AIを用いて戦場データを収集し分析するなど一連のAI操作は、作戦システムに広く応用されている。民間AI技術が軍事目的に転用されるのは、ほとんど避けられない問題だ。
新しい組織が設立される可能性がありますが、最も可能性の高い結果は、新しい部門を既存の組織に統合することです。候補には総務省傘下のAI技術を研究する国家情報・通信技術研究所、経済産業省傘下の情報技術促進機構が含まれている。
7カ国グループ(G 7)は今月初め、AI国際ルールの枠組みについて最終合意した。これは開発者とユーザーに対して、AIの「すべての関係者」が職責を守るべきだと規定した初の包括的な国際ルールになるだろう。
G 7は、AIの悪用防止に向けた協力姿勢を率先して示す形で、G 7以外の国や企業の賛同を得ることを目指す。日本政府は今回の合意を国内向けガイドラインの策定に活用する。つまり、AI開発者は市場に製品を出す前に第三者のリスク評価を受ける必要がある。
英国と米国は人工知能機構の創設においてもリードしている。11月、英国に世界初のAIセキュリティ研究所が設立された。先端AI製品の発売前後に検証を行った後、その中に安全リスクがある製品を公開することを検討する。
米国は今年10月、バイデン大統領の行政命令に基づき、米国の国家基準・技術研究院を主導してAIセキュリティ評価方法を制定している。民間企業と共同でAIの能力とリスクを評価する方法を制定し、民間企業が自らリスク検証を行うことを望んでいるAIセキュリティアライアンスを創設することを目的としている。
您需要登录后才可以回帖 登录 | Sign Up

本版积分规则

愿为素心人 注册会员
  • Follow

    0

  • Following

    0

  • Articles

    33