、、、およびAnthropicは、規制当局の監督に対する要求の高まりに対応して設立された連合であるフロンティアモデルフォーラムを立ち上げるために協力しました。このアライアンスは、パートナー組織の集合的なインテリジェンスとリソースを活用して、AI開発の分野で最良の標準とプラクティスの採用を促進するための専門的な技術評価と基準を設計します。
結成された連合の中心にあるのは、OpenAIによって造られた用語である「フロンティアAI」であり、公衆の安全を確保する上で重大な脅威となる可能性があるため、危険であるとラベル付けされた高度なAIおよび機械学習モデルで構成されています。
メンバーは、脅威的な能力が前例のないほど出現する可能性があるため、フォーラムには独特の規制上の課題があると主張しています。そのため、これらのモデルが誤用されたり悪用されたりするのを防ぐことが難しくなる可能性があります。
新しいフォーラムは、彼らが実装することを計画している一連の目的を定めました。
1つ目は、AIの安全性研究を一歩先取りし、モデルの信頼性が高く責任ある設計方法をさらに採用し、脅威を減らし、能力とセキュリティの自律的で体系的な評価を実施することです。
2つ目は、モデルの信頼できる進歩と実装を確保するための適切で有用な方法を認識し、テクノロジーの性質、制限、機能、および影響を理解するように人々を導くことです。
3つ目は、他の立法者、学界の個人、NGO、組織と団結して合意を形成し、信頼と安全保障の脅威に関する情報を交換することです。
最後は、気候変動の緩和と適応、がんの早期発見、サイバーセキュリティ問題への取り組みなど、一般市民の問題や闘争を支援できるプラットフォームとアプリケーションを設計する取り組みを奨励することです。
現在、フォーラムのメンバーはわずか4人です。しかし、彼らは皆、新しいメンバーを歓迎する用意があると主張しています。リソースとインテリジェンスを備えた組織または企業は、フロンティアAIモデルの確立とさらなる配布に積極的に取り組む必要があります。彼らは、フロンティアモデルの安全性を確保するために、明確で揺るぎない献身を示す必要があります。
連合は、その手続き、管理、憲章、および財政的枠組みを導くために諮問委員会を導入すると主張している。今後数週間で、メンバーは政府や非政府組織と協力して、フォーラムの構造に関する意見を求め、協力を調査するための有意義な方法と方向性を模索する意向を表明しました。
フロンティアモデルフォーラムの開発は、自主的なイニシアチブを追求することによって潜在的な規制措置をかわすビッグテック企業の取り組みに注意を向けながら、安全上の懸念と責任に対処するAI分野の取り組みを示すことを目的としています。彼らのこのステップは、彼らが彼ら自身の規則とガイドラインを導入し、形成することにおいて発言権を持つことを可能にするかもしれません。
EUがプライバシー、安全性、平等、包括性、そして最も重要なこととして、AI企業の倫理に関する透明性を成文化するための堅実なAIルールブックの利用を奨励しているため、最近のニュースでこれに気づきました。
先週のホワイトハウスでは、ジョー・バイデン米大統領が7つの異なるAI組織との会議を開催するのも見ました。フロンティアモデルフォーラムの創設メンバー4名も出席しました。この会議は、時間が経つにつれてAIがもたらす脅威に対する自発的な保護措置を彼ら全員に受け入れさせるために開催されました。しかし、批評家は合意が曖昧であった影響を受けやすい。
それにもかかわらず、バイデンはまた、将来的には規制監視を実施する可能性が可能になることを示唆しました。