Huntrは、人工知能・機械学習分野に特化した世界初の脆弱性報奨プラットフォームで、セキュリティ研究者とAIオープンソースプロジェクトをつなぎ、責任ある脆弱性公開を通じてAIエコシステムのセキュリティを高めます。
プラットフォームは主に2種類の脆弱性をカバーします:モデルファイルの脆弱性(機械学習モデルファイル形式とその読み込みプロセスを対象)と、オープンソース脆弱性(AI/MLオープンソースアプリケーションやライブラリのセキュリティ欠陥)です。
研究者はプラットフォームが提供するセーフティフォームから脆弱性レポートを提出します。プラットフォームは関係メンテナーへ検証を依頼し、報奨や公開の手続きを管理します。
報奨金額は脆弱性の重大性と対象プロジェクトに基づいて決定されます。公開情報によると0ドルから4000ドルまでが目安で、具体的なリストはプラットフォームの公開情報に準じます。
報告を受け取ると、プラットフォームはメンテナーへ連絡し、31日間の回答期間を設けます。高リスク/深刻な脆弱性の場合、メンテナーが応答しない場合は、プラットフォームが14日以内に対応を進めることがあります。検証が完了した有効な脆弱性には、研究者に報奨が支払われます。
プラットフォーム規約により、オープンソースの脆弱性レポートは検証と修正完了後に通常90日公開され、延期を申請することもできます。モデルファイルの脆弱性レポートは通常非公開です。
プラットフォームは主にセキュリティ研究者、AIオープンソースプロジェクトのメンテナー、AI/MLサプライチェーンのセキュリティに関心を持つ組織・個人を対象としています。コア機能を利用するにはログインし、利用規約に同意する必要があります。
モデルファイル脆弱性の専用セクションは56種の形式をカバーしています。代表的なものとして safetensors、GGUF など、一般的な機械学習モデルファイル形式を含みます。