Структура SAIF построена на шести руководящих принципах. Важно отметить, что приведенные ниже принципы не предназначены для рассмотрения в хронологическом порядке.
Вместо этого их следует рассматривать как взаимосвязанные элементы, которые работают вместе для решения проблем безопасности и конфиденциальности искусственного интеллекта на протяжении всего жизненного цикла систем ИИ.
1. Расширение прочных основ безопасности для экосистемы искусственного интеллекта.
Просмотрите и оцените, как существующие меры безопасности применяются к ИИ, а затем определите, какие дополнительные меры необходимы для обеспечения безопасности систем ИИ.
Сюда входят стратегии упреждающего управления для защиты активов цепочки поставок ИИ, включая данные обучения . Важно учитывать вопросы безопасности на протяжении всего жизненного цикла ИИ, от первоначальной концепции до развертывания и обслуживания.
2. Расширьте возможности обнаружения и реагирования, чтобы внедрить ИИ во вселенную угроз организации. Интегрируйте ИИ в более широкую систему безопасности организации и используйте его для выявления и устранения проблем безопасности и конфиденциальности. Это предполагает наблюдение за тем, что поступает и выходит из генеративных систем искусственного интеллекта, которые создают контент, и использует аналитику угроз для прогнозирования и подготовки к возможным атакам.
3. Автоматизация защиты, чтобы идти в ногу с новыми и существующими угрозами.
Используйте ИИ для расширения и ускорения оборонительных возможностей экономически эффективным способом. Это включает в себя признание того, что злоумышленники будут использовать ИИ , чтобы сделать свои атаки более масштабными и эффективными, а также ценность использования ИИ для экономии денег и одновременной защиты от угроз.
Внедрение нескольких уровней автоматического контроля безопасности важно для снижения рисков и предотвращения использования уязвимостей злоумышленниками.
4. Гармонизация средств управления на уровне платформы для обеспечения единообразной безопасности во всей организации
Последовательно используйте лучшие практики и внедряйте меры безопасности и защиты на протяжении всего процесса разработки программного обеспечения для искусственного интеллекта.
Это предполагает обеспечение того, чтобы все инструменты и платформы искусственного интеллекта в организации имели одинаковые средства контроля безопасности. Важно постоянно отслеживать системы искусственного интеллекта на предмет подозрительной активности и уязвимостей и активно искать способы улучшения состояния безопасности каждого приложения искусственного интеллекта.
5 Адаптация элементов управления для корректировки мер по смягчению последствий и создания более быстрых циклов обратной связи для развертывания ИИ
Постоянно тестируйте и обновляйте меры безопасности для систем искусственного интеллекта, чтобы противостоять новым типам технологий и возникающим угрозам. Стратегии включают тонкую настройку моделей ИИ после развертывания, дополнение обучающих данных, более глубокую интеграцию безопасности в разработку программного обеспечения и регулярное тестирование защиты системы.
Важно способствовать прозрачности и объяснимости систем искусственного интеллекта, чтобы укрепить доверие и обеспечить возможность принятия обоснованных решений.
6. Контекстуализация рисков системы ИИ в окружающих бизнес-процессах
Понимайте и управляйте рисками, связанными с системами искусственного интеллекта, в более широком контексте деятельности бизнеса. Это включает в себя анализ рисков, мониторинг всего жизненного цикла данных и операций ИИ, а также настройку автоматизированных средств контроля, которые постоянно проверяют производительность приложений ИИ и надежность модели.
Важно обеспечить человеческий надзор и подотчетность за системы искусственного интеллекта, чтобы устранить потенциальную предвзятость и неправильное использование машин , которые могут привести к непредвиденным последствиям.