Роботы не смогут захватить мир, люди оказались хитрее: Ant Group делает большие шаги в повышении безопасности
Работы не смогут захватить мир: люди оказались хитрее
Ant Group запустила "AntGuard" – значительный шаг в решении проблем безопасности, связанных с большими моделями искусственного интеллекта. Это решение состоит из двух основных частей: "AntScan 2.0" и "TianGuard", с целью повышения надежности и достоверности больших моделей ИИ, используемых в разных отраслях.
Основная цель AntGuard – решить проблемы безопасности, связанные с проблемными учебными данными, неконтролируемыми процессами вывода и внешними злонамеренными воздействиями. Она сосредоточена на трех основных направлениях: измерение безопасности больших моделей, интеллектуальное управление рисками и устранение проблем, связанных с данными.
AntScan 2.0 выступает экспертом по безопасности для больших моделей. Прежде чем эти модели будут запущены в действие, он тщательно проверяет их, проявляя уязвимости в различных аспектах, таких как безопасность данных, безопасность контента и нравственные соображения.
TianGuard, с другой стороны, действует как защитный щит для больших моделей. Он использует интеллектуальную технологию контроля рисков для защиты моделей от вредных внешних запросов и фильтрует потенциально рискованные ответы, генерируемые этими моделями. Такой подход обеспечивает безопасность в течение всего процесса, от входных пользовательских данных до исходных данных модели после развертывания.
Кроме того, Ant Group и TianGuard стараются поддерживать безопасность моделей как на этапе обучения, так и на этапе применения. Они достигают этого путем реализации таких стратегий как очистка проблемных источников данных, согласование процессов обучения и проведение исследований для повышения прозрачности моделей.
Читайте также: Meta Platforms работает над новой системой искусственного интеллекта
Источник: gizmochina