Google расширила программу вознаграждений за ошибки и уязвимости, добавив в фокус генеративный ИИ и свои флагманские продукты. Компания готова платить до $20 000 за случаи, когда исследователи добиваются реального злоупотребления искусственным интеллектом — не просто «галлюцинации», а выполнение нежелательных действий или раскрытие защищённых данных. Векторы, которые Google считает критическими, включают «rogue actions» — сценарии, где […]
Google расширила программу вознаграждений за ошибки и уязвимости, добавив в фокус генеративный ИИ и свои флагманские продукты.
Компания готова платить до $20 000 за случаи, когда исследователи добиваются реального злоупотребления искусственным интеллектом — не просто «галлюцинации», а выполнение нежелательных действий или раскрытие защищённых данных.
Векторы, которые Google считает критическими, включают «rogue actions» — сценарии, где модель выполняет команды, меняет данные аккаунта или помогает провести фишинг и другие атаки. За особо оригинальные и качественные отчёты сумма растёт: с учётом множителей награда может достигнуть $30 000.
Компания подчёркивает: простая демонстрация того, что модель «галлюцинирует», не даст высокого вознаграждения. Жалобы на неподходящий контент следует отправлять через стандартный канал обратной связи внутри продукта — туда, где решают проблемы с качеством ответов, а не уязвимостями.
Новая инициатива объединяет существующие баг-баунти и добавляет инструменты для работы с безопасностью ИИ. Одновременно Google представила набор мер и инструментов для быстрого исправления найденных проблем, включая внутренние разработки по автоматизации патчей.
Специалисты по безопасности уже находят реальные уязвимости в экосистеме Gemini — недавние кейсы показали способы внедрять вредоносные подсказки через журналы, результаты поиска и другие интерфейсы, что требовало быстрых фиксов со стороны Google. Это и объясняет высокий размер вознаграждения: компания хочет стимулировать качественные находки, а не «звуковые» демонстрации.
Если удастся системно объяснить и устранить сценарии, где ИИ выполняет нежелательные операции, это снизит риск кражи данных, фишинга и автоматизированных атак через сервисы Google. Для исследователей это шанс получить серьёзную оплату за реальные находки.
Читать далее:
Вселенная внутри черной дыры: наблюдения «Уэбба» подтверждают странную гипотезу
Испытания ракеты Starship Илона Маска вновь закончились взрывом в небе
Сразу четыре похожих на Землю планеты нашли у ближайшей одиночной звезды
Обложка: freepik