Исследователи из Техасского университета в Остине разработали «метод машинного отучения» для генеративного искусственного интеллекта (ИИ), создающего изображения. Технология помогает программе забыть и перестать использовать иллюстрации, защищенные авторскими правами, и усвоенный при обучении жестокий контент, например, сцены насилия.
Генеративные модели ИИ обучаются в основном на данных из Интернета. Проблема в том, что помимо полезной информации программы, как дети во дворе, «подхватывают» множество лишнего: личную информацию, опубликованную в сети, снимки, защищенные авторскими правами, и неприемлемый контент. Все эти данные используются при работе программ для генерации новых изображений.
Когда вы тренируете модели на огромных наборах данных, вы обязательно включаете нежелательную информацию. Раньше единственным способом удалить проблемный контент было отказаться от всего, начать заново, вручную извлечь все эти данные и переобучить модель. Наш подход дает возможность сделать это без необходимости переобучать модель с нуля.
Раду Маркулеску, соавтор исследования
Алгоритм, предложенные исследователями, позволяет передавать ИИ «стоп лист»: загружать изображения, которые необходимо забыть. После обработки программа перестает использовать забытое изображение при генерации нового контента. Инженеры успешно протестировали работу алгоритмов на двух наборах изображений. Принципы работы технологии описаны в препринте статьи, опубликованном на портале arXiv.
Читать далее:
Огромную акулу-химеру нашли в Таиланде: ее предкам 400 млн лет
Опубликованы кадры с роботом, который общается и не отвлекается
Мертвому мужчине на 10 дней пересадили печень свиньи
На обложке: Изображение от starline на Freepik, сведения о лицензии