Эксперты по кибербезопасности заметили: пароли, созданные языковыми моделями, выглядят сложными, но их легко взломать из-за повторяющихся шаблонов. 16-символьные комбинации с цифрами и спецсимволами ИИ формирует по предсказуемым алгоритмам, а не случайно.
Исследователи проверили ChatGPT, Claude и Gemini и обнаружили интересную закономерность: несмотря на кажущуюся сложность, ИИ повторяет комбинации и создаёт пароли с низкой энтропией.
В экспериментах у Claude из 50 попыток повторились 20 комбинаций, а у других моделей тоже встречались схожие структуры. Языковые модели формируют правдоподобные и повторяющиеся последовательности — это нормально для текста, но плохо для безопасности.
Анализ показал: алгоритмы ИИ используют ограниченный набор символов и предсказуемые структуры. В результате 16-символьный пароль, который визуально выглядит надёжным, даёт лишь около 27 бит энтропии, тогда как для криптографически стойкой защиты нужно примерно 98 бит.
Эксперты советуют не использовать ИИ для генерации паролей. Лучше применять менеджеры паролей или passkey — они создают случайные комбинации с высокой степенью защиты.
Читать далее:
Вселенная внутри черной дыры: наблюдения «Уэбба» подтверждают странную гипотезу
Испытания ракеты Starship Илона Маска вновь закончились взрывом в небе
Сразу четыре похожих на Землю планеты нашли у ближайшей одиночной звезды
Обложка: freepik