«Технари должны знать о последствиях своих изобретений»
— Свою статью о праве на забвение вы начинали с рассказа об испанце, потребовавшего от Google через суд удалить информацию о нем. Как сейчас работает право на забвение в Европе?
— Это дело стало базой для разработки права на забвение. Гражданин Испании жаловался, что информация о нем в интернете мешает найти работу. Появился вопрос: несет ли поисковик Google ответственность за содержимое выдачи? Тогда компания ответила, что она индексирует информацию в сети, но не создает ее.
Сегодня уже появились новые проблемы: на европейском уровне есть право на забвение, или право на стирание информации о тебе (right to erasure — «Хайтек»), то есть данные могут быть удалены из интернета. Но применение этого права влечет за собой проблемы с машинным обучением: очень сложно убрать какую-то отдельную информацию, не нарушив согласованность всей базы данных. А когда законы подразумевают уголовное преследование за нарушение защиты данных, то требуется еще большая ясность в техническом применении таких норм. Сейчас получается так, что инженеры не знают, что делать в связи с этим.
БиСи Бирман, Heavy Projects: ИИ должен иметь несовершенства — это элемент случая
Мнения
Появляется больше электронных государственных и не только сервисов, а вокруг них — новые нормы. Но вокруг физического хранения данных нет. В любом случае, даже «облако» — это физический сервер, вряд ли мы сможем когда-то от него избавиться.
Часть проблемы регулирования информации в интернете состоит в том, что серверы многих компаний находятся в США, тогда как доступ к ним осуществляется отовсюду.
Одним из прорывов Общего регламента по защите данных (GDPR) стала небывалая широта его применения. Он защищает европейских граждан независимо от того, где находятся они или серверы с данными. Это первый случай, когда европейские законы выходят за рамки территории ЕС и заставляют всех работающих с персональными данными европейцев подчиняться им. Проблема со старой Директивой о защите персональных данных 1995 года, которую сменил GDPR, состояла в недостаточных мерах принуждения. Сейчас можно действительно наказать плохих парней. ЕС чувствительно относится к проблеме защиты данных европейцев и готов к обеспечению гарантированной работы новой нормы. Но пока это все в новинку, прошло всего несколько месяцев с введения GDPR.
— Насколько успешно сотрудничество технических специалистов и законодателей?
— Есть Международная организация по стандартизации — ISO. Она разработала стандарты для защиты данных и предварительной оценки последствий решений по такой защите. В нее входят больше 160 стран, в том числе Россия, США, Китай и большинство европейских стран. Это хороший пример работы негосударственной организации по разработке стандартов для решения международных проблем: отдельные государства с ними не справились бы из-за границ своих легальных сфер.
У этих стандартов есть проблема: они не обязывают подпадающие под них компании что-то делать. Их добровольно применяют, причем за их нарушение не следует последствий. Если вы все же упоминаете эти стандарты в договорах с другими компании, то могут быть последствия за их нарушение. Но как общий принцип это не работает.
— Как улучшить взаимодействие государства и разработчиков?
— Одна из главных вещей — углубление междисциплинарного подхода к проблемам современных технологий. Постоянно возникают проблемы с этикой и законодательством. Но специалисты-технари не получают достаточного образования в этих направлениях, а значит, не могут ставить правильные вопросы.
Game out: Как видеоигры обучают детей-аутистов держать равновесие и узнавать людей
Технологии
Согласно междисциплинарному подходу, те, кто занимается программированием и разработкой, должны владеть знаниями по этике и праву, чтобы понимать последствия своих технических решений. Так они смогут быть уверены, что создают безопасные проекты.
С другой стороны, нужно, чтобы специалисты по этике и праву имели технические навыки для понимания конкретных деталей современных технологий. Без этого получается, что дискуссия специалистов проходит на высоком уровне, но в технической части они многое упускают из-за недостатка знаний. Я думаю, этот подход может еще очень многое принести. Его можно реализовать не только на локальном уровне, но также на общеевропейском, на уровне той же ISO.
Двойная природа робота
— С какими проблемами сталкиваются производители роботов для персонального ухода?
— Моя докторская диссертация была посвящена роботам для персонального ухода. Недавно я получил стипендию имени Мари Кюри для продолжения своего исследования, так что в этом я — эксперт.
Я изучаю роботов, которые должны заботиться о детях и пожилых людях, страдающих от деменции, аутизма и других расстройств. Эти группы нуждаются в дополнительном уходе. Существующее законодательство о таких роботах фокусируется на физической безопасности людей, тогда как я обращаю внимание на их когнитивное состояние.
Телемедицина, роботы и умные дома: каким через 5 лет будет «оцифрованный» город в России
Технологии
Мы контактируем каждый день с роботами, но есть группа, которую называют «социально активные роботы». Они не только выполняют какую-то функцию, но и общаются с вами, собирают какие-то данные о вас. Очень часто пользователи просто не понимают, что в процессе работы робот собирает и передает информацию. Люди не идентифицируют робота как сборщика данных, потому что они фокусируются на его внешнем виде. В итоге они упускают двойную природу робота, кибернетическую и физическую, как, например, у робота NAO.
Существует проблема с возможным ограничением воли людей. Какую часть задач мы можем передать роботам для персонального ухода, а какую будут продолжать делать люди? Это соотношение нужно сбалансировать, чтобы у тех, за кем присматривают, была возможность выбора. Есть вопрос об ответственности: кто будет отвечать, если что-то пойдет не так с роботом? Наконец, встает вопрос о человеческом достоинстве: действительно ли мы хотим, чтобы за нуждающимися присматривали роботы? Многие сейчас следят за развитием таких технологий, у роботов много плюсов: они не получают зарплату, не выходят на пенсию, работают 24/7, но, возможно, есть какие-то сферы, в которых нужен человеческий подход. Я верю, что скоро будут юридические решения в вопросе о том, желаем ли мы автоматизации ухода за больными или эта сфера остается у людей.
— Почему люди не понимают «двойной природы» роботов?
— Все, что вы видите, — это сам робот. Возьмем пылесос Roomba. Пользователи просто видят пылесос, потому что он действительно пылесосит и для этого создан. Но на деле он подключен к собственной сети, передает данные о себе и вас. Для производителей роботов просто отвлечь пользователей от сбора данных их девайсами. Не только с помощью внешнего вида, но еще с помощью небольших трюков: робот может повернуться к вам и сказать: «Привет, отлично выглядишь сегодня!». И сразу ваше внимание сосредоточено на том, о чем робот говорит или как он это говорит, но не на том, что происходит за рамками этого разговора. Из-за этого вы не понимаете, до какой степени сбор информации повлияет на вас. Не считаете такой разговор с роботом серьезным, потому что не понимаете, для чего он нужен и для чего робот и его разработчики используют ваши данные.
— Зачем компаниям так отвлекать пользователей?
— Есть много разных причин. Это можно делать для терапевтических целей, чтобы пользователь отвлекался и приступал, например, к упражнениям. Тогда роботы специально так устроены, им нужно внимание пользователя направить на соблюдение предписаний врача.
Ян Лекун, Facebook: прогностические модели мира — решающее достижение в ИИ
Мнения
С другой стороны, такое отвлечение уже давно применяется в интернете. Вас по-разному отвлекают на каком-то сайте, чтобы вы как можно дольше на нем продержались или, наоборот, кликнули на баннер и перешли с сайта. Почему бы не использовать те же приемы для роботов?
Роботы должны быть безопасны
— Что вы можете предложить для усовершенствования регулирования таких компаний?
— Нам нужно создать зоны для междисциплинарного тестирования роботов. Они должны быть проверены специалистами из разных дисциплин для понимания, безопасен такой робот или нет. Нужно проверить соблюдение приватности, защиты данных, корректную работу автономных систем. Причем зоны должны быть доступны для законодателей, чтобы мы могли выработать нормы, основанные на экспериментальных данных. В моей статье, написанной в соавторстве с Микаелем Хельдевегом из Университета Твенте, описана процедура изменения государственного регулирования с созданием таких зон для тестирования и оценки влияния роботов. В Европе уже заинтересовались проблемами таких роботов: Еврокомиссия создала специальный комитет экспертов по ИИ для их изучения.
— Каким вы видите будущее роботов для персонального ухода?
— Пока что все находится на ранней стадии развития. Но мы уже знаем, что роботы, работающие с аутистами, не должны иметь экран. Последние исследования показывают, что экраны только усиливают отчуждение аутистов, то есть делают то, от чего должны помочь избавить. Это показывает: чем больше мы знаем о рисках, тем лучше мы будем представлять будущее. Возможно, будущие роботы помогут аутистам общаться с другими людьми через технические решения без экранов.
— Изменения, связанные с роботами, происходят в основном в развитых странах. К чему это может привести?
— Все страны решают свои проблемы. Развитые страны строят роботов, и из-за этого возникают проблемы с ними, их пытаются решить. Но в развивающихся странах тоже происходит много всего, связанного с роботами и интернетом вещей. Их главная проблема — они не могут просто так попасть на мировой рынок. Поскольку они «вне игры», у них нет слова. Они не очень на него влияют.
Если Россия хочет играть ведущую роль в разработке роботов, ей нужно следовать правилам XXI века. Это подразумевает плюрализм, открытость, прозрачность, готовность учиться у других. Я был на многих конференциях с блестящими русскими исследователями экзоскелетов. Это нам и нужно — исследователи со всего мира, которые делают что угодно для решения наших проблем.