Цилис перечислила три принципа, определяющих будущее «ответственного развития» ИИ. Во-первых, эта технология появится несмотря ни на что, поэтому нам нужно понять, как сознательно повлиять на нее. Во-вторых, следует привлечь к обсуждению как можно больше людей. И в-третьих, необходимо сделать все возможное, чтобы как можно скорее ввести нормативные акты, регулирующие ИИ, поскольку эта технология будет обладать огромным влиянием на все аспекты жизни людей.
McKinsey: «Amazon отнимает деньги у банков»
Мнения
По мнению Цилис, неоднозначность в восприятии ИИ возникает из-за того, что его развитие идет одновременно и медленнее, и быстрее, чем мы того ожидали. Перечислив ИИ-проекты, над которыми работает одна только Google, она подчеркнула, что людям не надо бояться ИИ, поскольку все проекты касаются исключительно «научных исследований или оторванных от жизни игр».
При этом, как сказал Хван, разработчики ИИ «некоторым образом пишут правила поведения в коде», указав на тот факт, что личные точки зрения и предрассудки разработчиков могут быть унаследованы созданными ими алгоритмами. Этот механизм можно и нужно использовать, внедряя в методы разработчиков культурные нормы. Сейчас общее число людей, задающих тон в создании ИИ-алгоритмов, вероятно, «в пределах нескольких тысяч», добавила Цилис.
Это значит, что необходимо проводить больше междисциплинарных дискуссий с представителями разработчиков, общества и тех, кто принимает решения о политике по отношению к ИИ, потому что сейчас у общественности не существует действенного метода влияние на то, какие нравственные законы должны управлять разрабатываемыми системами искусственного интеллекта, сообщает TechCrunch.
В Екатеринбурге стартовал чемпионат WorldSkills Hi-Tech
Технологии