Защищаясь от нападок государства и общества, ИТ-компании пытаются заставить нас поверить, что искусственный интеллект способен искоренить множество проблем и что его разработки ведутся ради общественного блага. Далеко не всегда это соответствует действительности, считает Джаред Мур, советник по этике Школы информатики Университета штата Вашингтон.

Cover

Стратегия поведения нынешних ИТ-компаний по защите от критики не нова, она продолжает давнюю и почетную традицию заявлений о потенциале технологии решить проблемы общества. В книге Тима У «The Master Switch» 2012 года рассказывается, как телевидение собиралось изменить мир, сделав информацию бесплатной и доступной. В 90-е телецентры хотели трансформировать сферу образования в развитых странах. Во время Арабской весны 2011 года нам говорили, что социальные медиа были рупором демократии, напоминает Джаред Мур, советник по этике Школы информатики Университета штата Вашингтон.

Эти высказывания основаны на убеждении, что одно только наличие технологии способно запустить социальные перемены — но это не так.

Сторонники этой позиции игнорируют тот факт, что проблемы вроде нищеты, преступности или социального неравенства — результат политических ошибок. Технологии, не направленные на корень зла, отвлекают наше внимание. Кроме того, они создают собственные социальные проблемы — взять, к примеру, сделку Facebook с Cambridge Analytica, которая привела к утечке данных миллионов пользователей.

С одной стороны, кажется очевидным, что ИИ сделает жизнь лучше, ведь он как электричество. Он создаст новые рабочие места, освободит нас от тяжелого и скучного труда, повысит производительность производства. Однако реальность намного сложнее, пишет Мур в Venture Beat.

Для того чтобы создать какую-нибудь модель, лежащую в основе ИИ, придется потратить больше энергии, чем потребляет за год средняя американская семья.

За системами машинного зрения, которые управляют беспилотниками, стоят тысячи низкооплачиваемых сотрудников, часами размечающих миллионы изображений. При этом ИИ остается далеким от совершенства и копирует предвзятое отношение тех, кто его создал.

Так что когда кто-то говорит про «благо», которое принесет очередной алгоритм, следует задать вопрос: что это за благо и для кого? И нельзя ли добиться того же более простыми методами, без ИИ?

Facebook, Google, Microsoft и многие другие разработчики ИИ не дают определения благу. Вместо того они предполагают, что сама по себе работа в области здравоохранения, энергетики или предотвращения преступлений — достаточный ответ.  

Из вышесказанного не следует, что разработки ИИ следует прекратить. Но, не поднимая вопроса о политическом смысле ИИ, называть его благом — значит, создавать пустой хайп и необоснованное чувство, что занимаешься чем-то полезным. Каждый создатель технологии должен дать ясный и честный ответ, как он понимает общественное благо, призывает Мур.

По мнению специалистов, собравшихся на прошедшей в начале осени конференции Digital Frontrunners, новые технологии — от социальных сетей до искусственного интеллекта — развиваются слишком быстро, чтобы можно было оценить их влияние на общество. Чтобы избежать ошибок, стоит замедлить их темпы.

Сейчас читают

Архивы