Тренды-2019: сверхчеловеческий капитал

KOGDATA.RU — Об искусственном интеллекте, а также угрозы и возможности, которые он создает, говорят годами, но сейчас на первый план выходит еще один его аспект. А именно - этические алгоритмы, которые позволяют ИИ принимать беспристрастные решения. Они будут определять одну из самых влиятельных тенденций текущего года.

Наши жизни все больше определяются решениями, принимаем не мы, а искусственный интеллект или математические алгоритмы, заложенные в определенные сервисы.
Проблема в том, что нередко даже машины могут быть предвзятыми и действовать в очень узких рамках. Например, существуют подтверждения тому, что программы по распознаванию лица работают значительно надежнее для белых мужчин. А Amazon даже пришлось отказаться от собственной подобной технологии (которую планировалось применять для найма работников), поскольку оказалось - метод, на котором она базируется, «предвзятый» против женщин.

Подобные случаи меняют отношение людей к технологиям в целом. Недавно было проведено исследование Brands in Motion, в рамках которого опросили 27 тыс. человек в восьми рынках. Оказалось, что 97% потребителей сейчас ожидают от брендов этического использования технологий. А 94% считают, что если этого не будет происходить, государство должно вмешаться и навести порядок в этой сфере.

Таким образом, технологии и технологические компании уже не являются «священной коровой», требования к ним существенно возрастают. И бизнесу следует учитывать пожелания потребителей, разрабатывая все более этические алгоритмы и используя их мудро.



Посмотрите это
Леннон vs Маккартни: программа установила, кто на самом деле писал песни Beatles Леннон vs Маккартни: программа установила, кто на самом деле писал песни Beatles
Искусственный интеллект в руках государства Искусственный интеллект в руках государства
Хельсинкский университет запустил бесплатный курс об искусственном интеллекте Хельсинкский университет запустил бесплатный курс об искусственном интеллекте
  • 🔎Не то? Попробуйте поискать тут...
  • Сохраните в соц.сети, ок?

    Эта тенденция проявляется, в том числе, в появлении сервисов, подобных Fairness Flow. Он был представлен в мае 2018-го на конференции разработчиков Facebook. Цель этого инструмента - помочь определить предубеждения, влияющие на алгоритмы платформы, в том числе обусловленные гендером и возрасту. Сейчас Fairness Flow доступен каждому инженеру Facebook.
    Похоже, что подобные инструменты будут пользоваться большой популярностью: ведь в США уже есть прецеденты судебных исков к Facebook и его рекламодателей, который таргетирует рекламу, скажем, исключительно на мужчин.

    Осенью 2018 IBM проанонсировала выход пакета продуктов, должны увеличить прозрачность искусственного интеллекта и уменьшить его предвзятость. Этот пакет позволяет пользователям проверять, не является какой-то человек или группа людей субъектом ангажированности, а разработчикам - определять, что может становиться причиной предвзятости ИИ, и получать рекомендации, как это исправить. Эти инструменты могут использоваться как на собственной платформе IBM - Watson - так и на посторонних, вроде Tensorflow или AzureML.

    Интересный кейс воплощение описанной тенденции - неприбыльная организация Crisis Text Line, расположена в США. Она провела обучение уже 12 тыс. психологов-консультантов, предоставляющих психологическую помощь в мессенджерах (и пока их разговоры с клиентами насчитывают уже 62 млн. сообщений). Весной 2018-го эта организация запустила коммерческую платформу Loris.ai, цель которой - помочь в обучении специалистов, которые должны вести тяжелые разговоры. Алгоритм, объединяющий машинный интеллект и эмпатию, может стать примером этической автоматизации, которой стремятся люди во всем мире.

    Если ваша компания уже использует искусственный интеллект и алгоритмы, то первый шаг в направлении опасного тренда, - проверить, не являются ли они предвзятыми. Компании-гиганты - например, Facebook, - уже это делают, и на очереди остальные рынке.

    Впрочем, эта тенденция затронет не только технологические организации. Ведь почти все, так или иначе, используют цифровые коммуникации в общении с клиентами (скажем, чат-ботов). Ошибку, которую может допустить человек-работник, потребители простят легче, чем ошибку алгоритма. Поэтому бизнеса нужно или сделать своих цифровых «помощников» безупречными ( «сверхчеловеческими»), или более «человечными» - в зависимости от того эффекта, которого он стремится достичь.

    Тренды-2019: сверхчеловеческий капитал
    Категория: Новости о онлайн-медиа и IT-корпорациях Ваш IP записан: 18.207.134.98 (16.01.19)

    Комментарии 0

    Админ от 16-01-2019, 15:37 написал:

    «попробуйте оставить ваш первый комментарий здесь — это проще, чем кажется!»

    Оставить комментарий?
    Вам понравилось? +15 баллов
    Да 683 нет :(
    Оставить комментарий +25 баллов
    Смотреть видео +20 баллов




    милый котик гиф Вы здесь уже: минут : секунд.

    ×