Системы слежения, дискриминация, поддельные видео - опасности искусственного интеллекта-2019

KOGDATA.RU — Благодаря фильмам мы знаем, что искусственный интеллект в конце концов захватит весь мир. Но уже сейчас становится понятно, что процесс этот будет не мгновенным, а постепенным, от одной технологии к другой. По мнению MIT Technology Review, 2018 ИИ или прежде продемонстрировал свой темный (и иногда недалекую) сторону. Поэтому специалисты подготовили перечень потенциальных опасностей от ИИ, на которые стоит обратить внимание 2019 года.

Беспилотные авто

В марте 2018 автомобиль Uber, на котором испытывали самоуправляемую технологию, насмерть сбил человека. После этого даже технооптимисты поняли, какую угрозу несет беспилотная машина.
Системы слежения, дискриминация, поддельные видео - опасности искусственного интеллекта-2019
В то же время не только Uber, но и более мощные авто-производители, в частности Ford и General Motors, уже вложили в развитие этого направления миллионы, если не миллиарды, долларов. Но пока наибольших успехов достигла Waymo, дочерняя компания Alphabet. В прошлом году она создала первую полностью автономную службу такси в Аризоне. Но даже технология Waymo имеет существенные ограничения, поэтому автономные автомобили не могут ездить везде, где заблагорассудится.



Посмотрите это
Waymo и Lyft выпустят на дороги Финикса десять самоуправляемых машин Waymo и Lyft выпустят на дороги Финикса десять самоуправляемых машин
В Египте заработал Uber Bus - по принципу маршрутки В Египте заработал Uber Bus - по принципу маршрутки
Искусственный интеллект поможет на 700% быстрее блокировать детскую порнографию в интернете Искусственный интеллект поможет на 700% быстрее блокировать детскую порнографию в интернете
  • 🔎Не то? Попробуйте поискать тут...
  • Сохраните в соц.сети, ок?

    Предостережения 2019. Регуляторы в США и других странах довольно снисходительно относятся к экспериментальным инноваций, чтобы их не спугнуть. Но пешеходы и водители не подписывались в качестве подопытных мышей. Поэтому в 2019 следует ожидать еще одну трагедию, чтобы чиновники ввели строгие и четкие правила для испытания беспилотных технологий.

    Использование ботов в политических играх

    В том же марте мир узнал, что консалтинговая компания Cambridge Analytica использовала личные данные пользователей Facebook, чтобы повлиять на выборы президента США 2016 года. Дальнейшие исследования показали, как можно эффективно распространять дезинформацию через соцсети.

    Во время слушаний в Конгрессе Марк Цукерберг, генеральный директор Facebook, пообещал, что ИИ учят самостоятельно находить и блокировать опасный контент.

    Предостережения 2019. Обещания Цукерберга можно проверить на выборах этого года, которые пройдут в Южной Африке и Нигерии, а также в Украине. Кроме этого, в США уже началась подготовка к выборам-2020. Вероятно, мы увидим эволюцию технологий дезинформации и вредных чат-ботов в частности.

    Этический кодекс ИИ

    В прошлом году работники Google узнали, что их компания вместе с ВВС США разрабатывает боевые дроны с ИИ, которые лучше идентифицировали цели. Они выступили против такого сотрудничества, и в результате Google отказалась от этого проекта и создала кодекс этики ИИ.

    Некоторые участники рынка поддержали кампанию по запрету использования автономного оружия. С другой стороны, применение искусственного интеллекта в военной области только набирает обороты. Более того, другие компании, такие как Microsoft и Amazon, не прочь «помочь» военным в их «проектах».

    Предостережения на 2019 год. Расходы Пентагона на разработку оружия с ИИ только возрастут. И активисты надеются, что после заседаний ООН, запланированных на этот год, появится соглашение о запрете такого вида вооружения.

    Наблюдение

    Технология идентификации лиц с помощью ИИ распространяется странами с удивительной скоростью. Но это путь к антиутопии, уверены общественники, поскольку речь идет о вторжении в личную жизнь людей и возможность поднять дискриминацию на уровень выше.
    Системы слежения, дискриминация, поддельные видео - опасности искусственного интеллекта-2019
    В Китае, например, полиция уже применяет «умную» идентификацию. В то же время Amazon продает такую технологию иммиграционным и правоохранительным органам США.

    Предостережения 2019 год. Распознавания лиц будет работать в веб-камерах и автомобилях. Этой функцией начнут пользоваться как для определения эмоций, так и для идентификации личности. Но есть надежда, что в этом году в этой области начнут наводить порядок.

    Фейк-видео

    Быстрое распространение deepfake-видео в прошлом году продемонстрировало, с какой легкостью ИИ может делать 18+ролики за «участием» звезд. В то же время компания Nvidia познакомила мир с результатами работы своей генеративно-соревновательной сети - она ​​создает фото-реалистичные изображения людей любого пола, расы и возраста.
    Системы слежения, дискриминация, поддельные видео - опасности искусственного интеллекта-2019
    Deepfake-технологии будут развиваться, и люди все чаще станут попадать в эти ловушки. Известно, что DAPRA при Минобороны США начали тестировать новые методы выявления фейк-видео. Но поскольку такие исследования, опять же, опираются на ИИ, это будет игра в кошки-мышки.

    Дискриминация по алгоритму

    В прошлом году выяснилось, что алгоритмы машинного обучения могут быть необъективными. К примеру, они хуже распознавали женщин и мужчин с темным цветом кожи, чем белых. Также оказалось , что виртуальный рекрутер Amazon - сексист, потому, просматривая резюме, он чаще выбирал мужчин, чем женщин. Это стало возможным из-за несбалансированного набор исходных данных.
    Системы слежения, дискриминация, поддельные видео - опасности искусственного интеллекта-2019
    В 2019 будут созданы новые методы выявления и преодоления необъективности. В частности, в 2020 году в Эфиопии предстоит международная конференция по машинному обучению. Потому африканские ученые, работающие над проблемами предвзятого отношения, считают, что могут столкнуться с препятствиями при получении виз в другие страны.

    Системы слежения, дискриминация, поддельные видео - опасности искусственного интеллекта-2019
    Категория: Новости о онлайн-медиа и IT-корпорациях Ваш IP записан: 18.207.134.98 (14.02.19)

    Комментарии 0

    Админ от 14-02-2019, 00:14 написал:

    «попробуйте оставить ваш первый комментарий здесь — это проще, чем кажется!»

    Оставить комментарий?
    Вам понравилось? +15 баллов
    Да 588 нет :(
    Оставить комментарий +25 баллов
    Смотреть видео +20 баллов




    милый котик гиф Вы здесь уже: минут : секунд.

    ×