» » Люди не доверяют ИИ. Как это исправить?

Люди не доверяют ИИ. Как это исправить?

Люди не доверяют ИИ. Как это исправить?
Ненастоящий интеллект уже может предсказывать предбудущее. Полиция использует его для составления карты, отражающей, когда и где может приключиться злодеяние. Лекари используют его для прогнозирования, когда у пациента может случиться инсульт или душевный пароксизм. Ученые даже пробуют дать ИИ воображение, чтобы он мог предвидеть неожиданные события.

Многие решения в нашей жизни требуют хороших прогнозов, и агенты ИИ почитай век важнее справляются с ними, чем люд. Тем не менее для всех этих технологических достижений нам по-прежнему не хватает уверенности в прогнозах, какие дает ненастоящий интеллект. Люд не обвыкли надеяться на ИИ и предпочитают доверять экспертам в мурле людей, даже если эти эксперты заблуждаются.
Если мы алкаем, чтобы ненастоящий интеллект нес пользу людам, нам надобно научиться доверять ему. Для этого нам надобно понять, почему люд настолько напористо отнекиваются доверять ИИ.

Доверьтесь доктору Роботу


Попытка IBM представить суперкомпьютерную программу врачам-онкологам(Watson for Oncology)стала провальной. ИИ обещался предоставить высококачественные рекомендации по лечению 12 обликов рака, на долю которых доводится 80% случаев в мире. На сегодняшний день более 14 000 пациентов получили рекомендации на основании его расчетов.
Однако когда лекари впервинку столкнулись с Watson, они оказались в будет сложной ситуации. С одной стороны, если Watson вручал предписания сравнительно лечения, сходящиеся с их собственными воззрениями, медики не видали большенный ценности в рекомендациях ИИ. Суперкомпьютер попросту повествовал им то, что они уже осведомили, и эти рекомендации не меняли фактического лечения. Это, вероятно, вручало докторам безмятежность и уверенность в собственных решениях. Однако IBM еще не доказала, что Watson взаправду увеличивает процент выживаемости с раком.
Люди не доверяют ИИ. Как это исправить?
С иной стороны, если Watson вручал рекомендации, какие расходились с воззрением экспертов, лекари заключали, что Watson некомпетентен. И машина не могла объяснить, почему ее лечение надлежит сработать, потому что ее алгоритмы машинного обучения были излишне сложными, чтобы их могли понять люд. Соответственно, это приводило к еще большему недоверию, и многие лекари попросту игнорировали рекомендации ИИ, полагаясь на собственный опыт.
В итоге главнейший медицинский партнер IBM Watson — MD Anderson Cancer Center — недавно доложил об отказе от программы. Датская больница также доложила, что отнекивается от программы после того, будто вскрыла, что врачи-онкологи не согласны с Watson в двух случаях из трех.
Проблема онкологического Watson была в том, что лекари ему попросту не вверяли. Доверие людей дробно зависит от нашего понимания того, будто думают иные люд, и собственного эксперимента, укрепляющего уверенность в их воззрении. Это создает психологическое ощущение безопасности. ИИ же, с иной стороны, сравнительно новоиспеченная и маловразумительная для людей штука. Он принимает решения, основываясь на сложной системе разбора для выявления потенциальных скрытых закономерностей и слабых сигналов, вытекающих из больших объемов данных.
Даже если его можно объяснить техническим языком, процесс принятия решений ИИ, будто правило, излишне сложный, чтобы его могли понять большинство людей. Взаимодействие с чем-то, чего мы не соображаем, может вызвать тревогу и создать ощущение утраты контроля. Многие люд попросту не понимают, будто и с чем работает ИИ, потому что это происходит где-то за ширмой, в фоновом порядке.
По этой же причине они пронзительнее подмечают случаи, когда ИИ заблуждается: припомните алгоритм Google, какой классифицирует цветных людей будто горилл; чатбот Microsoft, какой стал нацистом менее чем за день; автомобиль Tesla, вкалывающий в порядке автопилота, в итоге какого приключился бедный случай со летальным исходом. Эти злополучные примеры получили диспропорционально великое внимание оружий массовой информации, подчеркивающих повестку того, что мы не можем надеяться на технологии. Машинное обучение не изображает на 100% верным, частично потому что его проектируют люд.

Раскол общества?


Ощущения, какие вызывает ненастоящий интеллект, уходят мертво в природу человечьего существа. Недавно ученые проложили эксперимент, в ходе какого опросили людей, смотревших фильмы про ненастоящий интеллект(фантастические), на тему автоматизации в повседневной жизни. Выяснилось, что самосильно от того, был ИИ в кинофильме показан в позитивном или негативном ключе, безыскусный просмотр кинематографического зрелища нашего технологического предбудущего поляризует взаимоотношения участников. Оптимисты становятся еще более оптимистичными, а скептики закрываются еще больше.
Это говорит о том, что люд лицеприятно глядят к ИИ, отталкиваясь от собственных рассуждений, такова мертво укоренившаяся тенденция лицеприятного подтверждения: тенденция искать или интерпретировать информацию таковским образом, чтобы подтвердить заблаговременно бывшие концепции. Поскольку ИИ все гуще мелькает в медиа, это может способствовать глубокому разделению общества, расколу между теми, кто употребляет ИИ, и теми, кто его отвергает. Доминирующая группа людей может получить капитальное преимущество или гандикап.

Три выхода из кризиса доверия ИИ


К счастью, у нас есть мысли на тему того, будто свериться с доверием к ИИ. Одно всего наличность эксперимента работы с ИИ может внушительно улучшить касательство людей к этой технологии. Есть также доказательства, указывающие на то, что чем гуще вы используете найденные технологии(например, Интернет), тем вяще вы им вверяете.
Иное решение может заключаться в том, чтобы открыть «черный ящик» алгоритмов машинного обучения и сделать их работу более сквозистой. Таковские братии, будто Google, Airbnb и Twitter, уже публикуют отчеты прозрачности о государственных запросах и раскрытии информации. Подобная практика в системах ИИ поможет людам получить надобное понимание того, будто алгоритмы принимают решения.
Изыскания показывают, что вовлечение людей в процесс принятия решений ИИ также повысит степень доверия и позволит ИИ заниматься на человечьем эксперименте. Изыскание показало, что люд, каким вручали возможность слегка модифицировать алгоритм, ощущали большую удовлетворенность от итогов его работы, по всей видимости, из-за ощущения превосходства и возможности влиять на грядущий исход.
Нам необязательно понимать сложную внутреннюю работу систем ИИ, однако если предоставить людам алкая бы капельку информации и контроля над тем, будто эти системы реализуются, у них возникнет вяще доверия и вожделения принять ИИ в повседневную жизнь.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.

комментариев

Свежие новости

02:30
Находящиеся под домашним арестом лица смогут проголосовать на предстоящих выборах
02:30
Японцам предоставят возможность взглянуть на Курилы со смотровых башен
02:30
СМИ: ради защиты демократии Facebook увеличит штат сотрудников
02:00
«Уралвагонзавод» раскрыл детали контракта с Минобороны на 24 млрд рублей
02:00
Грудинин пожаловался в Центризбирком на предвзятость телеканалов
01:32
Олимпиада-2018. 20 февраля. Все медали дня
01:32
Де Врей покинет Лацио по окончании сезона
01:32
Чемпионат Германии. РБ Лейпциг уступил Айнтрахту
01:32
Форвард Галатасарая Гомис потерял сознание по ходу матча с Касымпашой, но отыграл всю встречу
01:32
Кубок Англии. 1/8 финала. Ман Сити проиграл Уигану
01:32
Клуб из 3-го дивизиона выбил Сити из Кубка Англии
01:31
Уиган сенсационно выбил Сити из Кубка Англии
01:31
Матс Хуммельс: Главное — как можно раньше убить интригу в противостоянии с Бешикташем
01:31
Форвард Уигана Григг: Пока Кубок Англии складывается для меня просто отлично
01:31
Болельщики Сити сломали рекламные щиты на стадионе Уигана и выкинули их на поле
01:00
Как низкая температура влияет на скорость зарядки Google Pixel 2 XL?
01:00
LG опоздает с релизом флагмана, но ненадолго
01:00
Какие приложения для Android потребляют больше всего энергии
00:30
ИИ-система Alibaba поможет фермерам следить за свиньями
23:30
На МКАД неизвестный выстрелил в мужчину из травматики
23:01
Вымершие профессии - сотрудница видеопроката: «Навсегда запомнила продажу «Брата»
23:01
Ишемия и глаукома: какие недуги помогут Шакро избежать сурового наказания
23:00
Денег дали, счастья нет: ученые решат, что делать с зарплатой
23:00
Аршавин прокомментировал уголовное дело против жены Алисы
23:00
Сотрудников транспортной безопасности решили вооружить
22:31
Calciomercato: Ляйич может перейти в Спартак за 7-8 млн евро
22:31
Клопп - У Ливерпуля сильнейший состав, что я только тренировал
22:31
НБА. Мумбаи и Дубай могут принять предсезонные матчи
22:31
Иван Ракитич: Мы постараемся как можно лучше сыграть завтра — забить голы и победить Челси
22:31
Маннарино назвал место проведения нью-йоркского турнира глушью. Директор ответил, что он может не возвращаться
22:30
Эрнесто Вальверде: Завтра увидим, будет ли Челси верен своему стилю
22:30
Олимпиада-2018. Пападакис и Сизерон, Виртью и Моир, Боброва и Соловьев представят произвольные танцы
22:30
Айнтрахт Ф - РБ Лейпциг. Чемпионат Германии по футболу. 23-й тур. Обзор матча онлайн, стартовые составы, результат и статистика. 19.02.2018
22:30
НХЛ. "Он был хорошим игроком". Комментатор NBC раскритиковал Войнова
22:30
Суд Барселоны не стал заводить дело на игроков Вест Бромвича, в шутку угнавших такси
22:01
Прокуратура Испании запросила пять с половиной лет заключения для депутата Госдумы
21:30
#новости высоких технологий | Выпуск 231
21:30
Илон Маск построит станцию Hyperloop в Вашингтоне
21:30
Qtum Foundation запустит мини-фермы для майнинга в космос
21:02
В Свердловской области чаще всего угоняют автомобили Toyota, Kia, Hyundai и Mazda
Больше новостей