Сегодня компании, редакции и политики поспешно пытаются разработать стандарты, чтобы сохранить доверие в мире, где информация, созданная ИИ, будет все чаще появляться в интернете. Многие создатели контента уже используют чат-ботов для выпусков новостей, некоторые из которых содержат потенциально опасную ложь.

Внезапные проблемы, с которыми сегодня сталкиваются генераторы новостей, являются результатом постепенного наращивания алгоритмов рекомендаций и других продуктов ИИ, которые Арджун Нараян помогал контролировать более двадцати лет — сначала в ByteDance и Google, а сегодня — в SmartNews, приложения для поиска новостей, доступного в более чем 150 странах.

Редакции должны разработать стандарты

Сегодня сложно определить, какие истории полностью написаны ИИ, а какие нет. Это различие стирается. Однако в том, что ИИ создает статьи, нет ничего плохого, как считает Арджун Нараян. Правда, по его мнению, пользователь должен знать, что этот контент был написан с помощью чат-бота. Это можно указывать в подписи или в самой информации, что контент был частично или полностью сгенерирован ИИ.

В редакциях на этот счет еще не разработали никаких стандартов.

Нараян также отмечает, что редакциям нужны команды фактчекинга, которые будут корректировать все, что выходит из системы искусственного интеллекта, так как ИИ часто допускает фактические неточности или придумывает то, чего нет. По словам Нараяна, логика принятия решений ИИ по-прежнему остается «черным ящиком». Непонятно, когда он напишет очередной фейк или выдаст дезинформацию.

Бывший руководитель отдела доверия в Google также обращает внимание, что если человек перерабатывает контент, созданный ИИ, то он все равно должен считаться автором.

«Думайте об этом как о конвейере. Есть сборочная линия Toyota, где роботы собирают автомобили. Если конечный продукт имеет неисправную подушку безопасности или неисправное рулевое колесо, Toyota по-прежнему берет на себя ответственность за это, независимо от того, что эту подушку безопасности изготовил робот. Когда дело доходит до конечного результата, ответственность лежит на новостном издании».

Люди нужны и будут нужны

Есть вероятность, что технологические компании, которые быстро уволили людей из-за стремительного развития искусственного интеллекта, поспешили, высказывает мнение Арджун Нараян. Особенно в сферах HR, доверия и безопасности.

Что касается медиа, по его словам, здесь еще долгое время будет нужна работа людей, которые понимают контекст. Информацию нужно проверять на достоверность, политический уклон, на соответствие редакционным стандартам и ценностям. Это может делать только человек.

Вызов для политиков и гражданского общества

Арджун Нараян обращает внимание, что общество сейчас не подготовлено к происходящим переменам. Много людей потеряли работу, и еще многие потеряют, однако органы, регулирующие эти процессы, не были готовы к таким быстрым сокращениям и не знают, чем занять людей, оставшихся без работы.

По мнению Нараяна, гражданскому обществу также стоит задуматься над этими вопросами. Оно часто способно отреагировать даже быстрее, чем политики.

«Я настроен оптимистично, но позвольте мне сказать вам вот что. У меня есть семилетняя дочь, и я часто спрашиваю себя, какую работу она будет выполнять. Через 20 лет рабочие места, какими мы их знаем сегодня, коренным образом изменятся. Мы заходим на неизвестную территорию»,

— говорит бывший руководитель отдела доверия в Google.

Еще одна важная тема для политиков — продумать, в каких секторах ИИ следует использовать, а какие сферы должны остаться для него недосягаемыми.

Так, например, когда-то было принято решение не клонировать человеческие органы — ведь это может вызвать массу этических вопросов. Однако ИИ можно было бы приспособить к тому, чтобы заниматься исследованием различных уже долгое время неизлечимых болезней, таких как болезни Паркинсона и Альцгеймера, — и помогать человеческой мысли продвинуться в этом направлении.

Где в этих вопросах нужно проводить границы — это, по мнению Нараяна, тоже вопрос для правительств.

Читайте еще:

Встань и иди. Компания Илона Маска начнет испытания мозговых имплантов на людях

ChatGPT, Bing и Алиса: какая из нейросетей лучше владеет белорусским языком и понимает наш контекст? Тестим

ЕС защитит граждан от искусственного интеллекта законом: никаких «социальных рейтингов», распознавание лиц только по решению суда

Клас
3
Панылы сорам
1
Ха-ха
0
Ого
1
Сумна
0
Абуральна
1