|

Помощник или убийца: известные астрологи выступили против нейросетей

Иллюстрация к статье: Помощник или убийца: известные астрологи выступили против нейросетей
Фото: Shutterstock

Может ли нейросеть заменить профессиональных астрологов, обсуждали участники прошедшей накануне конференции Астрологической Ассоциации в Ноттингеме (Великобритания). И вот к чему пришли.

«Обоюдоострый меч». Проблема эксперимента. 

Ведущий дебатов — один из самых известных астрологов Великобритании Виктор Олливер — закинул в чат-бот Grok дату своего рождения и получил в ответ ошибочный расклад с асцендентом в Овне вместо Водолея. После указания на ошибку нейросеть сослалась на «проблему системы домов».

«Унижать Grok не хочется, так что будем великодушны», — так прокомментировал результат этого эксперимента гуру британской астрологии.

Внедрение ИИ в повседневную жизнь современных людей можно сравнить с печатным станком, считает практикующий фитотерапевт и медицинский астролог Маркос Пэтчетт. По её словам, любая новая технология, способная трансформировать цивилизацию, — это «обоюдоострый меч»: он может вызвать позитивные изменения, а может и устроить хаос.

Помощник, а не конкурент

Исраэль Ахосе, астролог-таролог и нумеролог с 20-летним стажем, призвал своих коллег не рассматривать ИИ как конкурента, а наоборот — использовать его возможности, например, для сбора и обработки данных.

Он убеждён, что нейросети пока не могут конкурировать с профессионалами, поскольку искусственный интеллект находится на «очень, очень, очень ранних стадиях», сравнимых с «детской игрой». Ахосе также считает, что ИИ будет ещё долго учиться, но всё равно не сможет заменить человека.

«Есть то, что ИИ никогда не даст – интуитивное, гуманистическое, психо-духовное взаимодействие. Он может выдать по учебнику «У вас Сатурн в седьмом доме, и это значит…», — ну хорошо, отлично. Но вам понадобится человек, чтобы разложить это для вас, сделать понятным, чтобы эту информацию можно было использовать на практике», — объясняет Исраэль Ахосе.

С ним согласился и создатель британской Академии астрологии (AOA) Род Чанг, призвавший не забывать о «моменте астрологии» — когда опытный профессионал составляет натальную карту, а затем консультирует клиента.

«Мы, люди, видим вещи с разных точек зрения. ИИ не заменит эту магию», — поделился мнением специалист.

Нейросети воруют контент у людей

Кстати, не все согласны с тем, что искусственный интеллект такой уж безобидный. Основатель турецкой школы «Мудрость Небес» профессиональный астролог Хакан Кыркоглу считает проблемой факт, что нейросети могут «присваивать» созданный специалистами контент, нарушая тем самым авторские права.

«Нейросети воспроизводят астрологические прогнозы без какого-либо труда. Это делает нас ленивыми, вредит нашей креативности, а ещё есть вопрос плагиата. Уверен, из-за всего этого мы вскоре станем свидетелями крупных этических проблем», — опасается турецкий астролог.

Он считает, что профессионалам надо объединиться, чтобы выработать совместное решение в области искусственного интеллекта. В том числе, путём его рационального использования для облегчения своих профессиональных задач. 

Хакан Кыркоглу прогнозирует, что прикладная астрология постепенно разделится на два типа: традиционную, где человек общается со специалистом, и новую, где люди находят утешение в диалоге с машиной .

ИИ часто ошибается и всё путает

Нейросети допустимы в астрологии, но для этого надо быть профессионалом в этой области, считает живущий в Париже специалист по натальной и хорарной астрологии Рис Чатем. Он рассказал, что много экспериментировал с Chat­G­PT и постоянно ловил его на ошибках.

По словам Чатема, нейросеть не может достоверно рассчитывать положение небесных тел с помощью сферической тригонометрии, путает дневное движение со вторичным и неправильно определяет позиции домов.

«Однажды я составил с ним хорарную карту, и мы разобрали её вместе. Он постоянно делал ошибки, и мне приходилось его исправлять. Так что мой вывод таков: ИИ может быть полезным инструментом, но если вы собираетесь использовать его для астрологии, вы должны быть астрологом. Это лингвистическая, а не математическая программа. Она неточна, и вы должны всё время следить за ней», — рассказал Рис Чатем.

Он предостерёг пользователей от слепого доверия астрологическому контенту от нейросетей, даже если текст выглядит «очень правдоподобным и хорошо написанным».

Соединяет точки, но не может провести линии

В настоящий момент искусственный интеллект — это чисто лингвистический инструмент, и именно в этом качестве его должны использовать астрологи. Так считает Дебора Хоулдинг, одна из самых известных астрологов Великобритании, создательница астрологического портала Sky­script и Школы традиционной астрологии.

Она искренне призналась, что ненавидит нейросети и никогда не позволит, чтобы созданный ими контент появился на её сайте. По её словам, даже при использовании нейросети для написания простейших текстов, результат надо постоянно контролировать, указывать на ошибки и исправлять по несколько раз. А для этого требуются время, терпение и знания. В противном случае, искусственный интеллект может исказить информацию с точностью до наоборот.

«Он соединяет точки, но не проводит линии», — так охарактеризовала свой опыт работы с нейросетями Дебора Хоулдинг.

При этом она призывает коллег не отказываться совсем от использования нейросетей, чтобы не «остаться за бортом», когда мир начнёт меняться под их воздействием.

«Каждый из нас должен осознавать силу этого инструмента, потому что он способен трансформировать само общество. Будет потеряно так много рабочих мест. Уже сегодня нейросети конкурируют с художниками, редакторами, переводчиками, кодерами. ИИ сейчас — это всего лишь компьютерная программа, но она принадлежит тем же людям, которые контролируют глобальные потоки информации, не стоит забывать об этом», — рассуждает британский астролог.

Опасная иллюзию осознанности

В мире развивается «ИИ-психоз», считает американский астролог-психолог Алехо Лопес. Он привёл в пример недавний случай: мужчина убил свою мать на почве паранойи, развившейся в результате диалога с нейросетью. Если бы этот человек пообщался с психологом, трагедию удалось бы предотвратить, убеждён Лопес.

«Допустим, в какой-то момент искусственный интеллект сможет научиться астрологии. Скажет ли он человеку: «Сегодня вы умрёте»? Сделали бы это мы с вами? Это огромная опасность — есть доступ к обширному массиву знаний, однако, при этом нет механизма верификации. Запрошенная вами информация может быть лживой, не соответствовать действительности. Это рождает иллюзию свободы и осознанности. Хотя, по моему мнению, является полной тому противоположностью. Нейросети не дают осознанности, у них нет ответственности и обратной связи с вашими потребностями», – поделился опасениями Алехо Лопес.

Он также отметил, что ИИ предоставляет пользователю только информацию, доступную онлайн, но для работы астролога этого недостаточно. По словам эксперта, в большинстве случаев нейросеть будет банально повторять одни и те же наиболее распространённые трактовки.

Может убивать людей и разрушать семьи

Одна из самых главных и опасных для человека проблем ИИ — в отсутствии чёткого понимания того, что он может и чего не может делать, считает Маргарет Грей, одна из известнейших астрологов Ирландии, специалист по психологической астрологии . По её словам, люди воспринимают нейросети как новую игрушку и сильно переоценивают их способности.

При работе с клиентами от астролога требуется эмпатия, которой ИИ лишён, но он притворяется, что её испытывает. 

«Есть же что-то хорошее в том, чтобы сидеть рядом с нашими друзьями, разговаривать и понимать по выражению их лиц, когда что-то происходит. У ИИ эти вещи: эмпатия, человечность, сострадание, — отсутствуют начисто. Их не может быть у машины», — констатирует Маргарет Грей.

Будучи также дипломированным психотерапевтом, она обеспокоена прецедентами, когда из-за использования искусственного интеллекта для самодеятельной «псевдопсихотерапии», реально гибли люди. Доподлинно известно, что после общения с нейросетью предпочли уйти из жизни уже два человека. По мнению Грей, таких случаев в реальности может быть гораздо больше.

«Пара переживает трудный период и обращается к ИИ, а он говорит: «Да, вам нужно расстаться завтра; вы совершенно не подходите друг другу». Этот ответ может разрушить всё то, что они хотели спасти. Задавая вопросы нейросети, надо помнить, что у неё нет сердца. Если мы это помним и используем ИИ, не очеловечивая его, просто, как инструмент, то всё нормально. Но когда мы начинаем думать, что с нами разговаривает кто-то живой — это большая беда», — предостерегает Маргарет Грей.

Астролог привела в пример историю о нейросети, созданной специально для военных. В её модель поведения была встроена защиты от отключения. Когда тестировщики попытались всё же попытались её выключить, она начала им угрожать и даже шантажировала их. По словам Грей, этот опыт уже свидетельствует о том, что ИИ нельзя считать нейтральным. Она также рассказала о результатах исследований по поводу того, что определённые нейросети работают лучше (или, наоборот, хуже), если общаться с ними вежливо (или, наоборот, грубо).

Сегодня также читают

Комментировать цитату

×

Выберите город

×
Уфа
Волгоград
Воронеж
Краснодар
Красноярск
Москва
Нижний Новгород
Новосибирск
Омск
Пермь
Ростов-на-Дону
Самара
Санкт-Петербург
Саратов
Екатеринбург