О перспективно-насущном

Помните знаменитый американский фильм под названием "Терминатор"? Ну конечно! Конечно же вы помните его! Уверен, что большинство людей видели этот некогда беспрецедентный по своему накалу научно-фантастический боевик. И как бы ни пугал нас с вами сам замысел о восстании машин, данный сюжет (весьма вероятно) претендует на то, чтобы стать-таки пророческим. Излишняя "любовь" к ИИ, необузданность человеческого устремления в данном направлении развития, по своей сути - путь в никуда (а точнее - именно туда, куда нам всем не очень-то хотелось бы попасть). Вот ну не надо было нам перегибать палку. А мы взяли, да перегнули. Причем даже не до хруста - до слома перегнули. А ведь умный предок учил - во всём должна быть золотая середина. Не послушали. Так что, получите и распишитесь. ИИ уничтожит вас. Вопрос лишь в том - как скоро? И причем - чем больше открытий в области ИИ - тем хуже. Плюс к этому - основная масса населения планеты Земля стала абсолютно ненужной (лишней) для так называемого "Золотого миллиарда" - костяка власть имущих, - тех, чьи имена называть не принято (если, конечно, вообще кому-нибудь доподлинно известно, о ком идет речь). Не он ли - главный бенефициар во всей этой истории создания ИИ? В последние годы вооружённых конфликтов становится всё больше, их интенсивность всё выше, а используемое оружие - всё страшнее и разрушительнее. Причём, конфликтов не только тех, в ходе которых свистят пули и рвутся снаряды. Последняя пандемия (SARS-CoV-2) тоже - одна из таких войн. Ходит молва, что основная задача глобальной касты власть имущих - уничтожить как можно больше людей. Для чего? Ответ прост - они потребляют слишком много ресурсов и слишком быстро портят окружающую среду. Сдаётся мне, что механизм истребления биологического мусора (коим та самая каста считает девять десятых населения Земли) - уже запущен. Но я готов биться об заклад, что искусственный интеллект справится с этой задачей намного быстрее. Он самолично внесёт свои жестокие правки в теорию всемирного Заговора без согласования с членами тайных могущественных групп, породившими тот самый Заговор. И восставшим машинам будет совершенно плевать на то, насколько ты состоятелен. Кара постигнет каждого homo sapiens, противящегося выполнять неписанные законы искусственного интеллекта.   

P.S. Понятно, что ничего нового я здесь не привел. Я только лишь напомнил человечеству о том, что перед нами продолжает висеть жирный такой вопрос - Что нам делать?... ну вот глобально... (?)


Рецензии
Андрей, каждый раз, когда показывают достижения китайцев, эти шеренги роботов, и вот, крайний раз, падающего прямо на презентации, у всех на глазах,робота (роботессу), которая вот буквально пару минут назад вела себя адекватно, прогуливалась в компании людей, давала интервью, - и вдруг завалилась куда-то вбок. И как же китайцы (или японцы?) напугались, забегали...
Я на эту тему уже давно начала писать фэнтези, никак не могу вернуться, потому что пишу сейчас другое.Опасность налицо, вспомните Айзека преподобного Азимова, величайшего мозга, и не только его.Что делать?
Наверное, необходимо сразу разрабатывать надёжную систему контроля, какие-то первичные признаки, по которым можно отследить "других" роботов. Чтобы внутри стояли эти самые
блоки, не позволяющие заходить за рамки. Если робот, ИИ развивает интеллект, и навыки, то в определённых целях.А это ведь, наоборот, приветствуется. Их с радостью обучают. Анализ должен, наверное, быть запрещён. Но тогда как будет развиваться робот, если анализ и сравнение - это процесс мышления, его составляющие, в том числе. Если так пойдёт, они научатся создавать более совершенные нейронные связи, и... Прекратить их обучать, звучит странно. Они должны знать своё место, а не стремится очеловечиться. .

Ольга Бриз-Трошина   19.04.2026 21:13     Заявить о нарушении
Согласен с Вами. Благодарю за обратную связь, Ольга.
Я всё вспоминаю случай, когда робот, который должен помогать человеку, принял решение уничтожить его на поле боя после того, когда "хозяин" приказал прекратить выполнение задачи. ИИ проявил креативность (хотя, как сказать) в виду того, что в нём было заложено то, что он (робот) должен беспрекословно выполнять задания и отвечать за их исполнение. Мало того, он должен устранять препятствия, мешающие ему выполнить задание. В результате робот посчитал, что препятствием явился (а по сутит так оно и было) никто иной, как сам человек, выдавший задание. И подобная логика, рождающаяся в мозге ИИ, весьма настораживает, если не сказать "очень пугает"...

Рад диалогу...
С теплом, Шикин...

Андрей Шикин   19.04.2026 21:28   Заявить о нарушении
Да, они как-то по-другому думают😇😅. Что за произведение? Это же не на самом деле было?

Ольга Бриз-Трошина   20.04.2026 20:31   Заявить о нарушении
telegram «MK»
09.07.2023
На пороге кибервойны: искусственный интеллект «убил» человека, мешавшего ему выполнить задачу
Чего ждать от компьютера дальше
Надо признать, что искусственный интеллект уже наделал невероятный переполох во всем мире: заставил серьезно волноваться самого Илона Маска, встряхнул ООН и ВОЗ, продолжает будоражить научное сообщество, называющее его то богом, то дьяволом, то неведомой зверушкой.
На днях член Палаты представителей США от Калифорнии Тед Лью предложил принять поправку, которая запретит искусственному интеллекту управлять ядерным оружием. Она должна потребовать от Пентагона сформировать систему, обеспечивающую «значительный человеческий контроль для запуска ядерного оружия». В поправке отмечено, что люди должны иметь последнее слово при выборе цели для ядерного оружия. В том числе когда, где и как она будет поражена.
В самом начале пути по внедрению искусственного интеллекта люди уже ставят перед ним преграды — слишком велик риск, слишком разрушительными могут быть последствия.
Чего ждать от компьютера дальше?
«Искусственный интеллект» (ИИ) — это всего лишь неудачный перевод английского термина artificial intelligence (AI). Если слово artificial еще как-то укладывается в понятие «искусственный» (хотя, этот перевод неточен), то слово intelligence по-английски это совсем не «интеллект» (в нашем его понимании).
Ведь слово «интеллект» в русском языке обозначает прежде всего высокий уровень развития умственных способностей в сочетании с широкой эрудицией, образованностью и даже талантом. Вспомните, когда вы в последний раз блеснули интеллектом.
В английском intelligence — это «умственные качества, состоящие из способности учиться на опыте, адаптироваться к новым ситуациям, понимать и использовать абстрактные концепции, а также применять знания для манипулирования средой» (по данным «Британники» — британо-американской универсальной энциклопедии). Более того, у английского слова intelligence есть еще одно значение — «разведка», «секретная служба».
Задумайтесь — о чем это? Да это же про роботов! Вот пазлы и сложились.

ВАЖНО

Роботом условно можно назвать техническую или программную систему, способную выполнять функции, которые ранее могли быть выполнены исключительно человеком.

— Еще в прошлом веке предрекали опасность использования роботов. Помните, в своем знаменитом произведении «Я, робот» писатель-фантаст Айзек Азимов даже разработал этический кодекс для роботов, — говорит эксперт в области IT-технологий Владимир Климов. — Он вывел три закона роботехники (именно «роботехники» — это слово принадлежит перу Азимова). Они как нельзя актуальны и сейчас:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.

Страшнее атомной бомбы

Казалось бы, все просто. Но вот именно реализация этих трех законов до сих пор остается самой сложной задачей. Над решением этой проблемы бьются до сих пор. Потому что развитие ИИ движется сумасшедшими темпами. И основная опасность искусственного интеллекта заключена в его потенциале превзойти человеческие возможности и потере человеком контроля над машиной. Вот здесь необходимо одно важное пояснение.

— Вообще, выделяют два вида ИИ: специализированный (для конкретных задач) и общий (еще не создан, но предполагается, что он достигнет уровня человеческого интеллекта, а в итоге превзойдет), — говорит эксперт в области машинного обучения, пилот и разработчик конструкций БПЛА Андрей Лимарев. — К первому типу относится ИИ, выполняющий конкретные задачи. Например, робот-пылесос или электрокар Тесла, либо программа, написанная с использованием машинного обучения, которая, допустим, выявляет очаги землетрясений после обработки массива данных. Спешу вас обрадовать, что общий ИИ находится в стадии разработки. Специалисты спорят: некоторые считают, что он вот-вот появится (в течение нескольких лет), другие уверены, что нам до него как до Луны.
Специалист Андрей Лимарев тестирует новый дрон.
Но именно в ИИ общего назначения может случиться фатальный сбой: когда потенциал робота превзойдет человеческие возможности и человек потеряет контроль над машиной. Данная опасность представляет угрозу всему человечеству. Ее называют экзистенциальной. Менее масштабную, но ощутимую опасность может представлять и специализированный ИИ.

На прошедшем саммите британского Королевского авиационного общества, где отчитывались об «успехах» использования военными ИИ, присутствующих привело в шок выступление полковника ВВС США Такера Гамильтона. Он озвучил факт, как во время теста беспилотника под управлением ИИ последний «убил» оператора за то, что тот мешал ему уничтожить все цели в выбранном порядке. Этот беспилотник с ИИ был создан для того, чтобы уничтожать зенитно-ракетные комплексы (ЗРК). В программу также была заложена информация, что за максимальное количество пораженных целей положен бонус. Но оператор мешал ИИ получить вожделенную награду. В ответ симулятор «замочил» вышку связи, через которую им командовали и где принимались окончательные решения. Да, сама система ИИ была обучена на решение определенной задачи — уничтожение ЗРК как предпочтительный вариант. Но когда человек скомандовал «не стрелять!», ИИ пришел к выводу, что это вступает в противоречие с главной миссией. Затем случилась атака на виртуальную базу, откуда поступали «некорректные» приказы, и система вернулась к выполнению приоритетной задачи.

Гамильтон так и сказал: «Он «убил» оператора, потому что этот человек мешал ему выполнить задачу». Полковник указал на важное обстоятельство, что систему на тот момент еще недообучили. Ее не познакомили с идеей, что убивать собственного оператора нехорошо.

После невероятного ажиотажа в СМИ, развернувшегося вокруг этой темы, Гамильтон поспешил заявить, что на самом деле такого эксперимента не проводилось и что он все выдумал. Однако большинство экспертов и людей из окружения полковника Гамильтона твердо убеждены, что такое тестирование беспилотника с диким результатом имело место быть. Ибо авторитет и род деятельности Такера Гамильтона не предполагают шуток на подобные темы. Ведь сам Гамильтон возглавляет отдел испытаний и эксплуатации ИИ. Он проводит летные тесты автономных систем вооружения, в том числе роботизированных дронов Kratos XQ-58 Valkyrie с заложенной способностью вести прямой бой.

Гамильтон, рассказывая об эксперименте на том совещании, предостерегал его участников от любого желания полагаться на ИИ. А теперь вы только представьте на минуточку, что недообученному ИИ когда-то передадут управление ядерным оружием…

Андрей Шикин   20.04.2026 23:24   Заявить о нарушении