Искусственный мозг?!

tomcat

far away...
Команда форума
Мульти модератор
Знаете, в чем ИИ уступает 'естественному' интеллекту?
На данный момент точно в одном - в отсутствии интуиции. То что свойственно именно человеку (а возможно и другим биологическим видам жизни) и никак до сих пор научно не доказано.
Всё остальное - недостаток опыта ИИ. То есть отсутствие данных в его обучающей программе.
 

tomcat

far away...
Команда форума
Мульти модератор
ПС
Беседка - Если завтра война...
Генерал Пол ван Рипер, 'самолеты взлетали в режиме ПОЛНОГО РАДИОМОЛЧАНИЯ'
ППС
Еще Станислав Лем в повести 'Фиаско' описал естественное для войн будущего ограничение: ВСЕ радиомощности ВСЕХ стран ПОСТОЯННО работают как постановщики помех, что делает бесполезным любое радиоуправляемое оружие, в том числе и сетевой ИИ
А это наверно можно отнести ко второму превосходству "живого" разума. Импровизация. Впрочем, в отличии от интуиции, это можно компенсировать громадным опытом - набором данных. Хотя и интуицию можно частично смоделировать. Но не до конца.
 

sami

Местный
На данный момент точно в одном - в отсутствии интуиции. То что свойственно именно человеку (а возможно и другим биологическим видам жизни) и никак до сих пор научно не доказано.
Всё остальное - недостаток опыта ИИ. То есть отсутствие данных в его обучающей программе.
А это наверно можно отнести ко второму превосходству "живого" разума. Импровизация. Впрочем, в отличии от интуиции, это можно компенсировать громадным опытом - набором данных. Хотя и интуицию можно частично смоделировать. Но не до конца.
Выращивание искусственного интеллекта на примере простой игры

Интуиция и импровизация в одном операторе. Данных в обучающей программе нет никаких. Есть только критерий оценки.
 

ПосетительМузея

Чиффа на прогулке
На примере игры в крестики-нолики :Wavespin: Какой простор и для интуиции, и для импровизации.

А это наверно можно отнести ко второму превосходству "живого" разума. Импровизация. Впрочем, в отличии от интуиции, это можно компенсировать громадным опытом - набором данных. Хотя и интуицию можно частично смоделировать. Но не до конца.
1) ну да, импровизация - по заранее доведенному до рядовых исполнителей приказу - атаковать в режиме радиомолчания. Между прочим, давным-давно первый вьетнамский космонавт (то есть тогда он ес-сно не был космонавтом) таким же способом сбил Б-52 - выключил ВСЮ электронику Миг-21 и стрелял ставшими неуправляемыми ракетами в упор. Причем сделал это не по какому-то наитию, а потому что у системы наведения ракет не было никакого шанса против РЭБ 52-го.
2) интуицию? Смоделировать? Возможно, но первыми об этом узнают не пилоты, а моряки - операторы корабельных систем ПВО. Даже хуже - киберпилота первым делом китайцы поставят на противокорабельные баллистические ракеты, и будет американским авианосцам счастье.
Великолепный рассказ об ИИ 'Слабое звено' написал Дивов. ИИ российского новейшего штурмовика 'Ворон' 'подвис' на учениях всего-навсего от команды генерала-посредника: 'а пусть все будет как в настоящем бою и авиация синих отбомбится по СВОИМ позициям'
 

ask

Местный
На данный момент точно в одном - в отсутствии интуиции. То что свойственно именно человеку (а возможно и другим биологическим видам жизни) и никак до сих пор научно не доказано.
Всё остальное - недостаток опыта ИИ. То есть отсутствие данных в его обучающей программе.
Насчет интуиции - спорный вопрос. В интернете есть сообщество, где кучкуются любители игры ГО.Насколько я понимаю, играть в ГО так, как играют в шахматы компьютеры - невозможно, так как очень велика роль интуиции( по крайней мере, так утверждают мастера) Так вот в это сообщество запустили нейросистему под видом рядового пользователя. Нейросистема знала некие основы и вначале проигрывала. Но с ростом опыта ее уровень начал расти и в определенный момент стала регулярно обыгрывать чемпиона мира. Машина самообучалась и использовала интуицию, без которой в этой игре трудно победить.
Вот действительно слабое место нейросистем на сегодняшний день - это то, что они реально качественно могут решать только одну задачу. Под неё и формируется в процессе самообучения архитектура самой нейросистемы. Как только ставится задача сориентироваться на решение двух проблем - скорость и эффективность моментально падают в десятки раз. Хотя последнее время и появились какие то варианты.
 

ask

Местный
По поводу всего сказанного две мысли появилось. Первая - мне кажется, что если не рассматривать ИИ, то можно заметить, что нас все больше и больше окружает людей, которые стремятся к познанию окружающего мира не потому, что это для них имеет прикладное значение (им достаточно еды, тепла для поддержания своей жизни и так), а просто это стремление у них находится уже чуть ли не на генетическом уровнем. То есть познание становится не средством, а целью. То есть вслед за человеком разумным начинает формироваться новый тип. И возможно именно этот тип окажется способен без особых проблем интегрироваться с ИИ, создав в конечном итоге новую мыслящую формацию.
Вторая мысль заключается в том, что все мы когда то рождаемся и когда то умираем, оставляя после себя наших детей, которых мы сами и воспитывали. Кто то при этом воспитывает хороших детей, а кто то мерзавцев. Если подходить к ИИ как к существу, которое ты сам создал и воспитал - вся проблема будет только в том, как ты его воспитал. Все остальное - аналог цикла жизнь - смерть.
 

ПосетительМузея

Чиффа на прогулке
1) это не новый, а очень старый тип людей. Тот тип, которому когда-то надоело сидеть на деревьях :Juggle:
2) что такое 'познание'? Окружающий мир бесконечно разнообразен, и идти (в познании) можно в любую сторону. Например, заменить двоичную логику 'да-нет' какой-нибудь пятиричной, соответственно, изменив до неузнаваемости как компы, так и создаваемый на их основе ИИ
3)
И возможно именно этот тип окажется способен без особых проблем интегрироваться с ИИ, создав в конечном итоге новую мыслящую формацию.
А остальным? По деревням картошку сажать?
 

JustJ

Уже освоился
ИИ понемножку продвигается, голосовые помощники, нейронные сети и прочее
Но я не думаю что в ближайших 100 лет заменят людей, а людям то что делать? Разве что этих роботов...

Ну зачем же так пессимистично смотреть на перспективу занятости людей неквалифицированным трудом ? Роботизированная фабрика вполне способна под управлением ИИ делать новых роботов, включая новые разработки.
 

tomcat

far away...
Команда форума
Мульти модератор
ВВС США впервые доверили ИИ самостоятельное управление боевыми системами военного самолёта

Военные США сделали ещё один шаг в сторону гипотетического «Скайнета». Во вторник во время имитации ракетного удара по базе ВВС в Калифорнии ИИ на борту самолёта-разведчика U-2 занимался поиском и идентификацией вражеских ракетных пусковых установок. Впервые в истории алгоритм самостоятельно управлял боевыми системами на борту военного самолёта, играя роль штурмана и разведчика.

Самолёте-разведчике U-2 Dragon

Самолёте-разведчике U-2 Dragon Lady​
Разработка алгоритма для выявления пусковых ракетных установок на поле боя начата военными США три года назад. За основу была взята программа µZero с открытым кодом. Это программа для игры в шахматы и другие логические игры без заранее установленных правил, но с изучением примеров игровых ситуаций.
В ходе разработки и на основе обучения алгоритма на базе данных из свыше миллиона примеров обнаружения ракетных установок радаром, был создан алгоритм, получивший позывной ARTUµ. В самолёте-разведчике U-2 Dragon Lady ИИ ARTUµ занял место второго пилота со своими собственными задачами. Пока живой пилот следил за окружающей обстановкой и управлял самолётом, ИИ использовал радар для поиска целей и давал подсказки о смене направления полёта. В противном случае пилот должен был бы самостоятельно обрабатывать данные показаний радара на первичном уровне, что только добавило бы ему работы, а в боевой обстановке лишних времени и внимания не бывает.

«Взаимодействие с проверенным ИИ во всех аспектах конфликта, — говорят военные, — и даже временное возложение на него ответственности, может изменить шансы в нашу пользу». «Несмотря на отсутствие всех этих характерных звуков и писков, — продолжают разработчики, сравнивая свой алгоритм с работой R2-D2 на борту X-Wing из «Звёздных войн», — ARTUµ превзошел своего тёзку по фильму в одном отличительном признаке: это был командир миссии, решающий орган в команде человек-машина. А, учитывая высокие ставки глобального ИИ, превосходство над научной фантастикой должно стать нашей военной нормой».
 

tomcat

far away...
Команда форума
Мульти модератор
Интересные факты про машинное обучение
Волк, предпочитающий самоубийство съедению овцы

image

В 2019 году два студента китайского университета выполняли проект с ИИ, представлявший собой простую игру «волки против овец». Старший участник команды, учащийся в Китае гражданин Таиланда, после выпуска из университета переехал работать в Австралию, поэтому проект оказался заброшенным.

Младший участник команды начал преподавать. В марте 2021 года он рассказал в переписке одному своему студенту о результатах эксперимента. Студента так развеселила эта история, что он сделал скриншот текста и разослал его своим друзьям.

Эти скриншоты стали виральными в китайских соцсетях и породили небольшую сенсацию.

Лучше смерть от камня, чем поимка овцы

Игра была простой. Компьютер случайным образом располагал на игровом поле двух волков и шесть овец. Волкам нужно было за 20 секунд поймать всех овец и уклоняться от камней.

Чтобы мотивировать ИИ-волка повышать свою производительность, разработчики также создали простую систему очков.

Если волк ловил овцу, то он получал 10 очков. Если он сталкивался с камнем, то вычиталось 1 очко. Чтобы волки имели стимул ловить овец как можно быстрее, за каждую прошедшую секунду у волков отнималось 0,1 очка.

У волков были и другие способности — они знали, в каком направлении смотрят, что находится перед ними, где расположена овца, собственная скорость, скорость овцы и т.д., а также множество других параметров, которые должны были помогать волкам в их охоте.

Цель проекта заключалась в том, чтобы проверить, смогут ли ИИ-волки путём обучения и переобучения найти способ максимизировать количество получаемых очков.

Спустя 200 000 итераций исследователи обнаружили, что чаще всего волки просто ударялись о камни, чтобы совершить самоубийство.

1*50Cr7WuDDSPHBXxfX2ocsw.gif

ИИ-волки совершают суицид, ударяясь о камни. Источник: Xinzhiyuan в WeChat

Булыжниковые камикадзе

Авторы потратили три дня на анализ и поняли, почему ИИ-волки готовы скорее совершить самоубийство, чем поймать овцу.

В первых итерациях волки чаще всего не могли поймать овец, что приводило к серьёзным штрафам за время. Поэтому они решили, что если в начале игры они находятся достаточно близко к камням, то, «логически размышляя», мгновенный суицид приведёт к меньшей потере очков, чем трата времени на поимку овец.

Таким извращённым способом харакири ИИ-волк «оптимизировал» свою производительность, минимизируя штраф за потраченное время.

Результат оказался таким, потому что ИИ беспокоился только о том, как оптимизировать свою производительность математически, как это и бывает в большинстве случаев применения алгоритмов машинного обучения.

1*CWIJiiIi3j-_LAm-w_cZmw.png

Непредусмотренные последствия «чёрных ящиков»

Забавно, что эта бесстрастная реакция искусственного интеллекта на условия простой игры породила эмоциональный отклик среди китайских пользователей Интернета, благодаря чему история о волках-камикадзе распространилась по различным социальным сетям страны.

Разумеется, это возродило и привычные дискуссии об этике и безопасности ИИ. В одном посте в Zhihu (китайском аналоге Quora) опубликован список того, как эксперименты с эволюционным ИИ приводили в прошлом к искажённым результатам. Некоторые из них были шокирующими или даже потенциально опасными.

Например, в эксперименте 1994 года по эволюции организмов обнаружился один вид ИИ-организмов, который выяснил, что вместо того, чтобы перемещаться в ИИ-мире, занимаясь охотой на еду и поисками пары для продления рода, оптимальным решением будет оставаться на одном месте и «спариваться друг с другом, бороться друг с другом, убивать друг друга и поедать павших».

Этот вид исследователи довольно метко прозвали «ленивыми каннибалами».

В ещё одном эксперименте учёные использовали ИИ для оптимизации давления разрыва, прикладываемого к кабелю на посадочной площадке авианосца, когда приземляющийся самолёт зацепляется за него для торможения.

Вместо того, чтобы выполнять правильные расчёты, ИИ выяснил, что при приложении достаточно большой силы в системе возникало «переполнение» и регистрировалась нулевая сила. Это позволило ИИ добиться кажущегося идеальным приземления, однако в реальности такое решение привело бы к катастрофе.

Другие примеры ИИ-систем, эволюционно достигших интересных и необычных решений, можно найти в статье 2019 года "The Surprising Creativity of Digital Evolution: A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities".

Корпоративные волки и их недосягаемые овцы

Обсуждение приобрело и философский поворот: молодые деморализованные сотрудники китайских корпораций увидели в волке-самоубийце идеальную метафору себя: нового класса «белых воротничков», которых часто убеждают работать в режиме 996 (с 9 утра до 9 вечера шесть дней в неделю) в стремлении за мечтой о повышении, увеличении зарплаты, удачной женитьбе… но она, несмотря на все их усилия, всё сильнее ускользает от них.

Настолько сильно, что, как и ИИ-волк, многие просто решают, что если уж изначальные условия плохи, лучше просто отказаться от охоты. Спокойное отношение и более хаотичный образ жизни кажется гораздо лучшей тактикой, чем подвергать себя стрессу и рисковать здоровьем.

Этот феномен даже стал причиной появления в современной китайской лексике нового понятия — "躺平", что буквально означает «лежать плашмя».

1*N3keF7xYOjX6F1dIxiAKYg.png

«Как и в реальной жизни, страховочная сетка установлена слишком низко, стимулов слишком мало, а из-за „штрафов за время“ многие считают, что лучшее решение — это „лежать плашмя“ (сдаться)». Источник: комментарий в Weibo к посту про эксперимент с ИИ-волками

Пробовать снова и снова

Однако вся история начатого в 2019 году проекта не закончилась на суицидальных волках. На самом деле, если прочитать переписку до конца, то можно узнать, что исследователи усовершенствовали сценарии обучения и увеличили количество итераций.

Спустя «пять поколений» по два миллиона итераций каждая, ИИ-волки наконец начали понимать, как ловить овец. Хотя они время от времени повторяли свой манёвр «булыжниковых камикадзе», теперь у них имелся приличный шанс поймать всех овец за 25 секунд геймплея.

В конечном итоге, студент и преподаватель пришли к двум выводам:

  • Изначальное причудливое поведение волков просто стало результатом «абсолютной и неразумной рациональности», демонстрируемой системами ИИ.
  • Сложно прогнозировать, какие условия будут важны для нейросети, а какие неважны.
Некоторые Интернет-пользователи указывали и на то, что структура эксперимента изначально была плохой. Если бы штраф за столкновение с камнем был гораздо выше, чем 1 очко, то ИИ-волки не прибегали бы к суициду как к простому способу выиграть игру.

К сожалению, жизнь — это не игра с ИИ. У нас не так много попыток и возможностей начать заново. Но мы имеем гораздо более мощные когнитивные способности, чем ИИ-волки, а также историю и опыт, на которых можем учиться. Не говоря уже о постоянно эволюционирующих правилах и среде человеческого общества.

Возможно, главный урок этого эксперимента заключается не в беспомощности и необходимости сдаться. Нужно подниматься, пробовать снова и снова, оставаясь в игре до самого конца.
 

ecosolver

РадиоФилин & У.С. (С.А.Р.А) - . УГУ!
Интересные факты про машинное обучение
Факт любопытный, но закономерный.
Если волку е...ть мозги очками и прочим тупым рейтингом, то он будет биться головой об стену, а не выполнять свои прямые волчьи обязанности, ибо РЕЗУЛЬТАТ примерно тот же - куча недовольных соплеменников , необходимость выплясывать перед начальством и ...голодное брюхо :)
 

tomcat

far away...
Команда форума
Мульти модератор

У искусственного интеллекта обнаружили склонность к дискриминации меньшинств

Активно внедряемые сегодня во все сферы деятельности системы искусственного интеллекта демонстрируют предвзятое отношение к тем или иным меньшинствам, утверждают представители многих правозащитных организаций. Это проявляется в сбоях систем распознавания лиц, которые с трудом идентифицируют чернокожих; отказах голосовой идентификации для пользователей с характерным региональным акцентом; или запретах на выдачу кредитов меньшинствам в банках.
Набиль Манджи (Nabil Manji), глава отдела криптовалют и web3 в платёжной службе Worldpay отмечает, что качество работы ИИ-модели определяется двумя составляющими: использованными при обучении материалами и эффективностью алгоритмов — поэтому Reddit и другие крупные платформы взимают плату за доступ к данным для обучения ИИ. Образуется фрагментация данных, и в традиционно консервативной сфере финансовых услуг результативность ИИ оказывается ниже, чем у компаний, способных быстро внедрять передовые решения и производить выборки актуальных данных. Образцом репрезентативно разрозненных данных в этом случае может служить технология блокчейна, уверен эксперт.

Румман Чоудхури (Rumman Chowdhury), бывший глава подразделения Twitter по этике машинного обучения назвал сферу кредитования ярким примером дискриминации со стороны ИИ. Аналогичная схема действовала в Чикаго в тридцатые годы прошлого века, напомнил эксперт: в банках висели большие карты города, на которых красным были отмечены районы с преимущественным проживанием чернокожего населения — жителям этих районов в кредитах отказывали. Аналогичные ошибки, по его словам, совершают и современные ИИ-алгоритмы оценки кредитоспособности граждан, принимая этническую принадлежность клиента в качестве одного из параметров.

Об этом говорит и Энгл Буш (Angle Bush), основательница организации «Чёрные женщины в искусственном интеллекте» — она признаёт, что такая дискриминация носит непреднамеренный характер и призывает кредитные организации как минимум допускать возможность такой ошибки. Разработчик в области ИИ Фрост Ли (Frost Li) обратил внимание, что из-за технологической дискриминации уже появилось множество малых финтех-стартапов специально для иностранцев: традиционный банк легко может отказать выпускнику Токийского университета в выдаче кредитной карты, даже если он работает в Google, но согласиться обслуживать любого выпускника местного колледжа.

Доказать факты такой дискриминации бывает непросто. Apple и Goldman Sachs пытались обвинить в том, что пользующимся Apple Card женщинам они устанавливали более низкие кредитные лимиты, чем мужчинам. Но Департамент финансовых услуг Нью-Йорка не смог найти подтверждений этим обвинениям.

По мнению экспертов, защититься от дискриминации человека со стороны ИИ помогут меры регулирования отрасли, вводимые международным организациями вплоть до ООН. Потенциальными проблемами ИИ являются становящиеся компонентами алгоритмов элементы дезинформации и предубеждений, а также «галлюцинации». В этой связи при внедрении ИИ в работу компаний или органов власти необходимы механизмы обеспечения прозрачности и подотчётности алгоритмов, которые помогут даже не являющимся профессионалами гражданам самостоятельно судить об их эффективности. У граждан должна быть возможность подавать жалобы на подобные решения; ИИ-алгоритмы должны проходить проверки, а на этапе их развёртывания необходима экспертиза на предмет предвзятости.
 

ecosolver

РадиоФилин & У.С. (С.А.Р.А) - . УГУ!
Искусственный интеллект, видать не дурак....
Это в мире "естественного" интеллекта (и интеллекта ли?) "... - меньшинствам" (то,что вы подумали) поклоняются, под них прогибается большинство ,им приносят дары...Ставят начальником бездаря... "из этих", из меньшинств, и тот гнобит большое количество людей и пользуется плодами их труда бесплатного!
Женщинам меньший кредитный лимит? - правильно. Мужчине нужен кредит на что? На бритву и носки. А женщине - на сумочку, на еще одну сумочку, на целый шкаф того,что нечего надеть. и т.п. (ну короче, женщину можно сделать счастливой и без сумасшедших трат!) При этом Женщина может зарабатывать не меньше мужика, а захочет, так и больше (однако, гнездо вить надо и птенцов кормить) и...позволить себе всю эту дребедень без всяких кредитов, если не будет соблазнов "легких денег" :) Кстати, тупо по статистике рождаемости, женщины не меньшинство, а половина народа(50/50 -мальчик или девочка), а по статистике переписи взрослых женщин и вовсе больше, чем взрослых мужчин :)
Я бы вообще запретил эти кредиты! Чтобы люди из-за минутных своих хотелок не становились рабами банка!!!!!!!
 
Последнее редактирование:
Искусственный интеллект, видать не дурак....
Это в мире "естественного" интеллекта (и интеллекта ли?) "... - меньшинствам" (то,что вы подумали) поклоняются, под них прогибается большинство ,им приносят дары...Ставят начальником бездаря... "из этих", из меньшинств, и тот гнобит большое количество людей и пользуется плодами их труда бесплатного!
Женщинам меньший кредитный лимит? - правильно. Мужчине нужен кредит на что? На бритву и носки. А женщине - на сумочку, на еще одну сумочку, на целый шкаф того,что нечего надеть. и т.п. (ну короче, женщину можно сделать счастливой и без сумасшедших трат!) При этом Женщина может зарабатывать не меньше мужика, а захочет, так и больше (однако, гнездо вить надо и птенцов кормить) и...позволить себе всю эту дребедень без всяких кредитов, если не будет соблазнов "легких денег" :)
Я бы вообще запретил эти кредиты! Чтобы люди из-за минутных своих хотелок не становились рабами банка!!!!!!!
Это же ещё одна Возможность доминирования Пиндосов над всеми.
Напечатали сколько захочешь денег. Всем раздали. И ТЕПЕРЬ все работают на пиндосов.
СКАЗКА.
Увлеклись просто.
Надо было чутка скромнее быть.

Ну правильно - когда у тебя в ванной стоит станок. И ты можешь ХОТЬ КОгДА - хоть ночью, хоть в ноябре, туда зайти и напечатать хоть сколько - ЭТО НЕМИНУЕМО РАЗВРАТИТ.

Неудержались...

И теперь поплатятся.

Нам только надо вовремя отойти - когда лопнет - чтобы не забрызгало.
 
Сверху