Какой может быть интеллект: Синонимы и антонимы «интеллект» — анализ и ассоциации к слову интеллект. Морфологический разбор и склонение слов

Содержание

Бесчеловечный изобретатель: может ли искусственный интеллект быть настоящим автором

Еще 20 лет назад компьютеры были лишь инструментом, который человек использовал для расчетов, программирования, общения и развлечений, а сегодня они уже претендуют на звание изобретателей. Первый шаг к получению нового статуса был сделан в Австралии 30 июля 2021 года, когда судья Федерального суда Джонатан Бич вынес решение о том, что искусственный интеллект может быть автором изобретения. 

Искусственный интеллект против патентного бюро

Доктор Стивен Талер — американский изобретатель, создатель искусственного интеллекта DABUS (Device for the Autonomous Bootstrapping of Unified Sentience, «Устройство для автономной обработки единых данных»). Это обучаемая система, которая работает на основе серии искусственных нейронных сетей и может создавать изобретения самостоятельно, без участия человека. В 2019 году DABUS создал новый тип контейнеров для напитков и сигнальную лампу для привлечения внимания, которая может помочь в поисковых операциях. В том же году Талер подал заявку на получение патентов на эти изобретения в Европейском союзе и более десяти разных странах, включая Австралию, и в качестве автора указал само устройство. Конкретно в Австралии заявка была подана в рамках проекта «Искусственный изобретатель», возглавляемого профессором права и медицинских наук Райаном Эбботом. Британский ученый уже несколько лет на тот момент выступал за то, чтобы авторство искусственного интеллекта могло быть признано юридически.

Единственной страной, в которой подача такой заявки увенчалась успехом, стала Южная Африка. Бюро Канады, Китая, Германии, Индии, Израиля, Японии, Великобритании, США и Австралии единодушно отклонили заявку, потому что машина не может быть указана автором изобретения. Талер не сдался и решил оспорить отказ патентного ведомства в Федеральном суде Австралии. И не зря — решение судьи Джонатана Бича стало историческим для разработчиков искусственного интеллекта. 

Реклама на Forbes

Нет никаких причин требовать, чтобы изобретатель был человеком

Суд не разделил мнения патентных бюро. «Почему наши творения также не могут творить?» — задавался вопросом судья Бич во время процесса. Он отметил, что есть разница между патентообладателем и изобретателем. Патентообладатель имеет право на получение патента, то есть им должен быть человек, поскольку только он физически может подавать заявку на получение патента или контролировать его. Однако нет никаких причин требовать, чтобы изобретатель был человеком: в отличие от юрисдикций других стран закон о патентах Австралии не определяет термин «изобретатель» и в нем нет прямого положения о том, что искусственный интеллект не может быть изобретателем. 

Бич обязал комитет по патентам повторно рассмотреть заявление Талера и пересмотреть причины для отказа, создав тем самым прецедент. Решение стало первым шагом к признанию машин искусственного интеллекта изобретателями и вывело на новый уровень дискуссию об охраноспособности объектов во всем мире и его последствиях. Например, американский юридический журнал The National Law Review отмечает, что юридическое сообщество разделилось на два лагеря в этом вопросе. Некоторые эксперты согласны с защитниками изобретателей DABUS и считают, что современное нормативное понимание автора устарело — патентным правом может обладать и искусственный интеллект, и человек, который его создал и в этом случае признается «соизобретателем». 

Дело Талера рассматривалось не только в Австралии, но и в апелляционном суде в Великобритании. Хотя большинством голосов двух судей комиссия решила, что изобретателем должен быть человеком, третий судья Колин Бирсс выразил альтернативное мнение. Он согласился с тем, что «машины не являются личностями», но пришел к выводу, что закон не требует, чтобы автором патентоспособного изобретения был человек. 

Создание мелодии в упрощенном виде может быть простым выбором комбинации нот

Творческое начало

Самый частый аргумент против признания произведений ИИ охраноспособными — это отсутствие в них творческого элемента. Закон считает творческим только то, что является результатом внутреннего понимания. И стоит признать, что  система искусственного интеллекта на такую внутреннюю рефлексию не способна. Однако способность к творчеству можно трактовать по-разному, ведь, например, даже создание мелодии в упрощенном виде может быть простым выбором комбинации нот.

Критерий творчества следует раскрывать скорее через независимость и оригинальность. И системы искусственного интеллекта способны на это. Например, недавно в Чехии поставили пьесу, написанную нейросетью GPT-2. Она настолько хорошо пишет тексты, что разработчик — компания OpenAI — даже опасается, что ее будут использовать для создания фейковых новостей, комментариев и отзывов, неотличимых от настоящих. Написанная нейросетью пьеса получилась немного похожей на «Маленького принца» Экзюпери: в ней рассказывалось о странствиях робота, который отправляется в мир, чтобы узнать, что такое общество, человеческие эмоции и смерть. И это не единственный пример творчества машин. Искусственный интеллект создает симфонии, картины, а статьи, написанные алгоритмами, публикуются в изданиях The Economist и The Guardian. 

Такие произведения не всегда защищаются копирайтом, и бывают случаи «кражи» у нейросети. Например, в Китае компания-разработчик Tencent публиковала на своем ресурсе заметки о бизнесе, созданные алгоритмом Dreamwriter на основе анализа отчетов и биржевых сводок. Однажды другая китайская компания — Shanghai Yingxun Technology Company — перепечатала один из таких отчетов указав, что контент «автоматически написан роботом Tencent Dreamwriter», то есть может быть свободно использован, раз у него нет фактического автора и копирайта. Однако Tencent не были согласны с такой позицией и посчитали, что таким образом Shanghai Yingxun Technology украли их собственность. Когда разработчики обратились в суд, чтобы признать отчеты Dreamwriter оригинальными произведениями, судья решил, что выражения и интонации статьи «достаточно оригинальны» и соответствуют требованиям закона для того, чтобы рассматривать ее как письменный труд и защитить копирайтом. 

Новый подход

Формально объекты, созданные искусственным интеллектом, получают правовую охрану уже сейчас. Просто автором таких изобретений или произведений де-факто указывается человек. Но такой поход не решает проблемы авторства, поскольку над объектами всегда висит призрак признания неохраноспособными в случае, если выяснится, что они созданы не человеком.

Основной аргумент отказа в патентоспособности изобретений, созданных машинами, состоит в том, что патентное право должно стимулировать человеческую изобретательность. Однако в ходе таких рассуждений упускается из внимания то, что в основе патентной монополии лежит идея компромисса между защитой интересов автора и интересами всего общества в его использовании. Взамен на раскрытие технологии изобретения закон предоставляет ограниченное сроком право получать вознаграждение за его использование. То есть отказ в патенте изобретений, созданных искусственным интеллектом, препятствует их раскрытию и распространению, а в конечном счете — прогрессу. 

Решение судьи по делу Талера — важный шаг на пути к мировой практике признания искусственного интеллекта автором, ведь вопрос об охраноспособности таких изобретений никогда так явно не рассматривался судами, патентными ведомствами и самим юридическим сообществом. Теперь осталось высказаться законодателям. В отличии от судов, ограниченных лишь возможностью толковать законы, по-настоящему добиться признания нового класса изобретателей, вероятно, только в их силах. 

Мнение редакции может не совпадать с точкой зрения автора

Черниговская рассказала, чем может быть опасен искусственный интеллект

https://ria.ru/20211110/ii-1758469346.html

Черниговская рассказала, чем может быть опасен искусственный интеллект

Черниговская рассказала, чем может быть опасен искусственный интеллект — РИА Новости, 10.11.2021

Черниговская рассказала, чем может быть опасен искусственный интеллект

Разработки в области искусственного интеллекта требуют от ученых понимания того, как не потерять над ним контроль, чтобы он не нес угрозы человечеству, считает… РИА Новости, 10.11.2021

2021-11-10T20:23

2021-11-10T20:23

2021-11-10T20:30

наука

технологии

михаил ковальчук

евгений велихов

санкт-петербургский государственный университет

курчатовский институт

мария воронцова

россия

/html/head/meta[@name=’og:title’]/@content

/html/head/meta[@name=’og:description’]/@content

https://cdnn21.img.ria.ru/images/156036/25/1560362516_0:160:3072:1888_1920x0_80_0_0_26d48d6fb70cde2251a8cd84178e2631.jpg

МОСКВА, 10 ноя — РИА Новости. Разработки в области искусственного интеллекта требуют от ученых понимания того, как не потерять над ним контроль, чтобы он не нес угрозы человечеству, считает заведующая лабораторией когнитивных исследований и кафедрой проблем конвергенции естественных и гуманитарных наук Санкт-Петербургского государственного университета Татьяна Черниговская.»Может ли у искусственного интеллекта появиться самость, «я»? Может ли искусственный интеллект стать личностью? Это не кухонные разговоры… Это серьезно, потому что такая опасность есть», — сказала Черниговская в среду в ходе научной сессии «Нелинейная наука: интеллектуальные ресурсы для будущего» конференции Российской ассоциации содействия науке (РАСН).»Почему мы решили, что искусственный интеллект, если он «вырвется на свободу», решит быть как мы?» — добавила она.Черниговская пояснила, что другие потенциально возможные виды интеллекта могут быть построены на совершенно иных принципах, чем человеческий интеллект. К тому же искусственный интеллект будет обучаться не только человеком, но и самообучаться, добавила она. И еще вопрос, можно ли будет по каким-либо признакам в определенный момент узнать, обрел ли искусственный интеллект свое «я» или нет, отметила Черниговская.Цель работы Российской ассоциации содействия науке — способствовать повышению роли науки в российском обществе путем развития всех ее направлений науки (естественных, гуманитарных, социальных и технических), особенно исследований междисциплинарного (мультидисциплинарного) характера. В состав президиума РАСН входят российские ученые, в их числе почетный президент Курчатовского института Евгений Велихов (председатель президиума), президент Курчатовского института Михаил Ковальчук, Мария Воронцова (Эндокринологический научный центр Минздрава России), Татьяна Черниговская и другие.

https://ria.ru/20211104/koronavirus-1757680638.html

https://ria.ru/20211103/kitay-1757641259.html

россия

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

2021

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

Новости

ru-RU

https://ria.ru/docs/about/copyright.html

https://xn--c1acbl2abdlkab1og.xn--p1ai/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

https://cdnn21.img.ria.ru/images/156036/25/1560362516_171:0:2902:2048_1920x0_80_0_0_060d69583f980466e05ae06a96acc214.jpg

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

технологии, михаил ковальчук, евгений велихов, санкт-петербургский государственный университет, курчатовский институт, мария воронцова, россия, искусственный интеллект

20:23 10.11.2021 (обновлено: 20:30 10.11.2021)

Черниговская рассказала, чем может быть опасен искусственный интеллект

Искусственный интеллект в бизнесе — опыт российских компаний

Роботы в рекрутинге

Разработка, внедрение и обновление чат-ботов требует вложений, но в долгосрочной перспективе сокращает издержки, ведь роботам не нужен перерыв на обед, они не уходят в отпуск или на больничный. По этой же причине компании, которые часто в поиске персонала, прибегают к помощи ИИ в рекрутинге.

Стартап Stafory в 2016 году выпустил на рынок проект «Робот Вера» — помощника HR-менеджера. Искусственный интеллект не в состоянии полностью заменить рекрутера-человека, но «Вера» умеет подбирать резюме, обзванивать соискателей и проводить первичные собеседования.

При этом робот-рекрутер, как утверждает компания, способен за 9 часов провести интервью с 1 500 кандидатами. Скорость отсеивания и подбора персонала «Верой» уже оценили такие компании, как IKEA, «Ростелеком» и PepsiCo.

И это далеко не единственная технология ИИ для рекрутинга на рынке. На машинное обучение перешёл поисковый алгоритм HeadHunter, SuperJob использовал в этой сфере чат-бота, а, например, стартап Sever.AI помогает HR-менеджерам X5 Retail Group и «СИБУР».

Компьютерные системы в сложных процессах

Передать ИИ можно не только простые процессы, с которыми самостоятельно справляется один человек. В традиционных отраслях бизнеса вроде сельского хозяйства или тяжёлой промышленности, где копятся невообразимые массивы данных, использование искусственного интеллекта может увеличить производительность в сотни раз. То же касается банкинга и страхования, где ИИ применяется очень активно.

Сбербанк уже внедрил искусственный интеллект практически во все бизнес-процессы. Раньше решения о выдаче кредита юридическому лицу принимали сотрудники, и на это требовалось несколько недель. Теперь кредиты согласовывает искусственный интеллект — всего за 7 минут.

А компания «Газпром нефть» поручила ИИ вопросы разработки месторождений. Компьютер производит расчёты, которые специалисты делали вручную, и на основе трёхмерных моделей предлагает оптимальные сценарии для новых и старых нефтяных скважин. Как показывает анализ, варианты ИИ на 20-30 % экономически эффективнее вариантов экспертов.

Совфед предложит вписать в законы вопросы этики искусственного интеллекта — РБК

Технологии и медиа , 22 дек 2021, 07:00 

Совфед предложит вписать в законы положения Кодекса этики искусственного интеллекта

Совет Федерации предложит внести положения Кодекса этики в сфере искусственного интеллекта в законодательство. Документ подписали крупнейшие разработчики этой технологии в России, но сам по себе он носит рекомендательный характер

Фото: Петр Ковалев / ТАСС

Совет Федерации будет рекомендовать закрепить в законодательстве Кодекс этики в сфере искусственного интеллекта. Об этом РБК рассказали два источника в верхней палате парламента. По словам одного из них, инициатива будет озвучена в среду, 22 декабря, на выездном заседании Совета по цифровой экономике при Совфеде под председательством первого вице-спикера верхней палаты, секретаря генсовета «Единой России» Андрея Турчака.

По словам одного из собеседников РБК, Совет Федерации намерен предложить ввести отдельный законодательный запрет на включение в состав технологий искусственного интеллекта алгоритмов и параметров, дискриминирующих граждан по различным признакам, чтобы «ни пол, ни раса, ни какие-то индивидуальные предпочтения не служили основанием, для того чтобы человеку отказывали в приеме на работу или каких-либо социальных льготах». Кроме того, Совфед намерен рекомендовать Минэкономразвития создать механизм предварительной оценки последствий внедрения искусственного интеллекта «в целях исключения негативного воздействия на права человека и гражданина».

Другой собеседник пояснил, что вариантов правового закрепления положений кодекса в отраслевом законодательстве может быть несколько: «Базовые положения о функционировании искусственного интеллекта могут быть закреплены в специализированном, отдельном федеральном законе или же в законе «Об информации, информационных технологиях и о защите информации». Положения об оценке рисков и гуманитарного воздействия искусственного интеллекта и соответствующая регламентация этих механизмов могут найти отражение в законе «Об обязательных требованиях в России», а вопросы использования искусственного интеллекта при решении юридически значимых вопросов, оказания государственных и муниципальных услуг, в том числе по вопросам исключения дискриминации граждан со стороны технологии могут попасть в закон «Об организации предоставления государственных и муниципальных услуг».

Что такое искусственный интеллект (AI)? – Amazon Web Services

Искусственный интеллект (AI) – раздел информатики, который занимается решением когнитивных задач, обычно предназначаемых для человеческого интеллекта, таких как обучение, решение проблем и распознавание шаблонов. Искусственный интеллект (AI) часто ассоциируется с робототехникой и научной фантастикой, но на самом деле он давно вышел за пределы фантастических фильмов. Сегодня искусственный интеллект – это часть продвинутых компьютерных технологий. Одним из выдающихся ученых в этой области является профессор Педро Домингос. Он выделил пять групп ученых, которые вносят вклад в развитие машинного обучения: символисты, сфера которых берет начало в логике и философии; коннекционисты, которые берут знания из нейробиологии; эволюционисты, развивающие методы эволюционной биологии; байесовцы, применяющие математическую статистику и теорию вероятности; и аналогисты, исследования которых базируются на психологии. За последние годы успехи в области статистических вычислений привели к дальнейшему развитию искусственного интеллекта в ряде областей, которые в совокупности обозначаются как «машинное обучение». Аналогичным образом прогресс в области нейронных сетей привел к развитию дополнительной области под названием «глубокое обучение». Машинное обучение и глубокое обучение – это две области компьютерных технологий, начало которым положило исследование искусственного интеллекта.

В широком смысле эти подходы разделяются на «направляемое» и на «произвольное» обучение. В первом случае используются данные с заданным результатом, а во втором – без него.

Каждый день компании производят данные для систем машинного и глубокого обучения, и с увеличением объемов данных AI становится «умнее» и развивается все быстрее и быстрее. Данные извлекаются из хранилищ, таких как Amazon Redshift, собираются с помощью платформ для краудсорсинга, таких как Mechanical Turk, или загружаются динамически с помощью Kinesis Streams. Кроме того, с развитием Интернета вещей и сенсорных технологий данные, которые раньше практически не использовались, теперь стали доступны для анализа, и их объем возрастает в геометрической прогрессии.

Машинным обучением обычно называют методы анализа, основанные на байесовской теории, которые используются для распознавания шаблонов и обучения. В основе машинного обучения лежит набор алгоритмов, которые используют предоставленные данные для обучения и прогнозирования, оптимизируют функцию полезности в условиях неопределенности, распознают в данных скрытые структуры и классифицируют данные в кратким описанием. Машинное обучение часто применяется в тех случаях, когда использование точных программных алгоритмов не обеспечивает достаточной гибкости или неэффективно. Обычный компьютерный код обрабатывает входные данные по алгоритму, заложенному разработчиком, и возвращает соответствующий ответ. Система машинного обучения анализирует входные данные для поиска шаблонов и создает статистический код (модель машинного обучения), который возвращает «правильный результат» на основании предыдущих входных данных (а также выходных данных в случае направляемого обучения). Точность модели машинного обучения во многом зависит от качества и количества накопленных со временем данных.

При использовании качественных данных модель может анализировать многомерные проблемы с миллиардами возможных вариантов и находить оптимальную функцию, которая по входным данным будет прогнозировать корректное значение. Как правило, модели машинного обучения прогнозируют ответ со статистической достоверностью и достаточно надежны. Такие оценочные показатели следует учитывать при принятии решения об использовании моделей машинного обучения или любого отдельного прогнозирования.

Amazon.com активно использует системы машинного обучения для решения практических задач. Технологии машинного обучения помогают расширять сферу деятельности, улучшать работу сервисов, повышать качество логистики и скорость доставки. Amazon.com запустила платформу AWS, чтобы другие компании могли гибко и экономично использовать эти преимущества в своей ИТ-инфраструктуре, и продолжает делать технологии машинного обучения доступными для других.

Сама структура подразделений разработки Amazon.com и приверженность к решению утилитарных коммерческих проблем с помощью машинного обучения помогают создавать простые, но мощные инструменты и сервисы машинного обучения. Сначала эти инструменты тестируются на критически важных процессах в рамках Amazon.com – и только потом становятся доступны для других компаний, так же, как и другие ИТ-сервисы.

Машинное обучение часто используется для прогнозирования результатов на основании данных за прошедший период. Например, компании могут использовать машинное обучение для прогнозирования объемов продаж в будущем финансовом квартале на основе информации о демографической ситуации или оценивать, какие клиенты могут разочароваться в конкретном бренде или, наоборот, стать наиболее лояльными к нему, на основе профиля клиента. Такие прогнозы позволяют принимать более эффективные решения, улучшать качество продуктов и снижать расходы на удержание клиентов. Машинное обучение дополняет системы бизнес-аналитики, которые предоставляют информацию о деятельности компании за прошлые периоды, но фокусируется на прогнозах будущих тенденций.

Успешная реализация технологий машинного обучения в компании состоит из нескольких шагов. Прежде всего необходимо определить, какую проблему должна решать система, т. е. какие прогнозы могут быть полезны для компании. Затем необходимо собрать данные за прошлые периоды на основании бизнес-показателей (транзакции, показатели продаж, потери клиентов и т. п.). Эти данные будут использоваться для построения модели машинного обучения. После этого модель машинного обучения будет делать прогнозы, которые можно использовать для принятия более обоснованных бизнес-решений.

Глубокое обучение – это частный случай машинного обучения, в котором используются многоуровневые алгоритмы для более глубокого анализа данных.В таких нелинейных алгоритмах создается не просто объяснимый набор связей, как при простом регрессионном анализе,а распределенные представления данных, которые взаимодействуют друг с другом в зависимости от определенного набора факторов. Если предоставить алгоритмам глубокого обучения большой объем входных данных, они смогут определять взаимоотношения между элементами.Например, это могут быть взаимоотношения между формой, цветом, словами и т п.Затем эти отношения используются для прогнозирования.В случае искусственного интеллекта эффективность алгоритмов глубокого обучения заключается в том, что они могут определять гораздо больше взаимоотношений между объектами, чем способен включить в программу человек, а также находить такие взаимоотношения, которые, возможно, люди вообще не в состоянии обнаружить.При достаточно больших объемах входных данных сеть алгоритмов будет делать прогнозы или интерпретировать очень сложные структуры данных.

IT-специалист — о проблемах и выгодах внедрения технологий искусственного интеллекта — РТ на русском

Технологии искусственного интеллекта могут стать инструментом контроля за людьми, если для этой сферы не будут созданы правовые рамки. Случаи злоупотребления такими технологиями есть уже сейчас, при этом применение ИИ часто приводит ещё и к снижению качества работы компаний. Об этом в интервью RT рассказал специалист в области искусственного интеллекта, президент компании «Крибрум», член Совета по правам человека при президенте РФ Игорь Ашманов. Он убеждён в необходимости введения запрета на «ковровое» распознавание лиц в общественных местах и на принятие ИИ финальных решений по важным вопросам. Искусственный интеллект способен принести много пользы, но только в случае правильного регулирования этой области, уверен специалист.

— Игорь Станиславович, тема искусственного интеллекта давно перекочевала из фантастических фильмов в повседневную реальность. Однако не все знают, что собой представляет ИИ. Что это такое в техническом, математическом плане, если это можно сформулировать понятыми для неспециалистов словами?

— Говорят об искусственном интеллекте и разрабатывают его давно, уже порядка 60 лет. Я окончил мехмат МГУ в 1983 году и тогда же начал работать в отделе искусственного интеллекта Вычислительного центра Академии наук СССР. Уже тогда в Советском Союзе существовал Совет по искусственному интеллекту при Государственном комитете по науке и технике. Совет возглавлял как раз начальник нашего отдела ИИ академик Гермоген Сергеевич Поспелов, боевой генерал, который занимался искусственным интеллектом ещё в годы Великой Отечественной войны — автоматической посадкой самолётов на аэродром. В 80-х годах в нашем ВЦ АН разрабатывали распознавание и синтез речи, анализ текстов, проверку правописания, антивирусы, распознавание лица, синтез музыки и другие системы ИИ.

Мы сейчас наблюдаем типичный «пузырь хайпа» вокруг ИИ. Таких пузырей вокруг ИИ было уже три или четыре начиная с 60-х годов, когда казалось, что вот-вот появятся разумные домашние роботы, судить будут искусственные судьи, лечить искусственные врачи и тому подобное. А сейчас, наверное, уже пятая волна такого хайпа.

Чтобы понять, что такое ИИ, нужно прежде всего отбросить голливудское представление об искусственном интеллекте как о неких осознающих себя роботах, которые хотят или уничтожить человечество, или, наоборот, будут нам друзьями, неотличимыми от нас.

На самом деле, с точки зрения разработчика, ИИ — это набор методов оптимизации и машинного обучения, которые позволяют компьютеру имитировать некоторые когнитивные функции человека.

  • Игорь Ашманов
  • © Фото предоставлено пресс-службой

— В 2014 году ИИ впервые прошёл тест Тьюринга. Однако до того, чтобы начать мыслить в человеческом смысле этого слова, алгоритмам ещё очень далеко. Возможно ли это в принципе? Или мы, наш мозг, и компьютеры находимся вообще в разных измерениях, образно говоря?

— Да, до этого далеко. Мозг не имеет ничего общего с компьютером, а компьютеры вряд ли удастся сделать похожими на мозг, что бы ни говорили «евангелисты» ИИ. В целом ИИ в публичном дискурсе, в популярных статьях и выступлениях «евангелистов» делится на две основные категории: «сильный» и «слабый». «Сильный» ИИ — это такая воображаемая сущность, мечта фантастов, искусственный интеллект, равный человеческому разуму или превосходящий его. Его не существует, но поклонники технологической религии верят, что он когда-нибудь появится и «изменит мир».

«Слабый» ИИ предназначен для узкого применения. Он уже разработан, используется в быту. В привычном нам смартфоне уже работают десятки таких программ. Это и распознавание речи, и распознавание отпечатка пальца, и проверка правописания, и подбор слов Т9, и распознавание лица, и распознавание элементов пейзажа в фотокамере и тому подобное. Или, например, автомобильный навигатор — это чрезвычайно сложная программа, тоже «слабый» искусственный интеллект.

Это сложные программы, которые кажутся пользователю привычными, простыми и неинтересными, потому что они под рукой и уже работают.

Многие интеллектуальные задачи такой ИИ уже решает — и часто лучше, чем человек, но есть и те, решать которые с хорошим качеством пока не научились.

И настоящий «разговорный» искусственный интеллект, который уверенно проходил бы диалоговый тест Тьюринга, тоже ещё не создан, хотя об этом не раз писали в новостях. Пока что «сильный» искусственный интеллект, имеющий сознание и самостоятельно мыслящий — это голливудские сказки. Ими, скорее всего, он и останется.

Также по теме

«Настанет день, когда машина обретёт сознание»: фантаст Франк Шетцинг о будущем человечества и инопланетном разуме

Книги немецкого писателя-фантаста Франка Шетцинга расходятся большими тиражами, а экранизацией одного из его главных бестселлеров —…

На самом деле мы не знаем, что такое сознание у человека. И не можем даже определить, есть ли сознание у нашего собеседника, у нас нет для этого средств. Именно поэтому Тьюринг предложил считать аналогом человеческого интеллекта машину, которая сможет обмануть экспертов, выдав себя за человека, общаясь виртуально, по сети.

С другой стороны, сейчас в интернете виртуальные собеседники массово «проходят» тест Тьюринга, когда люди звонят в техподдержку или контакт-центр. Люди часто путают робота и реального оператора, но они не эксперты, это не ситуация формального теста.

— Есть ли у ИИ интеллектуальный потолок? Например, машина может решить любую математическую задачу, но может ли она её поставить?

— Нет, машина не может решитьлюбую математическую задачу. Машина может обсчитать подготовленную для неё задачу расчёта. Есть, конечно, специальная дисциплина «автоматическое доказательство теорем», но это не про самостоятельное решение математических задач, это тоже узкое, заточенное применение.

У машины обычно есть очень узкое применение: например, в теории можно её научить распознавать определённые виды рака на рентгеновских снимках лучше, чем это делает врач-диагност, потому что машине можно показать миллионы снимков — столько, сколько обычный врач не в состоянии увидеть за всю свою жизнь. Хотя пока исследования показывают, что даже эта цель не достигнута.

В некоторых случаях потолок качества работы машины может быть выше, чем у человека. Но самостоятельно решать сложные задачи или тем более их ставить — такого и близко нет. И не будет, думаю.

  • АГН «Москва»
  • © Авилов Александр

— А как учится искусственный интеллект, нейронные сети?

— Он учится на данных. В основном на заранее размеченных данных. Сейчас наиболее популярная технология ИИ — это нейронные сети. Через десять лет наверняка будет что-то другое. Взрыв популярности нейронных сетей начался примерно десять лет назад, хотя в целом им уже около 40 лет. Само название «нейронные» — сугубо маркетинговое, никаких нейронов там внутри нет, конечно.

Нейронные сети — это просто матрицы вероятностей, прямоугольные таблицы вероятностей, через которые пропихиваются данные, умножаясь на эти вероятности. Некие коэффициенты, на которые умножаются вектора данных.

Этот процесс можно представить как мясорубку с множеством разных заслонок с дырочками, фланцев, через которые выдавливают сырые «макароны» данных. Вам нужно, чтобы «макароны» на выходе были определённой формы, и вы ставите на мясорубку определённый фланец. По сути, это то, что делает нейросеть с данными — она их преобразует определённым образом.

Также по теме

«Ребрендинг виртуального пространства»: российский IT-специалист — о будущем метавселенных

Метавселенные, разработкой которых сейчас занимается ряд компаний, в будущем станут выполнять функции социальных сетей. Переход…

Данные проходят через матрицы, домножаются на коэффициенты и приобретают нужные свойства. Но чтобы понимать, какие именно нужны дырочки — то есть коэффициенты, — можно, образно говоря, сначала взять, наоборот, уже готовые, сухие «макароны» (размеченные данные), форма которых нас устраивает, и сырой глиняный фланец. И по их образцу сформировать отверстия в будущем керамическом фланце, пропустив через него готовые твёрдые «макароны». А потом обжечь до твёрдого состояния полученный фланец с нужными отверстиями — и следующие, сырые данные прогонять уже через него.

Те нейронные сети, которые используют разработчики ИИ, сначала формируют с помощью уже размеченных, обработанных данных. Это и называется машинным обучением.

— Вы уже упомянули машинный перевод, а за счёт чего он достиг такого прогресса за последние годы, как учатся такие переводчики?

— Идея очень простая. У человечества, в том числе в интернете, накопилось очень много так называемых параллельных текстов, например, Библия переведена на все языки мира.

Чтобы нейросеть могла на них обучаться, пары текстов разбивают на кусочки и «выравнивают», чтобы понять, какому предложению на одном языке соответствует предложение на другом. И полученные пары «параллельных» предложений загружают в машину, которая в специальных индексах запоминает, какие кусочки текста переводятся другими кусочками текста. И всё, потом она эти знания просто применяет для «сборки» перевода по тексту. Там, конечно, множество сложных этапов обработки текста, которые я не стану описывать подробно, но общая идея такая.

— Сейчас ИИ делегируют всё больше и больше задач. Например, компании используют машины для приёма входящих звонков на горячих линиях. Это не очень нравится клиентам, потому что донести какую-то нестандартную ситуацию до робота невозможно. К тому же теряется часть рабочих мест. В выигрыше остаётся только компания, внедрившая эту технологию и сэкономившая на зарплате.

— Конечно. Только она не останется в выигрыше, это очень сиюминутное, недальновидное решение, годящееся только на короткий период. В сети очень мало примеров хорошо сделанных чат-ботов, которые реально помогают клиентам, а остальные служат, по сути, способом отпугнуть клиента от контакт-центра.

Вообще есть интересный феномен, что применение ИИ в разных сферах часто приводит к резкому падению качества. Хотя, по идее, должно быть наоборот.

Например, тот же машинный перевод, о котором мы говорили. Сегодня в какое бы агентство переводов вы ни обратились, вы практически не сможете получить хороший ручной перевод. Даже если агентство мамой будет клясться, что переводит не машинным способом, оно всё равно будет так делать — иначе не выживет. Сначала переводят при помощи сервисов «Яндекса» или Google, а потом подправляют вручную. В этой сфере перескок, когда профессиональный перевод стал нерентабелен без применения «электронного гастарбайтера», случился недавно. Но часто машина переводит всё же плохо, суконным языком, без адаптации к структуре языка. И сейчас в переводах видны эти огрехи, структура фразы из чужого языка, артефакты машинной работы.

Также по теме

Умное оружие: в чём особенность перспективной системы с нейросетью для российских военнослужащих

Специалисты «Калашникова» разрабатывают боевую систему с элементами искусственного интеллекта, которая улучшит скорость обнаружения…

При этом некоторые издательства вообще выпускают целые книги, переведённые «Яндексом» или Google, практически без редактуры. Это ужас. Но ничего, книги всё равно продаются. То есть люди привыкают к ухудшенному качеству.

— А нет ли риска, что полиция, врачи, банкиры будут слишком полагаться на ИИ, перестанут внимательно проверять информацию сами?

— Да, есть очень тревожный и усиливающийся феномен чрезмерного доверия к решениям ИИ, а также падения квалификации, компетенций тех, кто использует «костыли» ИИ. Есть ещё и проблема финальности решений ИИ, которому люди делегировали своё право решать. Ты не можешь никаким образом понять, почему оно принято и как его оспорить.

Приведу реальный пример: человек часа два заполнял анкету для получения кредита в крупном банке. Наконец нажал кнопку «Отправить» — и через 45 секунд получил отказ. Конечно, отказал ему не человек, который за это время даже прочесть бы анкету не успел, а система ИИ.

И в этом случае некуда обратиться, чтобы узнать причину, оспорить, некому сказать: «Постойте, хотя бы обсудите это со мной». Нет, решение финальное, без объяснений. И мало того, клиенту не только отказали в кредите в этом банке, но ещё и зафиксировали этот отказ в его кредитной истории.

— Хотя человек, может, просто забыл где-то галочку в анкете поставить…

— Или просто сам алгоритм был негодный — как узнать-то? Надо понимать, что, хотя решает вроде бы алгоритм, политику, этику, принципы в него всё равно закладывают люди, которые могут ошибаться или быть злонамеренными. Однако на основе этих ошибок машина начинает управлять людьми, и её решения не подлежат оспариванию, они конечные. Человек в результате становится бесправным рабом таких систем.

  • РИА Новости
  • © Алексей Сухоруков

— Как разрешить эту проблему?

— Надо запретить системам искусственного интеллекта самостоятельно принимать решения относительно людей в последней инстанции, а также потребовать обеспечивать прозрачность работы алгоритмов ИИ и всегда явно маркировать любое общение с системой ИИ, чтобы пользователь понимал, с кем он имеет дело.

Для этого мы в Совете по правам человека в этом году написали Концепцию защиты прав граждан в цифровой среде. Соответствующее поручение было дано СПЧ президентом в январе 2021 года, затем я собрал в СПЧ рабочую группу из юристов, членов СПЧ, представителей разных ведомств и общественных организаций. К июлю мы написали концепцию, согласовали её с правительством. Затем отдали документ в администрацию президента, сейчас она проходит согласование в различных ведомствах, Совбезе и ФСБ.

Мы считаем, что в 2022—2023 годах нам нужно создать в том или ином виде цифровой кодекс, который защитил бы права граждан в цифровой среде и определил правила поведения в ней.

Кстати, в Китае, к примеру, ещё осенью этого года частным компаниям было запрещено использовать собранные персональные данные о людях для их дискриминации, например ценовой. Крупные платформы давно пытаются назначать пользователям разные цены на один и тот же товар или услугу в зависимости от уровня их дохода, вычисленного с помощью анализа пользовательских данных. Так вот, в Китае за подобное ввели гигантские штрафы.

И это только часть рисков для прав граждан в цифровой среде, на самом деле их очень много, включая социальные. Например, кто-то по запросам женщины в интернете выяснит, что она беременна, и её перестанут брать на работу. Или установят, что человек ищет лечение от рака, — и его сразу начнут осаждать шарлатаны, которые его загонят в могилу своими фальшивыми средствами. В зоне цифровых рисков находятся пожилые и несовершеннолетние, которые очень уязвимы для разводок.

Также по теме

Цифровая диагностика: как российская система искусственного интеллекта поможет найти не выявленные врачами заболевания

Российские разработчики создали электронную систему прогнозной аналитики, которая способна по обезличенным медицинским данным…

Есть огромное количество уязвимых категорий населения, которые могут стать жертвами дискриминации и обмана.

— Искусственный интеллект активно воспроизводит все негативные стереотипы, которые бытуют в обществе, примеров достаточно. Почему нельзя программным путём «отключать» такие моменты из ИИ? «Воспитывать» его в более нравственном ключе?

— Да, люди накладывают на ИИ свою этику. Например, вы обучаете ИИ для найма персонала. Даёте ему данные о том, каких людей нанимали в вашу большую корпорацию раньше, каким был их карьерный путь, откуда они пришли, какие результаты они давали на работе, сколько в среднем работали в компании до увольнения. И вот нейронная сеть усваивает сложившуюся практику и записывает в свои вероятностные коэффициенты, что, допустим, темнокожих, женщин, больных, пожилых нанимать невыгодно, — вот и всё, дискриминация. Это если вы делегировали ИИ финальное право решать. Таких примеров уже много, в США регулярно идут судебные процессы по таким случаям дискриминации.

Конечно, программист может задать нужную политику ИИ, просто прописать какие-то правила, ввести квоты для дискриминируемых категорий. Но потом начнётся обратная волна претензий, другой человек спросит: «А почему вы дали квоту этой категории, хотя я лучше подхожу по уровню квалификации? Разве наём — это не про квалификацию?»

— Это скорее американская история, но и у нас есть, к примеру, дискриминация пожилых людей при трудоустройстве. Такие моменты можно как-то исключить при помощи ИИ?

— На самом деле хуже всего не то, что ИИ будто бы усваивает человеческие стереотипы, а когда он реально вычисляет, что один человек «менее выгоден», чем другой, на основании объективных данных. ИИ рассматривает человека как товар, как вектор.

— Звучит в духе антиутопий…

— А ведь и на самом деле многие из тех, кто активно продвигает цифровизацию, они воспринимают человека как вектор, набор параметров. Особенно разработчики ИИ. И у кого-то параметры «хуже»: если человек пожилой, инвалид, чаще болеет, беременная женщина. Хотя у нас по закону прямо запрещено дискриминировать людей по таким критериям. Но как доказать, что тебе отказали именно по этим основаниям? То есть нужен аудит систем ИИ: какие критерии в них заложены?

Но у нас пока нет никаких правил для цифрового пространства, здесь каждый творит что хочет. И нет института независимой экспертизы — политики ИИ, потоков персональных данных. Это неправильно. В любой развитой отрасли возникает институт независимой экспертизы.

  • АГН «Москва»
  • © Никеричев Андрей

 Есть ещё один важный аспект — применение ИИ для распознавания лиц. Ранее Европарламент принял резолюцию о необходимости введения в ЕС запрета на автоматическое распознавание лиц в общественных местах. По мнению депутатов, системы распознавания лиц угрожают фундаментальным правам и свободам, таким как неприкосновенность частной жизни. Насколько эти опасения обоснованны?

— Конечно, обоснованны. Потому что мы не делегировали никому право распознавать наши лица. Обычно подобную практику аргументируют соображениями безопасности, необходимостью расследовать преступления. Но при этом собирается гораздо больше данных, чем нужно для безопасности. Самый простой пример — так называемые школьные расстрелы и участие камер на улице в них. Точнее, неучастие: и казанский стрелок, и пермский дошли до места совершения преступления прямо по улице, открыто держа в руках оружие. Там висели целые гроздья камер, которые могли распознать — и наверняка распознали — их лица. Только зачем они это делали, если распознавать нужно было не лицо, а ружьё? И такая узкая, но гораздо более полезная функция могла бы спасти жизни…

Также по теме

Космический близнец: искусственный интеллект обнаружил аналог Солнечной системы

Специалисты NASA обнаружили восьмую экзопланету, вращающуюся вокруг звезды Kepler-90. Таким образом, астрономам удалось найти аналог…

То есть распознавание всех подряд, будто все люди — преступники, неправильно. Распознавание нужно в очень узких рамках. У нас есть закон о персональных данных, который гласит, что собирать и использовать персональные данные граждан можно только в рамках заявленной задачи, а создание объединённых баз для целей «вообще», «знать всё про всех» не разрешается. Условно говоря, собираете данные про ковидных больных — будьте добры, уничтожьте их, когда эти люди выздоровеют. И не передавайте эти данные ни «экосистемам», ни другим госорганам.

Надеюсь, что, когда мы создадим «правила движения» в цифровой сфере, «ковровое» распознавание лиц будет запрещено. Напомню, что распознавание — не просто фиксация изображения, но «атрибуция», соотнесение его с конкретным именем, фамилией, паспортными данными.

— Распознавать нужно точечно, с конкретной целью?

— Да, к примеру, если речь идёт о людях, которые уже находятся в розыске. Или, к примеру, что-то случилось в публичном месте — тогда можно распознать участников инцидента задним числом, по записи, в радиусе 500 м, условно говоря. Или, например, если человек ведёт себя подозрительно — шатается, пристаёт к прохожим, несёт оружие и тому подобное. А не всех подряд, как это делают сейчас.

Я считаю, что и биометрию в банках не стоит сдавать, потому что эти данные могут точно так же попасть в руки мошенников, как ранее попали базы телефонных номеров и ФИО. Такими базами просто торгуют недобросовестные сотрудники банков.

— Хотелось бы поговорить и о пользе ИИ. Как развитие и внедрение ИИ повлияет на экономику, социальную сферу? Станет ли это толчком для развития этих сфер? В чём заключается главная польза ИИ?

— Тут всё так же, как было и в случаях с другими техническими новинками и прорывами — автомобилями, самолётами… Если ввести эту сферу в рамки закона, ввести правила поведения, снизить социальные риски, то ИИ может принести много пользы в разных сферах. Это и диагностика болезней, и поиск преступников, управление экономикой, транспортом, ЖКХ, безопасностью в регионах. Большие надежды на ИИ возлагает промышленность.

  • РИА Новости
  • © Михаил Воскресенский

ИИ уже сейчас экономит массу денег в так называемой предиктивной, то есть предсказательной аналитике. Например, ИИ можно обучить на примерах находить дефекты, старение металла в конструкциях, механизмах, прокатных станах, в доменных печах и так далее. И заменять запчасти заранее, не доводя до катастрофы и аварийного выхода производства из строя.

Практический пример: в домнах есть специальные форсунки (фурмы), которые при плавке металла загоняют в домну тщательно отмеренные объёмы кислорода и воды. Если форсунка «устала» и прогорает во время плавки, то образуется дыра, через которую уже неконтролируемо поступает воздух, портится качество металла. А «горячая» замена невозможна.

Но если при помощи датчиков и обученного ИИ заранее определить, что фурма скоро прогорит — ещё до появления первых внешних признаков этого, — то замену можно сделать до начала плавки и предотвратить большие потери. Подобных примеров промышленного применения ИИ очень много.

Можно привести примеры и противоположного рода. Например, многие люди подозревают, что автомобильный навигатор часто даёт не оптимальный для пользователя маршрут, а рассматривает его как точку в общем потоке и предлагает траекторию, оптимальную для снижения пробок.

Также по теме

«На стыке наук»: российский учёный — о природоподобных технологиях, искусственном интеллекте и глобальных вызовах

Технологии будущего рождаются на стыке наук. Об этом в интервью RT заявил директор-координатор по направлению «Природоподобные…

Это, по сути, попытка управлять массой людей с помощью искусственного интеллекта. А кто он такой, чтобы всеми управлять? Ведь мы поставили это приложение на смартфон в расчёте, что оно будет помогать нам, мы доверяем ИИ, а он в определённый момент начинает за нас решать, что для нас лучше.

Или другой пример. Постоянно говорят об использовании ИИ в медицине. Допустим, вы больны, носите браслет, который следит за давлением, уровнем сахара в крови и тому подобным. Однако в соглашении об использовании этого браслета, которое никто не читает, может быть прописано, что вы разрешаете передавать эти данные третьим лицам. Обычно, кстати, такое условие там и содержится.

А этим «лицом» может быть, например, банк, который будет теперь предлагать вам кредиты по повышенной ставке. Или страховые компании, которые будут завышать для вас, как для больного человека, стоимость страховки. В итоге окажется, что нами начнут управлять с помощью сбора и анализа наших персональных данных.

Вообще, у многих сторонников повсеместного внедрения ИИ есть убеждение, что обществом можно управлять алгоритмически. У них есть даже специальный термин — управление «индивидуальными траекториями» учащихся, пациентов, граждан вообще.

— Звучит как эвфемизм.

— Потому что «траектория» человека —это на самом деле его судьба. Это попытка управлять судьбой. Такие люди примеряют на себя роль Бога. И вот этого допустить точно нельзя.

Искусственный интеллект: между мифом и реальностью

Могут ли машины стать умнее, чем люди? Нет, считает Жан-Габриэль Ганасия: это всего лишь миф, навеянный научной фантастикой. В своей статье он напоминает об основных этапах развития этой отрасли науки, о достижениях современной техники и об этических вопросах, все больше требующих к себе внимания.

Жан-Габриэль Ганасия

 

Искусственный интеллект (ИИ) – это отрасль науки, официально увидевшая свет в 1956 году на летнем семинаре в Дартмут-колледже (Хановер, США), который организовали четверо американских ученых: Джон Мак-Карти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон. С тех пор термин «искусственный интеллект», придуманный, вероятнее всего, с целью привлечения всеобщего внимания, стал настолько популярен, что сегодня вряд ли можно встретить человека, который никогда его не слышал. С течением времени этот раздел информатики развивался все больше, а интеллектуальные технологии в последние шестьдесят лет сыграли важную роль в изменении облика мира.

Однако популярность термина «искусственный интеллект» во многом объясняется его ошибочным толкованием – в частности, когда им обозначают некую искусственную сущность, наделенную разумом, которая якобы в состоянии конкурировать с людьми. Эта мысль из области древних легенд и преданий, звучащая как миф о Големе, с недавних пор реанимируется такими нашими современниками, как британский физик Стивен Хокинг (1942-2018 гг.), американский предприниматель Илон Маск и американский инженер Рэй Курцвейл, а также сторонниками создания так называемого сильного или общего ИИ. Не будем, впрочем, говорить о данном понимании этого термина, ибо оно скорее представляет собой появившийся под влиянием научной фантастики продукт богатого воображения, а не осязаемую научную реальность, подтвержденную опытами и эмпирическими наблюдениями.

Для Джона Мак-Карти и Марвина Мински, как и для прочих организаторов летнего семинара в Дартмут-колледже, ИИ изначально представлял собой область науки, занимающейся компьютерным моделированием различных способностей интеллекта, идет ли речь об интеллекте человеческом, животном, растительном, социальном или филогенетическом. В основе этой научной дисциплины лежит предположение о том, что все когнитивные функции, как то обучение, мышление, расчет, восприятие, память, даже научное открытие или художественное творчество, могут быть описаны с точностью, дающей возможность запрограммировать компьютер на их воспроизведение. На протяжении более чем шестидесяти лет существования ИИ не появилось ничего, что позволило бы неоспоримо доказать либо опровергнуть гипотезу, которая продолжает оставаться открытой и побуждает ученых к новым изобретениям.

История взлетов и падений

За короткое время своего существования ИИ претерпел многочисленные изменения. В истории его развития можно выделить шесть этапов.

◼️ Период пророчеств

Поначалу, под влиянием первых успехов, исследователи позволяли себе несколько опрометчивые заявления, которые впоследствии неоднократно ставились им в упрек. Так, например, в 1958 году американец Герберт Саймон, позже ставший лауреатом Нобелевской премии по экономике, заявил, что если бы машины допускались к международным соревнованиям, то в ближайшие десять лет они стали бы чемпионами мира по шахматам.

◼️ Мрачные времена

Прогресс замедлился в середине 1960-х годов. В 1965 году десятилетний мальчик одержал в шахматном матче победу над компьютером; в 1966 году в докладе, подготовленном по заказу Сената Соединенных Штатов Америки, говорилось о внутренних ограничениях, присущих машинному переводу. Около десяти лет пресса отзывалась об ИИ неодобрительно.

◼️ Семантический ИИ

Исследования не прекратились, но пошли в новых направлениях. Ученые заинтересовались психологией памяти, механизмами понимания, которые они пытались имитировать на компьютере, и ролью знаний в мыслительном процессе. Это привело к появлению значительно развившихся в середине 1970-х годов методов семантического представления знаний, а также к созданию экспертных систем, названных так потому, что для воспроизведения мыслительных процессов в них использовались знания квалифицированных специалистов. В начале 1980-х годов на экспертные системы возлагались большие надежды в связи с широкими возможностями их применения, например, для медицинской диагностики.

◼️ Неоконнекционизм и машинное обучение

Технические усовершенствования позволили разработать алгоритмы машинного обучения (Machine Learning), благодаря которым компьютеры смогли накапливать знания и автоматически перепрограммироваться на основе собственного опыта.

Такие интеллектуальные системы стали применяться для выполнения самых различных задач (идентификация отпечатков пальцев, распознавание речи и т. д.), а комбинации различных методов из области ИИ, информатики, искусственной жизни и других дисциплин использовались для создания гибридных систем.

◼️ От ИИ до интерфейсов «человек – машина»

С конца 1990-х годов ИИ стали объединять с робототехникой и интерфейсом «человек – машина» с целью создания интеллектуальных агентов, предполагающих наличие чувств и эмоций. Это привело, среди прочего, к появлению нового исследовательского направления – аффективных (или эмоциональных) вычислений (affective computing), направленных на анализ реакций субъекта, ощущающего эмоции, и их воспроизведение на машине, и позволило усовершенствовать диалоговые системы (чат-боты).

◼️ Возрождение ИИ

С 2010 года мощность компьютеров позволяет сочетать так называемые большие данные (Big Data) с методами     глубокого обучения (Deep Learning), которые основываются на использовании искусственных нейронных сетей. Весьма успешное применение во многих областях (распознавание речи и изображений, понимание естественного языка, беспилотный автомобиль и т.д.) позволяет говорить о возрождении ИИ.

Применение

Многие результаты, достигнутые с использованием технологий ИИ, превосходят человека: в 1997 году компьютер одержал победу над действующим в то время чемпионом мира по шахматам, а недавно, в 2016 году, другие компьютеры обыграли лучших в мире игроков в го и покер. Компьютеры доказывают или помогают доказывать математические теоремы; автоматически, на основе методов машинного обучения и с помощью огромных массивов данных, объем которых исчисляется в терабайтах (10 в 12-й степени) и даже в петабайтах (10 в 15-й степени), создаются знания.

Методы машинного обучения позволяют одним автоматам распознавать устную речь и записывать ее подобно секретарям-машинисткам прошлых лет, а другим – точно идентифицировать лица или отпечатки пальцев среди десятков миллионов других и обрабатывать тексты, написанные на естественных языках. Благодаря этим же методам самостоятельно движутся автомобили, компьютеры лучше врачей-дерматологов диагностируют меланомы по фотографиям родинок, сделанных с помощью сотовых телефонов, роботы воюют вместо людей; а конвейеры на заводах все больше автоматизируются.

Ученые также прибегают к этим методам для определения функций биологических макромолекул, в частности белков и геномов, исходя из последовательности их компонентов – аминокислот для белков и оснований для геномов. В целом, во всех науках наблюдается серьезный эпистемологический разрыв, обусловленный качественным отличием экспериментов in silico – получивших такое название потому, что выполняются на основе больших данных с помощью мощных процессоров с кремниевыми чипами – от экспериментов in vivo (на живой ткани) и особенно in vitro (в стеклянных пробирках и чашках Петри).

Самообучающиеся интеллектуальные системы широко применяются практически во всех сферах, особенно в промышленности, банковском деле, страховании, здравоохранении и обороне. Многие рутинные процессы теперь можно будет автоматизировать, что преобразит наши профессии и, в конечном итоге, устранит некоторые из них.

Этические риски

ИИ подразумевает не только рациональный анализ и воспроизведение при помощи компьютеров большинства аспектов интеллекта – может быть, лишь за исключением юмора. Машины значительно превышают наши когнитивные способности в большинстве областей, что заставляет нас опасаться некоторых этических рисков. Это риски трех видов: дефицит работы, которая вместо людей будет выполняться машинами; последствия для независимости человека и, в частности, для его свободы и безопасности; опасения, что более «умные» машины будут доминировать над людьми и станут причиной гибели человечества.

Однако при ближайшем рассмотрении становится очевидно, что работа для людей не пропадает, а трансформируется, требуя новых навыков. Точно так же независимость человеческой личности и ее свобода не подвергаются неминуемой опасности из-за развития ИИ – при условии, однако, что мы останемся бдительными перед лицом вторжения технологий в частную жизнь.

И наконец, в противоположность некоторым утверждениям, машины не несут в себе экзистенциального риска для человечества, поскольку их автономия носит лишь технический характер и в этом смысле не соответствует цепочкам материальной причинности, идущим от информации к принятию решений. Кроме того, машины не самостоятельны в моральном плане, и потому, даже если иногда они сбивают нас с толку и вводят в заблуждение своими действиями, они все же не обладают собственной волей и подчиняются тем целям, которые мы перед ними ставим.

Фото: Макс Агилера-Хеллвег

Какой у вас ум?

Разные типы разведки

Хотя некоторые типы интеллекта обычно более известны, а иногда даже более ценятся, в действительности ни один тип интеллекта не лучше другого. Вместо этого более важно знать, какой у вас интеллект. Это может помочь вам максимизировать присущие вам преимущества и выделить область, в которой вам, возможно, потребуется немного упорства, чтобы добиться успеха. Какой у вас интеллект или сообразительность?

Какие типы интеллекта у меня есть?

Слово интеллект часто вызывает в воображении изображения математики и естественных наук или тестов на IQ и сложных алгоритмов.Людей, обладающих высоким интеллектом, ценят и часто считается на голову выше остальных. Что такое интеллект? И есть только один вид умов? Что делать, если вы бесполезны в математике, но отлично разбираетесь в языках … что делает вас неразумным? Или вам просто нужен другой способ обрамления вещи, когда ты учишься?

9 типов интеллекта в психологии

Это те самые вопросы, на которые гарвардский психолог Говард Гарднер ответил в своей книге 1983 года «Структуры разума: теория множественного интеллекта.Здесь Гарденер объясняет, что люди не обладают определенными интеллектуальными способностями, а обладают многими видами интеллекта, например, человек может быть музыкально умным, но ужасно обращаться с числами.

В своей книге Садовник утверждает, что традиционные психометрические взгляды на измерение интеллекта слишком узкие и что они не могут охватить все способности и таланты люди обладают. Он заявляет, что было бы неполно судить чью-то интеллект одним или двумя факторами.Вместо того, чтобы помочь нам понять мы лучше, Гарденер объясняет девять типов интеллекта с Примеры.

Садовники девять видов интеллекта

1. Натуралистический интеллект

Вы заметили, как некоторые люди могут заставить что-нибудь расти? Как будто у них есть «зеленый палец». Другие легко общаться с животными, а некоторые из них полностью чувствуют себя на природе. Натуралистический интеллект описывает людей, чувствительных к естественному Мир. Им нравится находиться на улице, заботиться о них и исследовать окружающую среду.Люди с высоким натуралистическим интеллектом чувствительны к тонким изменениям в природа и окружающая среда.

2. Музыкальный интеллект

Не у всех есть зеленый большие пальцы и любовь к свежему воздуху. Вместо этого некоторые люди от природы обращается к музыке. Люди с музыкальным интеллектом обычно более чувствителен к звуку и часто улавливает шумы, которые обычно не воспринимаются другими быть осведомленным. У них отличное чувство ритма и способность распознавать тон и высоту звука.Чаще всего они играют на музыкальных инструментах или занимается музыкой как профессией.

3. Логико-математический интеллект

Из всех видов интеллект, логико-математический интеллект наиболее похож на то, что мы обычно ассоциируются с общим интеллектом. Люди с этим типом интеллект отлично разбирается в математике и работе с числами. Они могут легко распознавать закономерности и логически разрабатывать процессы. Они имеют отличные способности к рассуждению и часто могут избавиться от неприятностей.Люди с высоким логико-математическим интеллектом часто привлекаются к играм с участием стратегия и решение головоломок.

4. Экзистенциальный интеллект

Пока многие из нас счастливы ведя свою жизнь изо дня в день, люди с высоким уровнем экзистенциального интеллект часто думает больше глубоко о повседневности. Они задают вопросы похоже на то, почему мы здесь? И какой во всем этом смысл? Они часто глубоко философские мыслители, и они способны искать ответы на вопросы больше, чем они сами.Экзистенциальный интеллект часто называют духовный или нравственный интеллект.

5. Межличностный интеллект

Есть ли у вас от природы способность ладить с другими? Вы хорошо читаете людей и социальные ситуации? Если это так, скорее всего, у вас высокий уровень межличностного интеллекта. Люди с этим типом интеллекта часто хорошо читают вербальные и невербальные сигналы, а также определяют темперамент и настроение. Они легко чувствуют сочувствие.Часто этот тип интеллекта можно найти у лидеров, политиков, социальных работников, лайф-коучей и психологов.

6. Лингвистический интеллект

Лингвистический интеллект — это тип интеллекта, который чаще всего присущ людям. Это включает в себя нашу способность мыслить словами и использовать эти слова, чтобы заставить себя понять. Люди с высоким лингвистическим интеллектом очень хорошо выражают свои чувства и мысли словами, чтобы другие понимали их.Их привлекают такие занятия, как чтение, письмо и публичные выступления.

7. Телесно-кинестетический интеллект

Люди с высоким телесно-кинестетическим интеллект имеют отличное чувство времени и отличный ум и тело координация, а также мелкая и крупная моторика. Они могут использовать свои тела, чтобы передать чувства и идеи, и, как следствие, они часто берут на себя роли в танцах, спорте или медицине. Они используют свое тело для решения проблем и создать что-то значимое.

8. Внутриличностный интеллект

Вы понимаете свой мысли, чувства и эмоции, и можете ли вы использовать это понимание в твоя повседневная жизнь? Если это так, вероятно, у вас высокий уровень внутриличностного интеллект. Внутриличностный интеллект относится к пониманию самого себя и состояние человека в целом. Их называют «умными» людьми и, несмотря на более глубокое понимание собственных эмоций, они часто довольно стеснительный. Философы, духовные лидеры, психологи и писатели. обычно обладают высоким внутриличностным интеллектом.

9. Пространственный интеллект

Пространственный интеллект определяется как способность рассматривать вещи в трех измерениях. Люди с высоким пространственный интеллект, как правило, очень творческий и обычно имеет яркий воображение, высокие художественные способности и отличное пространственное мышление. Эти люди часто называют «умным фото», и их можно найти в таких профессиях, как как архитектура, дизайн и чтение карт.

Ценность знания того, какой у вас ум

Следует отметить, что Теория Гарднера была предметом многочисленных дискуссий и критики со стороны психологи.Многие считали, что его определение интеллекта слишком широкое, просто представление навыков и талантов, а не интеллекта как такового. Его отсутствие эмпирические исследования также были поставлены под сомнение. Несмотря на это, однако его теория множественный интеллект по-прежнему полезен учителям и воспитателям, которые ценят более целостный взгляд на развитие ребенка.

Хорошее понимание различные типы интеллекта обеспечивают более широкое понимание интеллекта, предполагая, что существует множество возможностей и возможностей для рост, который мы как общество еще не изучили полностью.Кроме того, разве не приятно знайте, что даже если вы совершенно бесполезны в математике, это не обязательно значит, что ты не умный!

Вы можете лучше понять многие аспекты человеческого опыта, изучая психологию. SACAP предлагает ряд курсов, которые могут проложить путь к карьере психолога, одновременно развивая навыки, которые окажутся ценными во множестве других карьерных путей. Для получения дополнительной информации спрашивайте сейчас.

Блог FAQ

Какие типы интеллекта?

Существует девять различных типов интеллекта.Это: натуралистический, музыкальный, логико-математический, экзистенциальный, межличностный, лингвистический, телесно-кинестетический, внутриличностный и пространственный интеллект.

9 типов интеллекта

Девять типов интеллекта:

Натуралистический, музыкальный, логико-математический, экзистенциальный, межличностный, лингвистический, телесно-кинестетический, внутриличностный и пространственный интеллект.

Какие есть смарты?

Есть девять видов смартов:

Натуралистический, музыкальный, логико-математический, экзистенциальный, межличностный, лингвистический, телесно-кинестетический, внутриличностный и пространственный интеллект.

Какой тип интеллекта самый важный?

Хотя некоторые типы интеллекта обычно более признаны, а иногда даже более ценны, в действительности ни один тип интеллекта не лучше другого.

Вместо этого более важно знать, какой у вас интеллект. Это может помочь вам максимизировать присущие вам преимущества и выделить область, в которой вам, возможно, потребуется немного упорства, чтобы добиться успеха.

Могут ли оскорбительные отношения вызвать посттравматическое стрессовое расстройство?

Как использовать позитивный разговор с самим собой, чтобы вести лучшую жизнь

9 типов интеллекта — Инфографика

Эта инфографика показывает, что хорошее знание математики или языков — не единственные два способа быть умным.