[ad_1]
Недавняя сага Сэма Альтмана о занятости и предположения о новаторской модели Q* OpenAI возобновили общественный интерес к возможностям и рискам общего искусственного интеллекта (AGI).
AGI мог бы учиться и выполнять интеллектуальные задачи так же, как люди. Стремительные достижения в области ИИ, особенно в области глубокого обучения, вызвали оптимизм и опасения по поводу появления ОИИ. Несколько компаний, в том числе OpenAI и xAI Илона Маска, стремятся развивать AGI. Возникает вопрос: ведут ли нынешние разработки ИИ к AGI?
Возможно нет.
Ограничения глубокого обучения
Глубокое обучение, метод машинного обучения (ML), основанный на искусственных нейронных сетях, используется в ChatGPT и большей части современного искусственного интеллекта. Он приобрел популярность благодаря своей способности обрабатывать различные типы данных и уменьшению необходимости предварительной обработки, а также другим преимуществам. Многие считают, что глубокое обучение будет продолжать развиваться и играть решающую роль в достижении ОИИ.
Однако глубокое обучение имеет ограничения. Для создания моделей, отражающих данные обучения, требуются большие наборы данных и дорогостоящие вычислительные ресурсы. Эти модели выводят статистические правила, отражающие явления реального мира. Эти правила затем применяются к текущим реальным данным для генерации ответов.
Таким образом, методы глубокого обучения следуют логике, ориентированной на прогнозирование; они заново выводят обновленные правила, когда наблюдаются новые явления. Чувствительность этих правил к неопределенности мира природы делает их менее подходящими для реализации ОИИ. Крушение круизного роботакси в июне 2022 года можно объяснить тем, что транспортное средство попало в новую ситуацию, к которой у него не было подготовки, что сделало его неспособным принимать решения с уверенностью.
Загадка «что, если»
Люди, модели AGI, не создают исчерпывающих правил для реальных событий. Люди обычно взаимодействуют с миром, воспринимая его в режиме реального времени, полагаясь на существующие представления, чтобы понять ситуацию, контекст и любые другие случайные факторы, которые могут повлиять на решения. Вместо того, чтобы создавать правила для каждого нового явления, мы переназначаем существующие правила и модифицируем их по мере необходимости для эффективного принятия решений.
Например, если вы идете по лесной тропе и встречаете на земле цилиндрический объект и хотите принять решение о своем следующем шаге с помощью глубокого обучения, вам необходимо собрать информацию о различных характеристиках цилиндрического объекта и классифицировать его как потенциальный угроза (змея) или неопасность (веревка) и действие на основе этой классификации.
И наоборот, человек, скорее всего, начнет оценивать объект на расстоянии, постоянно обновлять информацию и выбирать устойчивое решение, основанное на «распределении» действий, которые оказались эффективными в предыдущих аналогичных ситуациях. Этот подход фокусируется на характеристике альтернативных действий в отношении желаемых результатов, а не на предсказании будущего — тонкое, но отличительное отличие.
Достижение AGI может потребовать отхода от прогнозных выводов к усилению индуктивного «а что, если…?» потенциал, когда прогноз невозможен.
Принятие решений в условиях глубокой неопределенности – путь вперед?
Методы принятия решений в условиях глубокой неопределенности (DMDU), такие как надежное принятие решений, могут обеспечить концептуальную основу для реализации рассуждений AGI о выборе. Методы DMDU анализируют уязвимость потенциальных альтернативных решений в различных будущих сценариях, не требуя постоянного переобучения на новых данных. Они оценивают решения, выявляя критические факторы, общие для тех действий, которые не соответствуют заранее определенным критериям результата.
Цель состоит в том, чтобы определить решения, которые демонстрируют надежность — способность хорошо работать в различных вариантах будущего. В то время как многие подходы к глубокому обучению отдают приоритет оптимизированным решениям, которые могут потерпеть неудачу при столкновении с непредвиденными проблемами (например, оптимизированные системы поставок «точно в срок» перед лицом COVID-19), методы DMDU отдают предпочтение надежным альтернативам, которые могут обменять оптимальность на способность добиться приемлемых результатов во многих средах. Методы DMDU предлагают ценную концептуальную основу для разработки ИИ, способного справляться с неопределенностями реального мира.
Разработка полностью автономного транспортного средства (АВ) могла бы продемонстрировать применение предлагаемой методологии. Задача заключается в том, чтобы ориентироваться в разнообразных и непредсказуемых условиях реального мира, имитируя таким образом человеческие навыки принятия решений во время вождения. Несмотря на значительные инвестиции автомобильных компаний в использование глубокого обучения для полной автономии, эти модели часто испытывают трудности в неопределенных ситуациях. Из-за непрактичности моделирования всех возможных сценариев и учета сбоев решение непредвиденных проблем в разработке AV продолжается.
Надежное решение
Одно из потенциальных решений предполагает принятие надежного подхода к принятию решений. AV-датчики будут собирать данные в режиме реального времени для оценки целесообразности различных решений — таких как ускорение, смена полосы движения, торможение — в рамках конкретного сценария дорожного движения.
Если критические факторы вызывают сомнения в алгоритмическом механическом реагировании, система оценивает уязвимость альтернативных решений в данном контексте. Это уменьшит насущную потребность в переобучении на массивных наборах данных и будет способствовать адаптации к реальным неопределенностям. Такой сдвиг парадигмы может повысить производительность AV, перенаправив фокус с достижения идеальных прогнозов на оценку ограниченных решений, которые AV должен принять для работы.
Контекст принятия решений будет способствовать развитию AGI
По мере развития ИИ нам, возможно, придется отойти от парадигмы глубокого обучения и подчеркнуть важность контекста принятия решений для продвижения к AGI. Глубокое обучение оказалось успешным во многих приложениях, но имеет недостатки при реализации AGI.
Методы DMDU могут обеспечить начальную основу для поворота современной парадигмы ИИ к надежным, управляемым решениями методам ИИ, которые могут справляться с неопределенностями в реальном мире.
Сваптик Чоудхури — доктор философии. студент аспирантуры Парди РЭНД и помощник исследователя политики в некоммерческой, беспартийной корпорации РЭНД.
Стивен Поппер — старший экономист RAND Corporation и профессор наук о принятии решений в Технологическом университете Монтеррея.
[ad_2]
Источник