[ad_1]
Присоединяйтесь к лидерам в Бостоне 27 марта на эксклюзивном вечере общения, идей и бесед. Запросите приглашение здесь.
Генеративный ИИ, несомненно, красноречив, создавая контент, который кажется информативным, часто убедительным и очень выразительным.
Учитывая, что свобода выражения мнений является фундаментальным правом человека, некоторые эксперты по правовым вопросам в США провокационно заявляют, что результаты большой языковой модели (LLM) защищены Первой поправкой, а это означает, что даже потенциально очень опасные поколения будут вне цензуры и государственного контроля.
Но Питер Салиб, доцент права Юридического центра Университета Хьюстона, надеется изменить эту позицию — он предупреждает, что ИИ необходимо должным образом регулировать, чтобы предотвратить потенциально катастрофические последствия. Его работа в этой области будет опубликована в обзоре юридического факультета Вашингтонского университета позднее в этом году.
«Защищенная речь — это священная конституционная категория», — сказал Салиб VentureBeat, приводя гипотетический пример новой, более совершенной программы OpenAI LLM. «Если результаты GPT-5 (или других моделей) действительно являются защищенной речью, это будет весьма серьезно для нашей способности регулировать эти системы».
Аргументы в пользу защищенной речи ИИ
Почти год назад журналист-юрист Бенджамин Уиттс написал, что «(мы) создали первые машины с правами Первой поправки».
ChatGPT и подобные системы «несомненно выразительны» и создают выходные данные, которые «несомненно являются речью», утверждает он. Они генерируют контент, изображения и текст, ведут диалог с людьми и отстаивают свое мнение.
«Когда эти материалы создаются людьми, Первая поправка применяется ко всем этим материалам», — утверждает он. Да, эти результаты являются «производными другого содержания» и не являются оригинальными, но «у многих людей никогда не было оригинальной мысли».
И, отмечает он, «Первая поправка не защищает оригинальность. Это защищает самовыражение».
Другие ученые начинают соглашаться, отмечает Салиб, поскольку результаты генеративного ИИ «настолько похожи на речь, что, должно быть, это чья-то защищенная речь».
Это заставляет некоторых утверждать, что материал, который они генерируют, является защищенной речью их программистов-людей. С другой стороны, другие считают, что результаты ИИ — это защищенная речь их корпоративных владельцев (например, ChatGPT), обладающих правами Первой поправки.
Однако Салиб утверждает: «Результаты ИИ не являются сообщениями какого-либо оратора, обладающего правами Первой поправки. Результаты искусственного интеллекта не являются выражением какого-либо человеческого фактора».
Результаты становятся все более опасными
ИИ быстро развивается и становится на несколько порядков более функциональным, лучше справляется с более широким спектром задач и используется более агентным, автономным и открытым способом.
«Возможности наиболее эффективных систем искусственного интеллекта развиваются очень быстро — это создает риски и проблемы», — сказал Салиб, который также является советником по законодательству и политике в Центре безопасности искусственного интеллекта.
Он отметил, что поколение ИИ уже может изобрести новое химическое оружие, более смертоносное, чем VX (один из самых токсичных нервно-паралитических агентов), и помочь злонамеренным людям синтезировать его; помощь непрограммистам во взломе жизненно важной инфраструктуры; и играть в «сложные игры манипуляции».
Тот факт, что ChatGPT и другие системы могут, например, прямо сейчас помочь пользователю-человеку синтезировать цианид, указывает на то, что его можно заставить сделать что-то еще более опасное, отметил он.
«Существуют убедительные эмпирические доказательства того, что генеративные системы искусственного интеллекта в ближайшем будущем будут представлять серьезный риск для человеческой жизни, здоровья и свободы», — пишет Салиб в своей 77-страничной статье.
Это может включать в себя биотерроризм и производство «новых пандемических вирусов», а также атаки на критически важную инфраструктуру — ИИ может даже совершать полностью автоматизированные политические убийства с помощью дронов, утверждает Салиб.
ИИ говорит, но это не человеческая речь
Мировые лидеры осознают эти опасности и стремятся принять правила, касающиеся безопасного и этичного ИИ. Идея состоит в том, что эти законы потребуют от систем отказаться делать опасные вещи или запретить людям публиковать результаты своей деятельности, что в конечном итоге «накажет» модели или компании, производящие их.
Со стороны это может выглядеть как законы, которые подвергают цензуре речь, отметил Салиб, поскольку ChatGPT и другие модели генерируют контент, который, несомненно, является «речевым».
Если речь ИИ будет защищена и правительство США попытается ее регулировать, этим законам придется устранить чрезвычайно серьезные препятствия, подкрепленные наиболее убедительными национальными интересами.
Например, сказал Салиб, кто-то может свободно утверждать: «Чтобы установить диктатуру пролетариата, правительство должно быть свергнуто силой». Но их нельзя наказать, если они не призывают к нарушению закона, которое одновременно «неизбежно» и «вероятно» (тест на неминуемое беззаконие).
Это будет означать, что регулирующие органы не смогут регулировать ChatGPT или OpenAI, если только это не приведет к «неминуемой крупномасштабной катастрофе».
«Если результаты ИИ лучше всего понимать как защищенную речь, то законы, регулирующие их напрямую, даже в целях обеспечения безопасности, должны будут соответствовать самым строгим конституционным критериям», — пишет Салиб.
AI отличается от других программных продуктов
Очевидно, что результаты работы некоторых программ являются выражением их создателей. Например, дизайнер видеоигр имеет в виду конкретные идеи, которые он хочет реализовать с помощью программного обеспечения. Или пользователь, вводящий что-то в Твиттер, хочет общаться своим голосом.
Но поколение ИИ совершенно другое как концептуально, так и технически, — сказал Салиб.
«Люди, создающие GPT-5, не пытаются создать программное обеспечение, которое что-то говорит; они создают программное обеспечение, которое говорит что угодно», — сказал Салиб. Они стремятся «передать все сообщения, включая миллионы, миллионы и миллионы идей, о которых они никогда не думали».
Пользователи задают открытые вопросы, чтобы модели дали ответы, которых они еще не знали или не содержали.
«Вот почему это не человеческая речь», — сказал Салиб. Таким образом, ИИ не относится к «самой священной категории, которая получает максимальную конституционную защиту».
Продолжая исследовать территорию искусственного общего интеллекта (AGI), некоторые начинают утверждать, что результаты ИИ принадлежат самим системам.
«Может быть, и так — эти штуки очень автономны», — признал Салиб.
Но даже несмотря на то, что они занимаются «речевыми делами независимо от людей», этого недостаточно, чтобы дать им права Первой поправки в соответствии с Конституцией США.
«В мире есть много разумных существ, у которых нет прав Первой поправки», — отметил Салиб, — скажем, бельгийцы или бурундуки.
«Нечеловеческие ИИ могут когда-нибудь присоединиться к сообществу правообладателей Первой поправки», — пишет Салиб. «Но на данный момент они, как и большинство людей, говорящих на планете, остаются за ее пределами».
Это корпоративная речь?
Корпорации тоже не люди, но у них есть право на свободу слова. Это потому, что они «производны от прав людей, которые их составляют». Это распространяется только в той степени, в которой это необходимо для предотвращения потери защищенной в противном случае речи от потери этой защиты при контакте с корпорациями.
«Мой аргумент заключается в том, что корпоративные права на свободу слова паразитируют на правах людей, составляющих корпорацию», — сказал Салиб.
Например, людям, обладающим правами Первой поправки, иногда приходится использовать корпорацию, чтобы говорить — например, автору нужен Random House, чтобы опубликовать свою книгу.
«Но если LLM вообще не создает защищенную речь, то не имеет смысла, что она становится защищенной речью, когда она покупается или передается через корпорацию», — сказал Салиб.
Регулирование результатов, а не процесса
По мнению Салиба, лучший способ снизить риски в будущем — это регулировать сами результаты ИИ.
Хотя некоторые могут сказать, что решение состоит в том, чтобы в первую очередь предотвратить выработку неверных результатов системами, это просто неосуществимо. LLM нельзя помешать создавать результаты из-за самопрограммирования, «неинтерпретируемости» и общности — это означает, что они в значительной степени непредсказуемы для людей, даже с помощью таких методов, как обучение с подкреплением с обратной связью от человека (RLHF).
«Поэтому в настоящее время нет возможности написать юридические правила, гарантирующие безопасный код», — пишет Салиб.
Вместо этого успешные правила безопасности ИИ должны включать правила о том, что моделям разрешено «говорить». Правила могут быть разными — например, если продукция ИИ часто бывает очень опасной, законы могут требовать, чтобы модель оставалась невыпущенной «или даже уничтожалась». Или, если результаты были лишь умеренно опасными и случайными, могло бы применяться правило ответственности за каждый результат.
Все это, в свою очередь, даст компаниям, занимающимся искусственным интеллектом, более сильные стимулы инвестировать в исследования в области безопасности и строгие протоколы.
Как бы это в конечном итоге ни приняло форму, «должны быть разработаны законы, предотвращающие обман людей, причинение им вреда или убийство», подчеркнул Салиб.
[ad_2]
Источник