[ad_1]
В пятницу Google официально извинился за смущающие и неточные изображения, созданные с помощью нового инструмента Gemini AI. Извинения последовали после того, как пользователи отметили проблемы с Gemini, создающими антиисторические и расово разнообразные изображения для конкретных подсказок о таких группах, как нацистские солдаты и отцы-основатели США.
В своем блоге старший вице-президент Google Прабхакар Рагхаван назвал некоторые изображения «неточными или даже оскорбительными», признав, что компания «не попала в цель».
Рагхаван объяснил, что Google стремился избежать предвзятости, гарантируя, что ИИ будет предлагать широкий круг людей для открытых подсказок. Однако в конкретных исторических контекстах результаты должны точно отражать суть вопроса.
«Если вы попросите фотографию футболистов или кого-то, кто выгуливает собаку, вы, возможно, захотите получить самых разных людей», — объяснил Рагхаван. «Вероятно, вы не хотите просто получать изображения людей только одной этнической принадлежности».
«Однако, если вы предложите Близнецам изображения определенного типа людей… или людей в определенном культурном или историческом контексте, вы обязательно получите ответ, который точно отражает то, что вы просите», — добавил он.
Предвзятость и разнообразие остаются проблемами для ИИ
Этот выпуск подчеркивает проблемы предвзятости в системах ИИ и то, насколько сложно их подавить. Несколько других систем искусственного интеллекта в прошлом подвергались критике за усиление стереотипов и отсутствие разнообразия. Google, похоже, переусердствовал, стремясь к разнообразию даже в тех исторических контекстах, где оно не имеет особого смысла.
После своего запуска Gemini регулярно публиковал изображения небелых сенаторов США 1800-х годов и расово разнообразных нацистских солдат, вызывая насмешки и обвинения в политкорректности. Критики варьировались от технологических лидеров до деятелей правого толка, которые считают, что Google продвигает идеологию «пробуждения».
В ответ Google в четверг временно приостановил способность Gemini генерировать изображения людей. Компания заявляет, что будет работать над улучшением этой функции, прежде чем перезапустить ее.
Беспорядок с Близнецами обнажает более глубокие проблемы
Споры о Близнецах завершают непростое начало недавних амбиций Google в области искусственного интеллекта. Эта последняя ошибка произошла вскоре после того, как компания столкнулась с негативной реакцией из-за постановочного рекламного видеоролика, в котором преувеличивались возможности Gemini, а также критики ее предыдущей модели искусственного интеллекта, Google Bard.
Поскольку такие конкуренты, как Microsoft и OpenAI, рвутся вперед в области искусственного интеллекта, Google сейчас изо всех сил пытается утвердить свое видение «Эры Близнецов». Однако быстрая смена запусков продуктов искусственного интеллекта и ребрендинг от Bard до Gemini и их многочисленных версий привели многих потребителей в замешательство.
Недавние неудачи компании в области искусственного интеллекта подчеркивают сложность балансирования исторической точности с разнообразием и репрезентацией. Но они также указывают на более глубокие проблемы в стратегии Google. Компания, которая когда-то лидировала в поиске, теперь изо всех сил пытается создать последовательные и полезные продукты искусственного интеллекта.
Частично это связано с культурой технологий «двигайся быстро и ломай вещи». Google срочно вывел на рынок Gemini и его братьев и сестер, чтобы конкурировать с ChatGPT OpenAI. Но его разрозненный подход, кажется, только усиливает недоверие потребителей. Google должен восстановить доверие с помощью продуманной дорожной карты искусственного интеллекта, а не более бесполезных запусков.
Эта последняя ошибка также обнажает проблемы внутри процесса разработки искусственного интеллекта в Google. Как сообщалось ранее, попытки внедрить этику в ИИ в компании неоднократно заходили в тупик. Google нужны более инклюзивные и разнообразные команды по искусственному интеллекту. И ей нужны лидеры, которые понимают безопасное, а не просто быстрое внедрение мощных технологий.
Если Google не сможет извлечь уроки из своих первых неудачных шагов в эпоху искусственного интеллекта, она рискует отстать еще больше. Пользователям нужна ясность, а не хаос. Беспорядок с Близнецами показывает, что Google потерял контроль как над своим ИИ, так и над обменом сообщениями. Только возврат к основам может восстановить общественное доверие. Будущее ИИ Google вполне может зависеть от этого.
[ad_2]
Источник