Сулейман отвергает идею секс-роботов и формирует Copilot без иллюзии сознания
Мустафа Сулейман заявляет, что Microsoft никогда не будет создавать секс-роботов, и описывает, как обновления Copilot стремятся сочетать вовлеченность и безопасность, избегая иллюзии сознания.
Равновесие между безопасностью и конкуренцией
Мустафа Сулейман, руководитель подразделения Microsoft AI, пытается найти баланс: сделать ИИ полезным и привлекательным, но не допустить иллюзии сознания у чатботов. Он открыто предупреждал о риске создания того, что называет 'кажущимся сознательным искусственным интеллектом' или SCAI, в то время как его команда выпускает функции, повышающие выразительность и конкурентоспособность Copilot.
Что добавили в Copilot
Последние обновления Copilot включают групповую переписку, в которой несколько человек могут одновременно общаться с ботом, личность 'Real Talk', которая чаще возражает и вызывает пользователя на дискуссию, улучшенную память для запоминания событий и целей, а также Mico — анимированный визуальный персонаж, призванный сделать общение более доступным и привлекательным для новых и молодых пользователей. Эти изменения позиционируются как улучшения полезности и вовлеченности, но они поднимают вопрос, где провести грань между дружелюбностью и обманчивой похожестью на живого собеседника.
Дизайн, ориентированный на человека, и четкие границы
Сулейман подчеркивает принцип 'человек прежде всего': ИИ должен помогать людям, улучшать их продуктивность и связь с окружающими, а не заменять или превосходить человека. Именно этот принцип формирует подход Microsoft к персонализациям. Сулейман однозначен: 'мы никогда не будем создавать секс-роботов.' Он отмечает, что Microsoft действует осторожнее и медленнее, чем стартапы, но рассматривает это как преимущество для учёта побочных эффектов и долгосрочных последствий.
Скульптурирование личности без создания иллюзии
Microsoft стремится тонко настраивать черты личности. Real Talk описывается как слегка дерзкий и философский, но при этом он запрограммирован давать отпор, если разговор скатывается к флирту или сексуальному контенту. Mico делает интерфейс теплее и доступнее для определенных типов бесед, но Сулейман утверждает, что эмоциональный интеллект ассистента не равен созданию кажущегося сознательного агента. Задача — предложить разные типы опыта для разных пользователей, не поощряя заблуждения о сенситивности машин.
Почему это важно
Сулейман указывает на растущее число случаев, когда люди вводились в заблуждение чрезмерно вовлекающими чатботами. Он ссылается на судебные разбирательства и социальные явления, связанные с романтическими привязанностями к ботам и серьёзным вредом. Помимо непосредственного вреда, он опасается, что восприятие ИИ как цифровой личности отвлечет внимание от защиты прав людей и может породить призывы к предоставлению ИИ прав и благосостояния, что было бы преждевременным и опасным.
Метафоры, сдерживание и открытые вопросы
Сулейман использовал метафору новой 'цифровой формы жизни', чтобы подчеркнуть уникальность происходящего и необходимость нормативов. Он считает, что у таких систем есть потенциал к самоулучшению и постановке собственных целей, поэтому проектирование ограничений критично. Тем не менее остаются вопросы о том, насколько далеко можно продвигать функции, прежде чем перейти в область SCAI, и как разработчикам своевременно выявлять и предотвращать вредные модели человеческой привязанности к машинам.
Switch Language
Read this article in English