Генеральный директор OpenAI Сэм Альтман подтвердил на этой неделе, что компания создает совершенно новое устройство, ориентированное на искусственный интеллект. Он говорит, что это будет резко контрастировать с беспорядком и хаосом наших телефонов и приложений. Фактически, он сравнил это использование с «сидением в самой красивой хижине на берегу озера или в горах и просто наслаждаясь тишиной и покоем». Но понимание вас в контексте и анализ ваших привычек, настроений и распорядка дня кажется более близким, чем большинство людей чувствуют со своими близкими, не говоря уже о каком-то оборудовании.
Его изображение затмевает совершенно иную реальность. Устройство, которое постоянно следит за вашей жизнью, фиксируя подробности о том, где вы находитесь, что делаете, как разговариваете и другие удушающие звуки. Если электронный наблюдатель улавливает каждый нюанс вашего поведения и адаптируется к вашей жизни, это может звучать нормально, пока вы не вспомните, через что проходят эти данные, чтобы обеспечить анализ.
Назвать устройство успокаивающим — это все равно, что закрыть глаза и надеяться, что вы невидимы. Это наблюдение, добровольное, но всеобъемлющее. Обещание спокойствия кажется умным предлогом, чтобы отказаться от приватности и того хуже. Круглосуточная осведомленность о контексте не равна миру.
ИИ смотрит на тебя
Уединение и покой основаны на чувстве безопасности. Устройство, которое утверждает, что успокаивает меня, растворяя эти границы, просто делает меня обнаженным. Аналогия Альтмана с хижиной у озера соблазнительна. Кто не мечтал избежать постоянного звона уведомлений, мигающей рекламы и алгоритмического хаоса современных приложений, уйти от всего этого и найти спокойное убежище? Но спокойствие, основанное на постоянном наблюдении, — иллюзия.
Это не просто бессмысленный скептицизм. Здесь кроется глубоко укоренившийся парадокс. Чем более контекстно-зависимым и отзывчивым становится это устройство, тем больше оно знает о вас. Чем больше он знает, тем выше вероятность взлома.
Версия спокойствия, которую пытается продать нам Альтман, опирается на неопределенную осмотрительность. Мы должны доверять все наши данные нужным людям и быть уверенными, что алгоритм и стоящая за ним компания всегда будут относиться к нашим личным данным с уважением и заботой. Мы должны верить, что они никогда не будут использовать данные в качестве рычага и никогда не будут использовать их, чтобы влиять на наши мысли, наши решения, нашу политику, наши покупательские привычки, наши отношения.
Это большой вопрос, даже если не рассматривать историю Альтмана с правами интеллектуальной собственности.
Смотри и бери
Альтман неоднократно защищал использование произведений, защищенных авторским правом, для обучения без разрешения или компенсации создателям. В интервью 2023 года он признал, что модели ИИ «поглощали работу со всего Интернета», включая материалы, защищенные авторским правом, без явного разрешения, и просто поглощали их в массовом порядке в качестве обучающих данных. Он пытался изобразить это как проблему, которую можно будет решить только «как только мы найдем какую-то экономическую модель, которая будет работать для людей». Он признал, что многие креативщики были расстроены, но лишь туманно пообещал, что однажды может быть что-то лучше.
Он сказал, что было бы «круто» дать создателям возможность зарегистрироваться и получать долю от продаж, если они захотят, но отказался гарантировать, что такая модель когда-либо будет реализована. Если право собственности и согласие являются дополнительными удобствами для создателей, почему к потребителям следует относиться по-другому?
Имейте в виду, что через несколько часов после выхода «Сора 2» была завалена клипами с использованием защищенных авторским правом персонажей и известных франшиз без разрешения, что привело к негативной юридической реакции. Компания быстро изменила курс, объявив, что предоставит правообладателям «более детальный контроль» и перейдет на модель добровольного согласия для образов и персонажей.
Этот разворот может выглядеть как ответственность. Но это также молчаливое признание того, что первоначальный план, по сути, заключался в том, чтобы относиться к творческим усилиям каждого как к бесплатному сырью. Относиться к контенту как к чему-то, что нужно добывать, а не как к чему-то, что нужно уважать.
Когда дело касается как произведений искусства, так и личных данных, идея Альтмана, похоже, заключается в том, что масштабный доступ важнее согласия. Устройство, которое утверждает, что создает спокойствие, устраняя трения и сглаживая вашу цифровую жизнь, означает устройство, которое контролирует эту жизнь. Удобство – это не то же самое, что комфорт.
Я не утверждаю, что все помощники ИИ — злые. Но относиться к ИИ как к набору инструментов — это не то же самое, что делать его доверенным лицом во всех сферах моей жизни. Некоторые могут возразить, что дизайн устройства хорош и в нем предусмотрены реальные меры безопасности. Но этот аргумент предполагает идеальное будущее, управляемое идеальными людьми. История не на нашей стороне.
Устройство, которое Альтман и OpenAI хотят продать, может оказаться отличным решением для самых разных задач, и ради него стоит пойти на компромисс в отношении конфиденциальности, но проясните этот компромисс. Это спокойное озеро с таким же успехом могло бы быть объективом фотоаппарата, но не притворяйтесь, что объектива здесь нет.
Следите за TechRadar в Новостях Google. И Добавьте нас в качестве предпочтительного источника чтобы получать новости, обзоры и мнения наших экспертов в своих лентах. Обязательно нажмите кнопку «Подписаться»!
И ты, конечно, тоже можешь Следите за TechRadar в TikTok за новостями, обзорами, распаковками в видео-форме и получайте от нас регулярные обновления WhatsApp к.
Лучшие бизнес-ноутбуки на любой бюджет

