- Apple объявила о планах поддержки управления коммутатором для компьютерных интерфейсов мозга
- Инструмент будет создавать такие устройства, как iPhone и Vision Pro гарнитуры для людей с условиями как доступные
- В сочетании с функцией личного языка, управляемой Apple, интерфейсы компьютеров мозга могут позволить людям думать о словах и слышать их в синтетической версии своего голоса
Наши смартфоны и другие устройства являются ключом к многим личным и профессиональным задачам в течение дня. Использование этих устройств может быть трудным или совершенно невозможным для тех, у кого есть и другие условия. Apple считает, что у него есть возможное решение: подумайте. В частности, компьютерный интерфейс мозга (BCI), созданный с помощью австралийского нейротехнологического стартапа Synchronous, который может обеспечить свободные, контролируемые мысли версии операционных систем для iPhone, iPad и Pro Hearset Vision.
Мозговой имплантат для проверки вашего телефона может показаться экстремальным, но это может быть ключом для людей с серьезными травмами спинного мозга или связанными с ними травмами, чтобы справиться с миром. Apple поддерживает контроль переключателя для тех, у кого имплантат, который встроен рядом с корой двигателя мозга. Имплантат поглощает электрические сигналы мозга, когда человек думает о движении. Он переводит эту электрическую активность и приводит ее к программному обеспечению управления коммутатором из Apple, с цифровыми действиями, такими как выбор символов на экране или навигация виртуальной среды.
Мозговые имплантаты, ай
Конечно, для системы все еще рано. Это может быть медленно по сравнению с стуком, и для разработчиков требуется время, чтобы создать лучшие инструменты BCI. Но скорость в данный момент не является главной. Дело в том, что люди могли использовать мозговой имплантат и iPhone, чтобы взаимодействовать с миром, из которого они были заперты.
Возможности еще больше, когда вы изучите, как вы можете сопоставить с созданным ИИ клонами личного языка. Личная языковая функция Apple позволяет пользователям записывать пример своего собственного языка, чтобы, если они теряют свои способности говорить, они могут создать синтетический язык, который все еще звучит как они. Это не совсем нельзя отличать от реальной вещи, но он жесткий и гораздо более человечный, чем подражание роботам, что знакомо из старых фильмов и телевизионных программ.
Эти голоса в настоящее время запускаются путем прикосновения, отслеживания глаз или другой технологии помощи. Но с интеграцией BCI те же люди смогли «думать» свой голос. Вы могли бы говорить только намерением говорить, и система сделает все остальное. Представьте, что кто -то не только перемещает свой iPhone с мыслями, но и снова говорит об одном и том же устройстве, «введя» операторы для вашего клона с синтетическим языком.
Хотя невероятно, что мозговой имплантат может контролировать кого -то своим умом, ИИ может подвести его на другой уровень. Это не только поможет людям использовать технологии, но и в цифровом мире.