Voicebuds: Słuchawki z AI do dyktowania szeptem

Coraz częściej porozumiewamy się z wirtualnymi asystentami lub dyktujemy teksty, zamiast prowadzić tradycyjne rozmowy telefoniczne. Ta wygoda ma jednak swoje granice – w ciszy biblioteki nikt nie chce głośno wydawać poleceń, a w pokoju pełnym krzyczących dzieci próba dyktowania maila jest często skazana na porażkę. Na targach CES 2026 startup Subtle zaprezentował swoje rozwiązanie tego problemu: słuchawki Voicebuds, które dzięki specjalnemu modelowi sztucznej inteligencji rozumieją nawet nasz szept i radzą sobie z dyktowaniem w ekstremalnie głośnym otoczeniu.

Jak działa technologia rozpoznająca szept?

Z zewnątrz Voicebudy wyglądają jak typowe bezprzewodowe słuchawki douszne. Kluczowa różnica kryje się w ich wnętrzu, gdzie pracuje wyspecjalizowany system AI zaprojektowany przez firmę Subtle. Jego głównym zadaniem jest niezwykle precyzyjne przekształcanie mowy na tekst, niezależnie od warunków akustycznych. Technologia ta stanowi odpowiedź na rosnące zapotrzebowanie na dyskretną i niezawodną asystencję głosową w każdej sytuacji.

Dyktowanie w ekstremalnych warunkach

Model AI opracowany przez Subtle został wytrenowany do radzenia sobie z dwoma skrajnościami. Po pierwsze, potrafi przechwytywać i interpretować dźwięk wypowiadany poniżej poziomu szeptu. Po drugie, jego zaawansowane algorytmy są w stanie skutecznie izolować ludzką mowę od dominującego hałasu w tle, takiego jak gwar targowy czy głośna muzyka. Dzięki temu użytkownik nie musi podnosić głosu, aby zostać zrozumianym przez urządzenie.

Konkurencja na rynku i deklarowana przewaga

Na rynku pojawiały się już podobne koncepcje, jak pierścień WHSP pokazywany wcześniej na CES czy inne inteligentne słuchawki, np. Notebuds One. Subtle twierdzi jednak, że ich produkt oferuje znacząco wyższą dokładność. Według deklaracji firmy, Voicebuds generują nawet pięciokrotnie mniej błędów w transkrypcji niż najnowsze AirPods Pro 3 wykorzystujące technologię OpenAI. Taka skuteczność miałaby wynikać z zastosowania uczenia maszynowego działającego bezpośrednio na urządzeniu (on-device ML).

Cena, subskrypcja i możliwości

Słuchawki Voicebuds mają kosztować 199 dolarów, co plasuje je w podobnej kategorii cenowej co flagowe modele od Apple. Produktowi towarzyszy jednak model biznesowy znany z wielu nowych urządzeń – część zaawansowanych funkcji jest dostępna w ramach płatnej subskrypcji. Kupujący otrzymuje roczny dostęp do premium w aplikacji Subtle na iOS (wersja na Androida na razie nie istnieje), a po tym czasie musi uiścić opłatę w wysokości 17 dolarów miesięcznie.

Co oferuje subskrypcja premium?

Do funkcji wymagających aktywnej subskrypcji należą przede wszystkim natychmiastowe dyktowanie oraz możliwość transkrybowania notatek bez konieczności patrzenia na telefon. Bez opłaty słuchawki nadal działają jako zwykłe słuchawki do odsłuchu i rozmów, a ich główna przewaga – czyli ulepszona, lokalna transkrypcja głosu – pozostaje aktywna. W aplikacji firma planuje także zintegrować własnego asystenta AI, ponieważ Voicebuds nie obsługują natywnego polecenia „Hey Siri” z powodu braku specjalistycznego chipa Apple.

Pierwsze wrażenia i perspektywy

Podczas zdalnej demonstracji prezes Subtle, Tyler Chen, zaprezentował działanie słuchawek w trudnych warunkach. Dyktował tekst przy głośnej muzyce, a także szeptem – tak cicho, że obserwatorzy nie byli w stanie usłyszeć jego słów przez czat wideo, podczas gdy transkrypcja przebiegała poprawnie. Oprócz funkcji AI, Voicebuds wyposażono też w aktywne tłumienie hałasu (ANC) i zestaw wielu mikrofonów.

Wyzwania dla start-upu

Eksperci zwracają uwagę, że młodemu start-upowi może być trudno konkurować pod względem czystej jakości dźwięku muzycznego czy dopracowania ANC z gigantami takimi jak Apple czy Sony, którzy mają wieloletnie doświadczenie w audio. Główną bronią Subtle ma być więc nie audio rozrywkowe, lecz przełomowa funkcjonalność związana z rozpoznawaniem mowy. Dla osób przyzwyczajonych do ekosystemu Apple i niezawodnego działania „Hey Siri”, przejście na Voicebuds wymagałoby istotnej przewagi w obszarze, dla którego są one projektowane – czyli w codziennym, wygodnym dyktowaniu i wydawaniu poleceń głosowych w każdym miejscu.

Jako osoba praktycznie nierozłączna z moimi AirPods Pro, głównie dlatego, że tak dobrze radzą sobie z poleceniami głosowymi dla Siri, zastąpiłby je tylko naprawdę przełomowy produkt – komentuje autor relacji z demo. – Jeśli transkrypcja Voicebuds jest tak doskonała, jak obiecuje firma, mogą one w końcu zasłużyć na miejsce w mojej kieszeni obok słuchawek Apple.

Premiera Voicebuds pokazuje wyraźny trend w rozwoju wearables – integracja wyspecjalizowanej sztucznej inteligencji bezpośrednio w urządzeniach osobistych. Celem nie jest już tylko odtwarzanie muzyki czy prowadzenie rozmów, ale stworzenie intuicyjnego, nieinwazyjnego interfejsu między człowiekiem a cyfrowym światem. Sukces tego produktu będzie zależał od tego, czy obiecująca technologia sprawdzi się w rzeczywistym, codziennym użyciu i czy korzyść z dyskretnego dyktowania przekona użytkowników do kolejnej subskrypcji.

Źródło