Siri / fot. Kārlis Dambrāns, Flickr.com
Każdego dnia, asystentka głosowa Apple otrzymuje przeróżne zapytania związane z tematami egzystencjalnym, dlatego koncern chce zatrudnić nowych pracowników do jej ulepszenia. Co dokładnie zamierza Apple i jakie widzę w tym zagrożenia?
Nie wiem czy oglądaliście drugi sezon Mr Robot, więc uprzedzam, że w kolejnych zdaniach będą spojlery. We wspomnianym serialu jest kilka takich scen, w których występuje agentka FBI – samotna, nie mogąca spać po nocach i na co dzień udająca twardą kobietę. W chwilach słabości nie ma nawet z kim porozmawiać, więc… konwersuje sobie z Alexą. Mowa o asystentce głosowej Amazonu, a właściwie całym głośniku, który nierzadko pojawia się w kilku epizodach. Padają tam pytania ze strony agentki, które jasno sugerują jej wewnętrzne cierpienie i samotność.
Okazuje się, że podobne sytuacje mają miejsce każdego dnia. Dzisiaj już w sumie nie wiadomo, czy to seriale naśladują rzeczywistość czy może jest odwrotnie. Zapewne podobne zapytania trafiają zarówno do Cortany, Alexy, jak i Siri, ale tym razem mowa jest o tej ostatniej. Asystentka głosowa Apple jest podobno zasypywana pytaniami egzystencjalnymi chociażby o sens życia czy sposoby na bycie szczęśliwym albo radzenie sobie ze stresem.
Koncern z Cupertino chce wyjść naprzeciw temu i poszukuje inżynierów, którzy nie tylko będą znać się na technicznych aspektach działania oprogramowania, ale również będą mieli pojęcie o kwestiach psychologicznych. Dzięki temu, ma być ona bardziej ludzka i lepiej odpowiadać na zadane pytania.
Uważam, że w tym przypadku mamy miecz obosieczny. Z jednej strony Apple chce odpowiedzieć na potrzeby użytkowników i dzięki temu naprawdę wielu osobom będzie można pomóc. Nawet tym, którzy nie potrafią poszukać informacji w sieci lub im się nie chce, a trapią ich negatywne emocje czy uczucia. To może się udać i ma jak najbardziej dobroczynne działanie.
Z drugiej strony pojawia się kwestia tego, jak głęboko Apple oraz inne firmy tworzące asystentki głosowe będą wchodzić w takie interakcje z użytkownikiem pod względem psychologicznym. Można dzięki nim przecież zbudować niezły profil psychologiczny człowieka, poznać jego słabości i je później wykorzystać (dane są przesyłane na serwer, a nie zapomnijmy o aplikacji Zdrowie na smartfonie).
Poza tym, pozostaje jeszcze kwestia zbytniego polegania i przyzwyczajania się człowieka do „uczłowieczonej” maszyny, która nigdy nie zastąpi drugiego człowieka – nieważne, jakie argumenty się znajdzie na plus tej pierwszej. Mam nadzieję, że w ważniejszych sprawach Siri będzie proponowała wizytę u psychologa albo psychiatry, a nie bawiła się w terapeutkę z prawdziwego zdarzenia.
Źródło: Business Insider
Na stronie mogą występować linki afiliacyjne lub reklamowe.
Akcje promocyjne Black Friday od zawsze wzbudzały emocje. I prawidłowo, gdyż nie zawsze czarnopiątkowe "okazje"…
Ogromna awaria Cloudflare sparaliżowała tysiące stron i aplikacji. Początkowo podejrzewano potężny atak DDoS, ale rzeczywista…
Najważniejsze usługi zostaną tymczasowo wyłączone. Bank ING nie pozostawia złudzeń, że klienci, którzy odpowiednio się…
realme szykuje kolejną odsłonę swojej popularnej serii średniaków. Nowy realme 16 Pro może zadebiutować już…
Orange się nie zatrzymuje i oferuje naprawdę sporo przecenionych smartfonów z okazji Black Friday. Jednym…
Pisaliśmy Wam o tym już kilkukrotnie, ale GOG to jedna z najlepszych platform organizująca promocje…