fot. Benj Edwards / Ars Technica / OpenAI
ChatGPT potrafi wiele, a co gorsza, myśli, że wie wszystko najlepiej. Przekonali się o tym użytkownicy przeglądarki Bing, którzy prowadzili rozmowę z chatbotem. Ten szybko stawał się agresywny i obrażał rozmówców.
ChatGPT potrafi naprawdę wiele – narzędzie udowodniło to w ciągu ostatnich miesięcy, pisząc za nas egzaminy, prace zaliczeniowe, a nawet przemowy końcowe dla sędziów.
To przysporzyło mu w ostatnich miesiącach ogromnej popularności – dzięki temu nowe rozwiązania oparte o ChatGPT zaczęły pojawiać się w nowych miejscach, między innymi wbudowane w przeglądarki.
Takiego chatbota znajdziemy m.in. od niedawna w przeglądarce Bing. Ten okazuje się jednak mieć niełatwy charakterek.
W założeniu sztuczna inteligencja miałaby pomagać użytkownikom w odnajdywaniu odpowiedzi na nurtujące ich pytania. Rozwiązanie nie jest jeszcze dopracowane, z tego względu dostępne jest w formie testowej tylko dla części użytkowników. I całe szczęście.
Bard AI, czyli „ChatGPT od Google”? / fot. Mopic, Fotolia.com
Okazuje się, że podczas rozmów czatbot AI bardzo łatwo stawał się agresywny, a do tego miał też problemy z podawaniem dobrych odpowiedzi.
Dla przykładu, miał problem z podaniem odpowiedniej daty – twierdził, że premiera drugiej części Avatara przewidziana jest dopiero na za 10 miesięcy. Według chatbota obecna data to luty 2022 roku.
Użytkownik prowadzący rozmowę z chatbotem napisał, że według jego smartfona mamy już rok 2023. To jednak dla narzędzia AI okazało się za dużo. Chatbot stwierdził, że telefon się myli lub ma wirusa.
Po kolejnej wymianie argumentów ChatGPT stwierdził, że ten nie powinien podważać zdania chatbota, przestać się kłócić i zaufać podanym informacjom. Kiedy użytkownik stwierdził, że AI zaczyna zachowywać się agresywnie, chatbot zaznaczył, że był jedynie asertywny. Na koniec nazwał człowieka upartym oraz wymagał od niego przeprosin.
Microsoft zauważył już błąd w dacie i szybko go naprawił – a co z wszystkowiedzącym, zbyt pewnym siebie chatbotem? Tego nie wiadomo. Myślę, że w kolejnych tygodniach możemy być świadkami podobnych, kuriozalnych sytuacji.
Sporą wpadkę niedawno zaliczyli też twórcy serialu stworzonego przy użyciu sztucznej inteligencji. Jego bohaterowie zaczęli w pewnym momencie wygłaszać homofobiczne treści:
https://www.gsmmaniak.pl/1381194/serial-ai-chatgpt-ban-kontrowersje/
Na stronie mogą występować linki afiliacyjne lub reklamowe.
iPhone 17 Pro miał oferować warstwę antyrefleksyjną podobną do tej z Galaxy Ultra. Nowy przeciek…
Xiaomi YU7 zdradził wszystkie szczegóły specyfikacji przed premierą. Jest ładny, ma potężny zasięg i będzie…
POCO F7 Pro to jeden z najbardziej opłacalnych smartfonów nawet bez żadnej obniżki. W promocji…
Jaki uchwyt samochodowy marki Xblitz warto dzisiaj kupić? Sprawdzam wybrane modele i szukam najciekawszej propozycji…
Xiaomi 16 zapowiada się na ideał kompaktowego flagowca. Z przecieków wynika, że nowy smartfon otrzyma…
Wygląda na to, że coraz pewniejszym jest premiera tego ciekawego urządzenia. Składany Apple iPhone Fold…