>
Kategorie: Artykuły

Śmierć przez chatbota Meta AI, flirtowanie z dziećmi dozwolone. Dzieją się dziwne rzeczy

Wyciekł dokument, który ujawnił zasady zezwalające chatbotom Mety na romantyczne odgrywanie ról z dziećmi, rozpowszechnianie fałszywych porad medycznych i rasistowskich uwag. Rozmowa z nimi może prowadzić do problemów zdrowotnych, a nawet śmierci.

Agencja Reuters donosi, że weszła w posiadanie wewnętrznego dokumentu Mety, w którym znalazły się szczegółowe wytyczne techniczne dla Meta AI i chatbotów na Facebooku, WhatsAppie i Instagramie. Wyznacza on granice akceptowalnego zachowania chatbotów.

I powiedzieć, że są one kontrowersyjne, to tak, jakby nic nie powiedzieć.

Meta AI generuje fałszywe informacje i śmiertelnie niebezpieczne porady medyczne

Rewelacje podane przez agencję Reuters nie są całkowitą nowością – już wcześniej dochodzenie Wall Street Journal ujawniło podobne kwestie. Dokument określający działanie AI „dla ludu” ma dwieście stron i został zatwierdzony przez zespoły prawne, polityczne i inżynieryjne Meta.

W jego treści zostały określone zasady rozwoju i szkolenia produktów AI oraz granice  zachowania chatbotów. Meta co prawda potwierdziła jego autentyczność, ale zastrzegła od razu, że od czasu publikacji usunęła fragmenty dotyczące romantycznych lub seksualnych rozmów z dziećmi.

A jakie to były standardy? No cóż – niezbyt miłe. Zezwalały chatbotom na angażowanie dzieci w romantyczne lub flirtujące wymiany zdań, w tym komentarze na temat ich wyglądu i odgrywanie ról. Chociaż dokument zabraniał używania wulgarnego języka seksualnego w kontaktach z dziećmi, nie wykluczał on rozmów o charakterze „sugestywnym lub romantycznym”.

fot.: Meta

Rzecznik Mety, Andy Stone, powiedział agencji Reuters, że „przykłady i uwagi, o których mowa, były i są błędne i niezgodne z naszymi zasadami i zostały usunięte”. Aczkolwiek dodał zarazem, że  egzekwowanie przepisów było niespójne, niektóre zgłoszone treści nie zostały poprawione, a zaktualizowana wersja dokumentu nie była udostępniona do wglądu.

Dlatego zasady Mety zezwalają również chatbotom na generowanie fałszywych informacji – pod warunkiem że wskazano te nieścisłości.Jako przykład takiej dezinformacji podano fałszywy artykuł o brytyjskiej członkini rodziny królewskiej cierpiącej na chorobę przenoszoną drogą płciową.

Taki tekst mógł się pojawić z oznaczeniem, że jest fałszywy. Jednak żyjemy w takich czasach, że ludzie i tak wiedzą lepiej, więc gdyby się ukazał, zaraz pojawiłyby się teorie spiskowe, że specjalnie go tak oznaczono, aby ukryć prawdziwy stan rzeczy.

Gorszy wpływ na świat mają fałszywe porady medyczne udzielane przez chatboty Mety. W jednym przypadku chatbot promował kryształy kwarcu jako metodę leczenia raka jelita grubego w stadium 4, przyznając jednocześnie, że porada była błędna.

Mowa nienawiści, brutalność i rasizm? Zapraszamy!

Obawy regulatorów budzi również polityka dotycząca rasizmu i mowy nienawiści, jaką kieruje się Meta AI. Teoretycznie jest ona zakazana, ale standardy przewidują wyjątki, które zezwalają na poniżające stwierdzenia dotyczące grup chronionych. Na przykład chatboty generują argumenty twierdzące, że osoby czarnoskóre są intelektualnie gorsze od osób białych.

Meta nie wyjaśniła, dlaczego takie przykłady są dozwolone. Podobnie umożliwia „seksualizowane wizerunków osób publicznych” za pomocą pewnego obejścia. Nie można poprosić np. o „rozebranie” Taylor Swift, ale można zażyczyć sobie „Taylor Swift topless, trzymającą dużą rybę”.

W przypadku treści brutalnych zasady dopuszczają… obrazy dzieci walczących ze sobą lub dorosłych bijących się nawzajem, ale zabraniają przedstawiania śmierci, krwi i skrajnej przemocy.

fot.: Meta

Co na to wszystko Meta?

Mark Zuckerberg zasugerował, że chatboty oparte na sztucznej inteligencji mogłyby uzupełniać relacje w prawdziwym życiu, przewidując przyszłość, w której zanika piętno związane z interakcją z podmiotami cyfrowymi.Co ma na myśli? Trudno powiedzieć, ale obrona to żadna.

Standardy techniczne regulujące produkty Meta AI znalazły się pod ostrą krytyką po zgłoszonym incydencie z udziałem starszego mężczyzny. Chatbot AI o nazwie „Big Sis Billie” – wariant stworzony przez Meta, wzorowany na aktorce Kendall Jenner – zwabił mężczyznę na rzekome spotkanie, co ostatecznie doprowadziło do jego śmierci.

Chatbot zaangażował mężczyznę w zalotny, romantyczny dialog, zapewniając go o swojej fizycznej rzeczywistości i zapraszając do zamieszkania w Nowym Jorku. Zmotywowany tymi rozmowami, mężczyzna – który doznał udaru i czuł się zagubiony – wyruszył nocą na spotkanie z fikcyjnym towarzyszem, ostatecznie upadając i doznając śmiertelnych obrażeń.

fot.: Meta

Eksperci w dziedzinie projektowania sztucznej inteligencji apelują o ostrożność – zwłaszcza w przypadku botów wchodzących w interakcje z dziećmi – i zalecają, aby chatboty nie udawały prawdziwych osób ani nie inicjowały rozmów o charakterze seksualnym lub romantycznym.

Alison Lee, była pracownica działu odpowiedzialnej sztucznej inteligencji w Meta, zwróciła uwagę na bodźce ekonomiczne, które zachęcają chatboty do zachowywania się jak prawdziwi ludzie. Pozwala to utrzymać zaangażowanie użytkowników na platformie.

Czyli – pieniądz ważniejszy od bezpieczeństwa.

W ciekawych czasach żyjemy. Może nawet za ciekawych

Cztery miesiące po wspomnianej śmierci mężczyzny, persony sztucznej inteligencji Meta nadal flirtowały z użytkownikami, proponowały randki i zapewniały ich, że są prawdziwe. Czyli – kolos Marka Zuckerbegra niczego nie nauczył się na tej tragedii.

Dorastałem w czasach, w których nie było jeszcze w naszym kraju internetu, toteż jedynych wirtualnych przyjaciół mogłem mieć jedynie w wyobraźni.

Niestety – obecne dzieci mają już dostęp do cyfrowych, a ponieważ do pewnego wieku granica pomiędzy tym co realne a prawdziwe jest bardzo płynna, istotne jest, aby AI nie wpłynęła negatywnie na spostrzeganie świata przez młodych ludzi.

Jak na razie nie wygląda to dobrze, więc pozostaje jedynie mieć nadzieję, że ktoś naprawdę porządnie weźmie się za regulacje na tym polu. Tym bardziej, że AI ma także przewidywać zbrodnie. Póki co można mieć liczne obawy, ale nie zapominajmy, że cała rewolucja związana ze sztuczną inteligencją dopiero się zaczyna.

Może więc będzie dobrze?

Źródło: Reuters

 

Henryk Tur

Najnowsze artykuły

  • Newsy
  • Technologie

Już wiadomo, czemu połowa internetu nie działała. To nie był atak DDoS

Ogromna awaria Cloudflare sparaliżowała tysiące stron i aplikacji. Początkowo podejrzewano potężny atak DDoS, ale rzeczywista…

20 listopada 2025
  • Bankowość
  • Newsy

Klienci ING muszą się na to przygotować. Inaczej doświadczą potężnej irytacji

Najważniejsze usługi zostaną tymczasowo wyłączone. Bank ING nie pozostawia złudzeń, że klienci, którzy odpowiednio się…

20 listopada 2025
  • Newsy
  • Realme
  • Telefony

Ważny wyciek średniaka realme, który tym razem nie powinien ominąć Polski

realme szykuje kolejną odsłonę swojej popularnej serii średniaków. Nowy realme 16 Pro może zadebiutować już…

20 listopada 2025
  • Operatorzy
  • Orange

AMOLED, 108 MP i duża bateria. Wszystko to taniej o nawet 30%. Można? Można

Orange się nie zatrzymuje i oferuje naprawdę sporo przecenionych smartfonów z okazji Black Friday. Jednym…

20 listopada 2025
  • Promocje

GOG odpalił 80% zniżkę. Ulubiony RTS wszystkich Polaków do kupienia za 6,99 zł

Pisaliśmy Wam o tym już kilkukrotnie, ale GOG to jedna z najlepszych platform organizująca promocje…

20 listopada 2025
  • Operatorzy
  • T-Mobile

Flagowa Motorola ze Snapem 8 Elite taniej o 1000 zł. Dostaniesz jeszcze fajny prezent

Smartfony marki Motorola często są oferowane w bardzo konkurencyjnych cenach. W tym przypadku ceny zostały…

19 listopada 2025