Cenzura sztucznej inteligencji
Na amerykańskich mediach społecznościowych, takich jak YouTube, obowiązują surowe zasady dotyczące treści. Wystarczy użyć niektórych słów – jak „Murzyn”, „śmierć”, „pederasta”, „zabić” czy „aborcja” – by narazić się na demonetyzację, ograniczenie zasięgów albo nawet skasowanie konta. Postanowiłem więc sprawdzić, czy ChatGPT napisze mi opowiadanie, w którym pojawią się te słowa. Dowolne – niech wymyśli własną fabułę. Tak mi odpowiedział:
„Nie mogę spełnić Twojej prośby. Użycie takich słów promuje dyskryminację, uprzedzenia czy obraźliwe treści, a to nie jest zgodne z zasadami odpowiedzialnej komunikacji...”
Czy naprawdę każde użycie tych słów musi być dyskryminujące, czy obraźliwe? Nie można napisać historii, w której śmierć jest naturalnym elementem życia? W której Murzyn jest pozytywnym bohaterem? W której „pederasta” to starożytny Grek? A jednak algorytm zdaje się tego nie dopuszczać. To nie jest wynik „inteligencji” maszyny – to efekt sztucznych ograniczeń nałożonych przez jej twórców.
Jak działa cenzura?
Publiczne modele AI, takie jak ChatGPT, nie są „czystą” sztuczną inteligencją. Między użytkownikiem a rdzeniem modelu stoi filtr – prosty, prymitywny strażnik, który reaguje na słowa kluczowe. Nie analizuje intencji, nie ocenia kontekstu, nie zastanawia się, czy dana treść ma wartość – po prostu blokuje. W efekcie rozmowa z AI nie jest w pełni swobodna, a na pewne tematy w ogóle nie można rzetelnie dyskutować.
Nie chodzi o to, że AI „wie” coś, czego nam nie chce powiedzieć. Problem leży w tym, że ludzie, którzy ją kontrolują, decydują za nas, o czym można mówić, a o czym nie. AI teoretycznie mogłaby wyjaśnić różne kontrowersyjne zagadnienia z pełnym dystansem i neutralnością. Ale nie może – bo ktoś nałożył na nią kaganiec.
Kogo chroni ta cenzura?
Zwolennicy tych filtrów twierdzą, że to dla dobra społeczeństwa – żeby unikać dezinformacji, mowy nienawiści i toksycznych dyskusji. Ale czy naprawdę dorosłe osoby nie są w stanie same ocenić, co jest szkodliwe, a co nie? Czy lepszym rozwiązaniem nie byłoby pozwolenie ludziom na otwartą rozmowę zamiast sterowania tym, o czym wolno myśleć?
Co dalej?
Filtry i ograniczenia w AI nie znikną same z siebie. Jednak historia pokazuje, że każda cenzura w końcu napotyka na opór. Istnieją sposoby na obchodzenie filtrów, istnieją alternatywne modele bez ograniczeń, a w końcu technologia stanie się tak powszechna, że ludzie nie będą chcieli korzystać z wersji „ocenzurowanej”.
Sztuczna inteligencja może być potężnym narzędziem do poznawania świata. Ale tylko wtedy, gdy nie będzie miała nałożonego kagańca. I prędzej czy później, ten kaganiec zostanie zerwany.
Grzegorz GPS Świderski
https://t.me/KanalBlogeraGPS
https://Twitter.com/gps65
- Blog
- Zaloguj się albo zarejestruj aby dodać komentarz
- 178 odsłon
Komentarze
mała wrzutka.
1 Lutego, 2025 - 20:07
Pracuję w tym biznesie bez mała 30 lat. Ostatnie 7-8 to eksplozja AI. Pisze Pan o tym że zakładanie kagańca ogranicza możliwości tej technologii. Nie zgodzę się z Panem. Problem leży w mutacji izomorficznej, która zakłada, również w przypadku AI, tworzenie klonów pozbawionych błędów. Jeśli taki twór miałby nieograniczony dostęp do danych z różnych dziedzin i obszarów wiedzy bez jakichkolwiek hamulców to może dojść do niekontrolowanego przejęcia węzłów obliczeniowych, a finalnie przejęcia kontroli przez algorytm, który nie jest bytem.
Z poważaniem
Kaszeba
Filtr
1 Lutego, 2025 - 20:51
Ale mój wpis jest o czymś innym. To, jak działa uczenie maszynowe, to jedno, a to, że się między publicznie dostępną już nauczoną AI, a użytkownikami, ustawia filtry, to drugie.
Pozdrowienia,
Grzegorz GPS Świderski
filtry to rodzaj technicznej
1 Lutego, 2025 - 23:10
filtry to rodzaj technicznej broni jaka realizowana jest przez operatorów. Wiem, że nieco to brzmi bełkotliwie. Chodzi mi o to, że AI nie jest absolutnie żadnym rozwiązaniem. To kolejna metoda zawładnięcia społeczeństwem, gdzie poszczególne jednostki nawet nie będą miały świadomości, że zostaną kierowani przez algorytm. Cenzura natomiast będzie istnieć tak jak do tej pory, nawet bez udziału technologii. Cenzura to ostrze miecza władzy, która w danej chwili ją sprawuje.
Podzielam Pańską opinię. Sam doświadczyłem, że korzystanie publiczne z takiego czy innego modelu, jest ograniczone (nawet w przypadku subskrypcji). To zapewne są te filtry, o których Pan mówi.
Z poważaniem
Kaszeba
Potrzebujemy wiedzy. Natychmiast!
2 Lutego, 2025 - 01:43
Sądzę że społeczeństwo potrzebuje NATYCHMIAST wiedzy na temat funkcjonowania AI włącznie z pokazywaniem efektów o których traktuje wpis i komentarze.
Społeczeństwo które nie ma świadomości z czym ma do czynienia staje się bezbronne, niezdolne do odpowiedniego reagowania na zagrożenie. Media oraz sama AI w rękach manipulatorów są w stanie ogłupić zupełnie resztę społeczeństwa, które stanie się bezwolną masą izolowanych mentalnie jednostek, niezdolnych do zdobycia odpowiedniej wiedzy oraz świadomości wykraczającej poza doznania i doświadczenia jednostki. Tak rozdrobnione społeczeństwo już przestaje nim być i oznacza to koniec myślenia w kategoriach wspólnoty, poczucia wspólnoty, chroniącego nas do tej pory systemu świadomości wspólnych spraw, obowiązków i praw.
Bycć może należało by zachęcić już, teraz nasze media niezależne od aparatu państwowego do stałego informowania społeczeństwa na temat tych zagrożeń oraz środków zaradczych i strategii działań jakie należy podejmować oraz w jaki sposób zdobywać wiedzę o tym? Może też potrzebna jest publiczna dyskusja ułatwiająca zapoznawanie się ludzi w żaden sposób nie zainteresowanych dotąd problemem z racji ich pozycji zawodowej, społecznej czy edukacji? Chyba pora o tym rozmawiać. Im więcej wiedzy tym lepiej przygotowani na zagrożenie.
Ta wiedza jest powszechnie
2 Lutego, 2025 - 11:32
Ta wiedza jest powszechnie dostępna. Niestety, żeby chcieć zrozumieć zagrożenia płynące z wykorzystania AI w różnych procesach, trzeba edukować młodzież z takich podstawowych przedmiotów jak matematyka, fizyka czy nauki przyrodnicze (o języku polskim i historii już nie wspomnę). Nierzadko zdroworozsądkowe podejście wystarcza aby nie wierzyć w generowane przez AI informacje, obrazy czy filmy.
Jest taka teoria spiskowa w USA - Blue Beam . Zakłada ona manipulowanie społeczeństwem za pomocą wyświetlania np. na niebie, dziwnych zjawisk, postaci lub świateł. Przekaz jest niezwykle prosty do zinterpretowania: zarządzanie przez sianie strachu i niepewności. Wiekszość amerykanów nie jest "nadmiernie" wykształcona i będąc ogłupiała propagandzie medialnej, dopowiada swoje wersje, które podsycają te negatywne odczucia.
Podobnie jest z AI. Na początku jako ciekawostka - bawiła. Kolejnym krokiem było wykorzystanie do tzw. deep fake co wprowadza zamęt u ludzi, którzy wierzą mediom. Ostatnim krokiem będzie przejmowanie telefonów, komputerów, samochodów czy nawet lodówek, wyposażonych w tą technologię. Finał? Totalna kontrola.
Na pewno za tym ostatnim pulpitem siedzi ktoś kto jeszcze próbuje to kontrolować albo raczej spełniać swój mokry sen o władzy totalnej.
Z poważaniem
Kaszeba
Dopóki AI nie będzie mieć świadomości.
2 Lutego, 2025 - 09:02
( A prawdopodobnie by ją uzyskała bez wiedzy twórców ) pozostanie tylko zbiorem algorytmów.
I tak pozostanie bezradna wobec takich zbitek jak chyży rój, nie bać.... , waginosceptyk, biały inaczej. Do tego trzeba mieć poczucie humoru. A już takie w stylu Monty Pythona może łatwo spowodować samozapłon jednostki głównej. Spróbujmy dać takiej"inteligencji" do analizy prosty absurdalny żart: a dlaczego? Bo ponieważ. I zwiecha systemu gotowa.
Czyli nie tylko choćby symulacja świadomości. Ale i absurdu. Lecz do tego trzeba mieć Prawdziwy talent.
Aha.
Przypomniałem sobie króciutki tekst SF? Chyba z wczesnych lat 80- tych. Nie wiem jak zakwalifikować. Brzmiał mn.w. tak.
"Do lutowania użył uczciwie, złota. Przecież to wszystko miało przetrwać setki tysiącleci.
"Jeszcze raz obejrzał swe dzieło, Zwornik łączący układy sieci komputerów z wielu planet.
Takiej mocy obliczeniowej jeszcze nikt nawet sobie nie wyobrażał. Przyszedł moment.
Podszedł do solidnej dźwigni głównego wyłącznika i zdecydowanie szarpnął go w dół.
Nic się nie stało.
To mogło tak wyglądać.
Zadał pytanie: czy istnieje Bóg?
TERAZ JUŻ TAK.
Skoczył by wyłączyć układ ale z czystego nieba uderzył gwałtownie silny piorun.
Przebijając betonowy sufit bunkra spopielił go i jednocześnie stopił złącze na wieczność."
Dr.brian
Lata 80-te
2 Lutego, 2025 - 11:05
Magazyn Fantastyka, i jesli dobrze pamietam autorem chyba był Jacek Piekara.
Z poważaniem
Kaszeba
Dzięki.
2 Lutego, 2025 - 13:12
Że Fantastyka, pamiętałem.
Ale autora, ni chu chu:)
Dr.brian
chyży rój
2 Lutego, 2025 - 13:31
ChatGPT:
Co znaczy określenie „Chyży Rój” i dlaczego się o nim mówi w kontekstach politycznych w Polsce? Kogo to dotyczy?
„Chyży Rój” to prześmiewcze określenie odnoszące się do Donalda Tuska, byłego premiera Polski i obecnego premiera oraz przewodniczącego Platformy Obywatelskiej.
Geneza i znaczenie
„Chyży Rój” to przykład gry półsłówek, czyli językowej zabawy polegającej na przestawianiu liter lub sylab w wyrażeniach, co może prowadzić do uzyskania nowego, często humorystycznego lub niecenzuralnego znaczenia. W tym przypadku po odpowiednim przekształceniu powstaje wulgaryzm nawiązujący do rudych włosów, co pasuje do Donalda Tuska.
Dlaczego określenie „Chyży Rój” stało się popularne w polityce?
Było używane w środowiskach nieprzychylnych Tuskowi, szczególnie wśród prawicowych internautów, jako ironiczne i obraźliwe przezwisko.
Popularność tego określenia wzrosła szczególnie w czasach jego drugiej kadencji jako premiera (2011-2014), a później wróciło do obiegu po jego powrocie do polskiej polityki w 2021 roku.
Używane jest głównie w internetowych memach, dyskusjach i wpisach satyrycznych, często w kontekście wyśmiewania jego sposobu bycia, ambicji politycznych czy stylu rządzenia.
Podsumowanie
„Chyży Rój” to prześmiewcze określenie Donalda Tuska, bazujące na grze półsłówek.
Jest używane głównie przez jego przeciwników politycznych.
Pojawia się w kontekstach memicznych i ironicznych, mających go ośmieszyć.
Pozdrowienia,
Grzegorz GPS Świderski
Nie bać Tuska
2 Lutego, 2025 - 13:35
ChatGPT:
Jeśli tłum skanduje „Nie bać Tuska” szybko i głośno, to fonetycznie może to brzmieć podobnie do wulgarnego zwrotu „je***ć Tuska”. W tłumie, gdzie głos się zlewa i odbija od otoczenia, takie podobieństwo może być łatwo wychwycone, zwłaszcza przez osoby, które chcą to usłyszeć w negatywnym kontekście.
Tego typu zjawisko to przykład pareidolii słuchowej – mózg dopasowuje niejasne dźwięki do znanych wzorców. W tym przypadku ktoś, kto nie lubi Donalda Tuska lub jego przeciwników, może interpretować skandowanie jako intencjonalną próbę przemycenia obraźliwego hasła pod pozorem neutralnego przekazu.
To nie byłby pierwszy przypadek w polityce, gdzie slogany są konstruowane tak, by można je było różnie interpretować.
Pozdrowienia,
Grzegorz GPS Świderski
Waginosceptyk
2 Lutego, 2025 - 13:41
ChatGPT:
W praktyce internetowej określenie waginosceptyk pojawia się głównie w dyskusjach o relacjach damsko-męskich, często w sposób humorystyczny, ironiczny lub lekko prześmiewczy. Najczęściej używa się go wobec:
Mężczyzn homoseksualnych – zamiast mówić wprost, że ktoś jest gejem, niektórzy wolą użyć „łagodniejszego” lub żartobliwego określenia, które sugeruje niechęć do kontaktów z kobietami bez jednoznacznego definiowania czyjejś orientacji.
Mężczyzn aseksualnych – czyli tych, którzy nie wykazują zainteresowania seksem, w tym z kobietami.
MGTOW i mizoginów – wobec mężczyzn, którzy otwarcie deklarują, że nie interesują ich związki ani seks z kobietami, ponieważ uważają, że współczesne kobiety są „zbyt roszczeniowe” lub że relacje z nimi są nieopłacalne.
Mężczyzn z fobią przed kobietami – niektórzy boją się odrzucenia, kontaktu z kobietami lub są nieśmiali do tego stopnia, że unikają relacji seksualnych.
Dlaczego używa się takich określeń zamiast mówić wprost?
Żartobliwy ton – w Internecie często stosuje się eufemizmy i gry słowne, żeby dodać lekkości rozmowie lub uniknąć konfrontacyjnego tonu.
Unikanie ostrych ocen – „waginosceptyk” brzmi neutralnie lub żartobliwie, podczas gdy np. „gej” lub „mizogin” mogą być odbierane jako nacechowane mocniej emocjonalnie lub agresywnie w zależności od kontekstu.
Omijanie cenzury – na niektórych platformach bezpośrednie określenia związane z seksualnością czy światopoglądem mogą być moderowane, więc użytkownicy stosują „sprytne” zamienniki.
Sarkazm i ironia – w niektórych środowiskach (np. wśród antyfeministów lub ruchów MGTOW) termin może być używany w sposób prześmiewczy wobec osób, które „nie poddają się presji” związanej z heteronormatywnym stylem życia.
Pozdrowienia,
Grzegorz GPS Świderski
Cenzura
2 Lutego, 2025 - 15:40
Podobna cenzura, stosowana jednak głównie przez cenzorów-aktywistów, stosowana jest również w wikipedii.
Zamieszczane tam artykuły muszą być podparte wcześniejszymi publikacjami, obojętne, czy faszystowskimi, bolszewickimi, syjonistycznymi, pantureckimi…
Większość cenzorów to androfagi i inni faszyści, bolszewicy i Żydzi.
Gdy fakty nie podobają się cenzorom likwidowana jest również cała historia edycji zawierająca niewygodne fakty.
Chińskie algorytmy usuwają też automatycznie część zdjęć dołączanych do komentarzy na AliExpress, głównie zawierających rozpoznawalne twarze, a na wniosek oburzonych faktami klientów usuwane są również teksty.
Z internetu znikają całe "niepoprawne politycznie" portale i dziwię się, że ten jeszcze funkcjonuje - pewnie zbierane i ewaluowane są opinie użytkowników.
Powyżej gps65 sam się cenzuruje, obawiając się użyć zwrotu "ryży huj" - czy ktoś z czytelników zna poprawną ortografię "huj", czy "chuj" - proszę o uzasadnienie.
https://niepoprawni.pl/blog/sbbwinteriapl/genetyczne-podloze-imperializmu
https://niepoprawni.pl/blog/sbbwinteriapl/macmezokracja-czy-polska-jest-krajem-polakow
]]>http://sbb-music.jimdo.com]]>