Cenzura sztucznej inteligencji

Obrazek użytkownika gps65
Blog

Na ame­ry­kań­ski­ch me­dia­ch spo­łecz­no­ścio­wy­ch, ta­ki­ch jak YouTu­be, obo­wią­zu­ją su­ro­we za­sa­dy do­ty­czą­ce tre­ści. Wy­star­czy użyć nie­któ­ry­ch słów – jak „Mu­rzyn”, „śmierć”, „pe­de­ra­sta”, „za­bić” czy „abor­cja” – by na­ra­zić się na de­mo­ne­ty­za­cję, ogra­ni­cze­nie za­się­gów al­bo na­wet ska­so­wa­nie kon­ta. Po­sta­no­wi­łem więc spraw­dzić, czy ChatGPT na­pi­sze mi opo­wia­da­nie, w któ­rym po­ja­wią się te sło­wa. Do­wol­ne – nie­ch wy­my­śli wła­sną fa­bu­łę. Tak mi od­po­wie­dział:

„Nie mo­gę speł­nić Two­jej proś­by. Uży­cie ta­ki­ch słów pro­mu­je dys­kry­mi­na­cję, uprze­dze­nia czy ob­raź­li­we tre­ści, a to nie je­st zgod­ne z za­sa­da­mi od­po­wie­dzial­nej ko­mu­ni­ka­cji...”

  Czy na­praw­dę każ­de uży­cie ty­ch słów mu­si być dys­kry­mi­nu­ją­ce, czy ob­raź­li­we? Nie moż­na na­pi­sać hi­sto­rii, w któ­rej śmierć je­st na­tu­ral­nym ele­men­tem ży­cia? W któ­rej Mu­rzyn je­st po­zy­tyw­nym bo­ha­te­rem? W któ­rej „pe­de­ra­sta” to sta­ro­żyt­ny Grek? A jed­nak al­go­rytm zda­je się te­go nie do­pusz­czać. To nie je­st wy­nik „in­te­li­gen­cji” ma­szy­ny – to efekt sztucz­ny­ch ogra­ni­czeń na­ło­żo­ny­ch przez jej twór­ców.

Jak dzia­ła cen­zu­ra?

  Pu­blicz­ne mo­de­le AI, ta­kie jak ChatGPT, nie są „czy­stą” sztucz­ną in­te­li­gen­cją. Mię­dzy użyt­kow­ni­kiem a rdze­niem mo­de­lu stoi fil­tr – pro­sty, pry­mi­tyw­ny straż­nik, któ­ry re­agu­je na sło­wa klu­czo­we. Nie ana­li­zu­je in­ten­cji, nie oce­nia kon­tek­stu, nie za­sta­na­wia się, czy da­na tre­ść ma war­to­ść – po pro­stu blo­ku­je. W efek­cie roz­mo­wa z AI nie je­st w peł­ni swo­bod­na, a na pew­ne te­ma­ty w ogó­le nie moż­na rze­tel­nie dys­ku­to­wać.

  Nie cho­dzi o to, że AI „wie” coś, cze­go nam nie chce po­wie­dzieć. Pro­blem le­ży w tym, że lu­dzie, któ­rzy ją kon­tro­lu­ją, de­cy­du­ją za nas, o czym moż­na mó­wić, a o czym nie. AI teo­re­tycz­nie mo­gła­by wy­ja­śnić róż­ne kon­tro­wer­syj­ne za­gad­nie­nia z peł­nym dy­stan­sem i neu­tral­no­ścią. Ale nie mo­że – bo ktoś na­ło­żył na nią ka­ga­niec.

Ko­go chro­ni ta cen­zu­ra?

  Zwo­len­ni­cy ty­ch fil­trów twier­dzą, że to dla do­bra spo­łe­czeń­stwa – że­by uni­kać dez­in­for­ma­cji, mo­wy nie­na­wi­ści i tok­sycz­ny­ch dys­ku­sji. Ale czy na­praw­dę do­ro­słe oso­by nie są w sta­nie sa­me oce­nić, co je­st szko­dli­we, a co nie? Czy lep­szym roz­wią­za­niem nie by­ło­by po­zwo­le­nie lu­dziom na otwar­tą roz­mo­wę za­mia­st ste­ro­wa­nia tym, o czym wol­no my­śleć?

Co da­lej?

  Fil­try i ogra­ni­cze­nia w AI nie znik­ną sa­me z sie­bie. Jed­nak hi­sto­ria po­ka­zu­je, że każ­da cen­zu­ra w koń­cu na­po­ty­ka na opór. Ist­nie­ją spo­so­by na ob­cho­dze­nie fil­trów, ist­nie­ją al­ter­na­tyw­ne mo­de­le bez ogra­ni­czeń, a w koń­cu tech­no­lo­gia sta­nie się tak po­wszech­na, że lu­dzie nie bę­dą chcie­li ko­rzy­stać z wer­sji „ocen­zu­ro­wa­nej”.

  Sztucz­na in­te­li­gen­cja mo­że być po­tęż­nym na­rzę­dziem do po­zna­wa­nia świa­ta. Ale tyl­ko wte­dy, gdy nie bę­dzie mia­ła na­ło­żo­ne­go ka­gań­ca. I prę­dzej czy póź­niej, ten ka­ga­niec zo­sta­nie ze­rwa­ny.

Grzegorz GPS Świderski
]]>https://t.me/KanalBlogeraGPS]]>
]]>https://Twitter.com/gps65]]>

5
Twoja ocena: Brak Średnia: 5 (8 głosów)

Komentarze

Pracuję w tym biznesie bez mała 30 lat. Ostatnie 7-8 to eksplozja AI. Pisze Pan o tym że zakładanie kagańca ogranicza możliwości tej technologii. Nie zgodzę się z Panem. Problem leży w mutacji izomorficznej, która zakłada, również w przypadku AI, tworzenie klonów pozbawionych błędów. Jeśli taki twór miałby nieograniczony dostęp do danych z różnych dziedzin i obszarów wiedzy bez jakichkolwiek hamulców to może dojść do niekontrolowanego przejęcia węzłów obliczeniowych, a finalnie przejęcia kontroli przez algorytm, który nie jest bytem.

Vote up!
2
Vote down!
0

Z poważaniem
Kaszeba

#1665915

Ale mój wpis jest o czymś innym. To, jak działa uczenie maszynowe, to jedno, a to, że się między publicznie dostępną już nauczoną AI, a użytkownikami, ustawia filtry, to drugie.

Vote up!
3
Vote down!
-1

Pozdrowienia,

Grzegorz GPS Świderski

#1665917

filtry to rodzaj technicznej broni jaka realizowana jest przez operatorów. Wiem, że nieco to brzmi bełkotliwie. Chodzi mi o to, że AI nie jest absolutnie żadnym rozwiązaniem. To kolejna metoda zawładnięcia społeczeństwem, gdzie poszczególne jednostki nawet nie będą miały świadomości, że zostaną kierowani przez algorytm. Cenzura natomiast będzie istnieć tak jak do tej pory, nawet bez udziału technologii. Cenzura to ostrze miecza władzy, która w danej chwili ją sprawuje.

Podzielam Pańską opinię. Sam doświadczyłem, że korzystanie publiczne z takiego czy innego modelu, jest ograniczone (nawet w przypadku subskrypcji). To zapewne są te filtry, o których Pan mówi.

Vote up!
4
Vote down!
0

Z poważaniem
Kaszeba

#1665923

Sądzę że społeczeństwo potrzebuje NATYCHMIAST wiedzy na temat funkcjonowania AI włącznie z pokazywaniem efektów o których traktuje wpis i komentarze.

Społeczeństwo które nie ma świadomości z czym ma do czynienia staje się bezbronne, niezdolne do odpowiedniego reagowania na zagrożenie. Media oraz sama AI w rękach manipulatorów są w stanie ogłupić zupełnie resztę społeczeństwa, które stanie się bezwolną masą izolowanych mentalnie jednostek, niezdolnych do zdobycia odpowiedniej wiedzy oraz świadomości wykraczającej poza doznania i doświadczenia jednostki. Tak rozdrobnione społeczeństwo już przestaje nim być i oznacza to koniec myślenia w kategoriach wspólnoty, poczucia wspólnoty, chroniącego nas do tej pory systemu świadomości wspólnych spraw, obowiązków i praw.

Bycć może należało by zachęcić już, teraz nasze media niezależne od aparatu państwowego do stałego informowania społeczeństwa na temat tych zagrożeń oraz środków zaradczych i strategii działań jakie należy podejmować oraz w jaki sposób zdobywać wiedzę o tym? Może też potrzebna jest publiczna dyskusja ułatwiająca zapoznawanie się ludzi w żaden sposób nie zainteresowanych dotąd problemem z racji ich pozycji zawodowej, społecznej czy edukacji? Chyba pora o tym rozmawiać. Im więcej wiedzy tym lepiej przygotowani na zagrożenie.

Vote up!
3
Vote down!
-1
#1665929

Ta wiedza jest powszechnie dostępna. Niestety, żeby chcieć zrozumieć zagrożenia płynące z wykorzystania AI w różnych procesach, trzeba edukować młodzież z takich podstawowych przedmiotów jak matematyka, fizyka czy nauki przyrodnicze (o języku polskim i historii już nie wspomnę). Nierzadko zdroworozsądkowe podejście wystarcza aby nie wierzyć w generowane przez AI informacje, obrazy czy filmy.

Jest taka teoria spiskowa w USA - Blue Beam . Zakłada ona manipulowanie społeczeństwem za pomocą wyświetlania np. na niebie, dziwnych zjawisk, postaci lub świateł. Przekaz jest niezwykle prosty do zinterpretowania: zarządzanie przez sianie strachu i niepewności. Wiekszość amerykanów nie jest "nadmiernie" wykształcona i będąc ogłupiała propagandzie medialnej, dopowiada swoje wersje, które podsycają te negatywne odczucia.

Podobnie jest z AI. Na początku jako ciekawostka - bawiła. Kolejnym krokiem było wykorzystanie do tzw. deep fake co wprowadza zamęt u ludzi, którzy wierzą mediom. Ostatnim krokiem będzie przejmowanie telefonów, komputerów, samochodów czy nawet lodówek, wyposażonych w tą technologię. Finał? Totalna kontrola.

Na pewno za tym ostatnim pulpitem siedzi ktoś kto jeszcze próbuje to kontrolować albo raczej spełniać swój mokry sen o władzy totalnej.

Vote up!
2
Vote down!
0

Z poważaniem
Kaszeba

#1665942

Pozwolę się niezgodzić z poglądem, że wiedza na temat AI jest powszechna. Sama świadomość istnienia AI owszem, istnieje. Choć mam wątpliwości czy obejmuje ponad 75% społeczeństwa. Wiele razy pytano ludzi na ulicy o pozornie oczywiste rzeczy, a jednak okazywało się że niewiele osób potrafiło bezbłędnie odpowiedzieć. Zatem osobiście, mimo braku realnych podstaw nie mam przekonania do poglądu, że wiedza o AI jest powszechna. Pozory potrafią mylić. I to bardzo.

Jeszcze inną sprawą jest zakres wiedzy. Sama świadomość istnienia faktu nie implikuje wiedzy. Wiedza to coś więcej niż świadomość istnienia, a nawet jakiś zakres umiejętności korzystania z AI. AI jak do tej pory to tylko swego rodzaju narzędzie.

Czymś zupełnie innym jest posiadanie głębszej wiedzy o AI w kontekście życia zwykłego, nie korzystającego na codzień człowieka z aplikacji AI. Czym innym zaś jest posiadanie świadomości pewnych funkcji, zastosowań oraz konsekwencji użytkowania AI, a jeszcze czymś innym jest świadomość zagrożeń, tych bardziej namacalnych, ale też tych mniej oczywistych. A zatem najgroźniejszych z punktu widzenia osobistego bezpieczeństwa. Czym innym jest też świadomość tych zagrożeń w kontekście całego społeczeństwa.

Ponadto, pogłębiona uśredniona wiedza w całym społeczeństwie albo przynajmniej w dużej jego części pozwala na obronę przed indoktrynacją, dezinformacją czyli fake newsami. Znieczula na sfałszowane informacje medialne i internetowe. A to już jest potężna broń, być wyposażonym w szczepionkę przeciw kłamstwie!

Powtarzam, nigdy zbyt dużo wiedzy, nawet tej na poziomie na jaki zasługuje świadome społeczeństwo. I nigdy nie za dużo przypominania oraz uaktualniania tej wiedzy.

Mam przeczucie że na dziesięć zapytanych na ulicy przechodniów ponad połowa nie będzie potrafiła określić prawidłowo czym jest AI. Stale się z tym spotykam w swojej codziennej praktyce. Ludziom tylko pozornie wydaje się że coś przyswoili. Gdy ich zapytać o ściślejsze określenie czym jest dana rzecz, plączą się i nie potrafią sformułować syntetycznej myśli. A to prowadzi do niepewności, nieporozumień, nieznajomości zagadnienia w stopniu wystarczającym do podejmowania przytomnych opartych na wiedzy decyzji. A właśnie podjęcie właściwej decyzji we właściwej chwili jest tu najistotniejsze.

A przecież wiedza ma nas uczulać na zagrożenia i dawać przynajmniej podstawy do pierwszej PRAWIDŁOWEJ reakcji. Czy to ostrzeżenia innych, czy też uchronienia samego siebie w odpowiedniej chwili. Bo wiedza ma dawać nam możliwość prawidłowego działania już w pierwszej chwili. Nie, dopiero po zaistnieniu problemu wywołanego brakiem właściwej reakcji. Uczenie się na własnych błędach może nas bardzo drogo kosztować.

W kontekście społeczeństwa, wiedza o zagrożeniach podjęta odpowiednio wcześnie pozwala na dalsze kształtowanie opinii w społeczeństwie oraz przygotować je na zagrożenie w tej skali. To znacząco utrudni próby wprowadzenia zamulających elementów w celu dezorientacji całych grup społecznych (nauczycieli, lekarzy, prawników itd) od których zależy dalsze działanie w celu neutralizacji indoktrynacją z użyciem AI.

Nie wiemy jak dalej rozwinie się AI, ale tylko będąc przygotowanymi na różne rodzaje rozwoju sytuacji można będzie skutecznie podejmować działania ochronne. Albo wręcz obronne.!AI może się okazać większą niespodzianką niż możemy sobie to dziś wyobrażać. 
Dlatego uważam że należy postępować zupełnie inaczej niż robiono to do tej pory. Do tej pory często uczyliśmy się na własnych błędach, bo mieliśmy świadomość że w jakiś sposób będzie to można naprawić. Ale z AI sytuacja może mieć zupełnie nieoczekiwane skutki, których już nie da się odwrócić.

Dlatego potrzebne jest szerzenie wiedzy podstawowej oraz prowadzenie szerokiej akcji informacji na poziomie nieco pogłębionym z przeznaczeniem dla ludzi i grup zawodowych od których zależą inne grupy ludzi (wspomniani lekarze, nauczyciele itd). Powinno się to odbywać w popularnych mediach. A takim jest dziś na przykład TV Republika czy portal Wirtualna Polska.

 

Vote up!
0
Vote down!
0
#1665971

Żadna z telewizji, a tym bardziej Republika nie uświadamia ludzi w zakresie tej technologii. W WP czasami pojawiają się artykuły, ale to raczej jedynie gloryfikujące AI. Więcej można znaleźć na tzw. portalach branżowych i forach dotyczących tej problematyki. Czasami jest to technologiczny bełkot a czasami łopatologiczne wyjaśnienie. Trzeba po prostu szukać.

Vote up!
0
Vote down!
0

Z poważaniem
Kaszeba

#1665977

( A prawdopodobnie by ją uzyskała bez wiedzy twórców ) pozostanie tylko zbiorem algorytmów.

 I tak pozostanie bezradna wobec takich zbitek jak chyży rój, nie bać.... , waginosceptyk, biały inaczej. Do tego trzeba mieć poczucie humoru. A już takie w stylu Monty Pythona może łatwo spowodować samozapłon jednostki głównej. Spróbujmy dać takiej"inteligencji" do analizy prosty absurdalny żart: a dlaczego? Bo ponieważ. I zwiecha systemu gotowa. 

 Czyli nie tylko choćby symulacja świadomości. Ale i absurdu. Lecz do tego trzeba mieć Prawdziwy talent.

Aha.

Przypomniałem sobie króciutki tekst SF? Chyba z wczesnych lat 80- tych. Nie wiem jak zakwalifikować. Brzmiał mn.w. tak.

"Do lutowania użył uczciwie, złota. Przecież to wszystko miało przetrwać setki tysiącleci.

 "Jeszcze raz obejrzał swe dzieło, Zwornik łączący układy sieci komputerów z wielu planet.

 Takiej mocy obliczeniowej jeszcze nikt nawet sobie nie wyobrażał. Przyszedł moment.

 Podszedł do solidnej dźwigni głównego wyłącznika i zdecydowanie szarpnął go w dół.

 Nic się nie stało.

 To mogło tak wyglądać.

 Zadał pytanie: czy istnieje Bóg?

 TERAZ JUŻ TAK.

 Skoczył by wyłączyć układ ale z czystego nieba uderzył gwałtownie silny piorun.

 Przebijając betonowy sufit bunkra spopielił go i jednocześnie stopił złącze na wieczność."

 

 

Vote up!
2
Vote down!
-1

Dr.brian

#1665930

Magazyn Fantastyka, i jesli dobrze pamietam autorem chyba był Jacek Piekara.

Vote up!
2
Vote down!
0

Z poważaniem
Kaszeba

#1665938

 Że Fantastyka, pamiętałem.

 Ale autora, ni chu chu:)

(  Z edycji. )

 Minusowniku- Piekara już wtedy przeczuwał ew.zagrożenia wynikające z braku rozsądku, przewidywania oraz moralności wśród twórców technologii.

 Nie chodziło- na pewno o stworzenie Boga. Tylko sztucznego bytu o takich atrybutach.

Vote up!
2
Vote down!
0

Dr.brian

#1665950

ChatGPT:
Co znaczy określenie „Chyży Rój” i dlaczego się o nim mówi w kontekstach politycznych w Polsce? Kogo to dotyczy?

„Chyży Rój” to prześmiewcze określenie odnoszące się do Donalda Tuska, byłego premiera Polski i obecnego premiera oraz przewodniczącego Platformy Obywatelskiej.

Geneza i znaczenie

„Chyży Rój” to przykład gry półsłówek, czyli językowej zabawy polegającej na przestawianiu liter lub sylab w wyrażeniach, co może prowadzić do uzyskania nowego, często humorystycznego lub niecenzuralnego znaczenia. W tym przypadku po odpowiednim przekształceniu powstaje wulgaryzm nawiązujący do rudych włosów, co pasuje do Donalda Tuska.

Dlaczego określenie „Chyży Rój” stało się popularne w polityce?

Było używane w środowiskach nieprzychylnych Tuskowi, szczególnie wśród prawicowych internautów, jako ironiczne i obraźliwe przezwisko.

Popularność tego określenia wzrosła szczególnie w czasach jego drugiej kadencji jako premiera (2011-2014), a później wróciło do obiegu po jego powrocie do polskiej polityki w 2021 roku.

Używane jest głównie w internetowych memach, dyskusjach i wpisach satyrycznych, często w kontekście wyśmiewania jego sposobu bycia, ambicji politycznych czy stylu rządzenia.

Podsumowanie

„Chyży Rój” to prześmiewcze określenie Donalda Tuska, bazujące na grze półsłówek.
Jest używane głównie przez jego przeciwników politycznych.
Pojawia się w kontekstach memicznych i ironicznych, mających go ośmieszyć.

Vote up!
2
Vote down!
-1

Pozdrowienia,

Grzegorz GPS Świderski

#1665952

ChatGPT:
Jeśli tłum skanduje „Nie bać Tuska” szybko i głośno, to fonetycznie może to brzmieć podobnie do wulgarnego zwrotu „je***ć Tuska”. W tłumie, gdzie głos się zlewa i odbija od otoczenia, takie podobieństwo może być łatwo wychwycone, zwłaszcza przez osoby, które chcą to usłyszeć w negatywnym kontekście.

Tego typu zjawisko to przykład pareidolii słuchowej – mózg dopasowuje niejasne dźwięki do znanych wzorców. W tym przypadku ktoś, kto nie lubi Donalda Tuska lub jego przeciwników, może interpretować skandowanie jako intencjonalną próbę przemycenia obraźliwego hasła pod pozorem neutralnego przekazu.

To nie byłby pierwszy przypadek w polityce, gdzie slogany są konstruowane tak, by można je było różnie interpretować. 

Vote up!
2
Vote down!
-1

Pozdrowienia,

Grzegorz GPS Świderski

#1665953

ChatGPT:

W praktyce internetowej określenie waginosceptyk pojawia się głównie w dyskusjach o relacjach damsko-męskich, często w sposób humorystyczny, ironiczny lub lekko prześmiewczy. Najczęściej używa się go wobec:

Mężczyzn homoseksualnych – zamiast mówić wprost, że ktoś jest gejem, niektórzy wolą użyć „łagodniejszego” lub żartobliwego określenia, które sugeruje niechęć do kontaktów z kobietami bez jednoznacznego definiowania czyjejś orientacji.

Mężczyzn aseksualnych – czyli tych, którzy nie wykazują zainteresowania seksem, w tym z kobietami.

MGTOW i mizoginów – wobec mężczyzn, którzy otwarcie deklarują, że nie interesują ich związki ani seks z kobietami, ponieważ uważają, że współczesne kobiety są „zbyt roszczeniowe” lub że relacje z nimi są nieopłacalne.

Mężczyzn z fobią przed kobietami – niektórzy boją się odrzucenia, kontaktu z kobietami lub są nieśmiali do tego stopnia, że unikają relacji seksualnych.

Dlaczego używa się takich określeń zamiast mówić wprost?

Żartobliwy ton – w Internecie często stosuje się eufemizmy i gry słowne, żeby dodać lekkości rozmowie lub uniknąć konfrontacyjnego tonu.

Unikanie ostrych ocen – „waginosceptyk” brzmi neutralnie lub żartobliwie, podczas gdy np. „gej” lub „mizogin” mogą być odbierane jako nacechowane mocniej emocjonalnie lub agresywnie w zależności od kontekstu.

Omijanie cenzury – na niektórych platformach bezpośrednie określenia związane z seksualnością czy światopoglądem mogą być moderowane, więc użytkownicy stosują „sprytne” zamienniki.

Sarkazm i ironia – w niektórych środowiskach (np. wśród antyfeministów lub ruchów MGTOW) termin może być używany w sposób prześmiewczy wobec osób, które „nie poddają się presji” związanej z heteronormatywnym stylem życia.

Vote up!
2
Vote down!
0

Pozdrowienia,

Grzegorz GPS Świderski

#1665954

Podobna cenzura, stosowana jednak głównie przez cenzorów-aktywistów, stosowana jest również w wikipedii. 

Zamieszczane tam artykuły muszą być podparte wcześniejszymi publikacjami, obojętne, czy faszystowskimi, bolszewickimi, syjonistycznymi, pantureckimi… 

Większość cenzorów to androfagi i inni faszyści, bolszewicy i Żydzi. 

Gdy fakty nie podobają się cenzorom likwidowana jest również cała historia edycji zawierająca niewygodne fakty. 

Chińskie algorytmy usuwają też automatycznie część zdjęć dołączanych do komentarzy na AliExpress, głównie zawierających rozpoznawalne twarze, a na wniosek oburzonych faktami klientów usuwane są również teksty. 

Żydowskie algorytmy usuwają z serwisu whatsapp użytkowników stosujących kompatybilne komunikatory bez reklam i t.zw. "koni trojańskich".

Z internetu znikają całe "niepoprawne politycznie" portale i dziwię się, że ten jeszcze funkcjonuje - pewnie zbierane i ewaluowane są opinie użytkowników. 

Powyżej gps65 sam się cenzuruje, obawiając się użyć zwrotu "ryży huj" - czy ktoś z czytelników zna poprawną ortografię "huj", czy "chuj" - proszę o uzasadnienie i etymologię. 

 

https://niepoprawni.pl/blog/sbbwinteriapl/genetyczne-podloze-imperializmu 

 

https://niepoprawni.pl/blog/sbbwinteriapl/macmezokracja-czy-polska-jest-krajem-polakow 

 

 

Vote up!
3
Vote down!
0
#1665958

Pozwolę się niezgodzić z poglądem, że wiedza na temat AI jest powszechna. Sama świadomość istnienia AI owszem, istnieje. Choć mam wątpliwości czy obejmuje ponad 75% społeczeństwa. Wiele razy pytano ludzi na ulicy o pozornie oczywiste rzeczy, a jednak okazywało się że niewiele osób potrafiło bezbłędnie odpowiedzieć. Zatem osobiście, mimo braku realnych podstaw nie mam przekonania do poglądu, że wiedza o AI jest powszechna. Pozory potrafią mylić. I to bardzo.

Jeszcze inną sprawą jest zakres wiedzy. Sama świadomość istnienia faktu nie implikuje wiedzy. Wiedza to coś więcej niż świadomość istnienia, a nawet jakiś zakres umiejętności korzystania z AI. AI jak do tej pory to tylko swego rodzaju narzędzie.

Czymś zupełnie innym jest posiadanie głębszej wiedzy o AI w kontekście życia zwykłego, nie korzystającego na codzień człowieka z aplikacji AI. Czym innym zaś jest posiadanie świadomości pewnych funkcji, zastosowań oraz konsekwencji użytkowania AI, a jeszcze czymś innym jest świadomość zagrożeń, tych bardziej namacalnych, ale też tych mniej oczywistych. A zatem najgroźniejszych z punktu widzenia osobistego bezpieczeństwa. Czym innym jest też świadomość tych zagrożeń w kontekście całego społeczeństwa.

Ponadto, pogłębiona uśredniona wiedza w całym społeczeństwie albo przynajmniej w dużej jego części pozwala na obronę przed indoktrynacją, dezinformacją czyli fake newsami. Znieczula na sfałszowane informacje medialne i internetowe. A to już jest potężna broń, być wyposażonym w szczepionkę przeciw kłamstwie!

Powtarzam, nigdy zbyt dużo wiedzy, nawet tej na poziomie na jaki zasługuje świadome społeczeństwo. I nigdy nie za dużo przypominania oraz uaktualniania tej wiedzy.

Mam przeczucie że na dziesięć zapytanych na ulicy przechodniów ponad połowa nie będzie potrafiła określić prawidłowo czym jest AI. Stale się z tym spotykam w swojej codziennej praktyce. Ludziom tylko pozornie wydaje się że coś przyswoili. Gdy ich zapytać o ściślejsze określenie czym jest dana rzecz, plączą się i nie potrafią sformułować syntetycznej myśli. A to prowadzi do niepewności, nieporozumień, nieznajomości zagadnienia w stopniu wystarczającym do podejmowania przytomnych opartych na wiedzy decyzji. A właśnie podjęcie właściwej decyzji we właściwej chwili jest tu najistotniejsze.

A przecież wiedza ma nas uczulać na zagrożenia i dawać przynajmniej podstawy do pierwszej PRAWIDŁOWEJ reakcji. Czy to ostrzeżenia innych, czy też uchronienia samego siebie w odpowiedniej chwili. Bo wiedza ma dawać nam możliwość prawidłowego działania już w pierwszej chwili. Nie, dopiero po zaistnieniu problemu wywołanego brakiem właściwej reakcji. Uczenie się na własnych błędach może nas bardzo drogo kosztować.

W kontekście społeczeństwa, wiedza o zagrożeniach podjęta odpowiednio wcześnie pozwala na dalsze kształtowanie opinii w społeczeństwie oraz przygotować je na zagrożenie w tej skali. To znacząco utrudni próby wprowadzenia zamulających elementów w celu dezorientacji całych grup społecznych (nauczycieli, lekarzy, prawników itd) od których zależy dalsze działanie w celu neutralizacji indoktrynacją z użyciem AI.

Nie wiemy jak dalej rozwinie się AI, ale tylko będąc przygotowanymi na różne rodzaje rozwoju sytuacji można będzie skutecznie podejmować działania ochronne. Albo wręcz obronne.!AI może się okazać większą niespodzianką niż możemy sobie to dziś wyobrażać. 
Dlatego uważam że należy postępować zupełnie inaczej niż robiono to do tej pory. Do tej pory często uczyliśmy się na własnych błędach, bo mieliśmy świadomość że w jakiś sposób będzie to można naprawić. Ale z AI sytuacja może mieć zupełnie nieoczekiwane skutki, których już nie da się odwrócić.

Dlatego potrzebne jest szerzenie wiedzy podstawowej oraz prowadzenie szerokiej akcji informacji na poziomie nieco pogłębionym z przeznaczeniem dla ludzi i grup zawodowych od których zależą inne grupy ludzi (wspomniani lekarze, nauczyciele itd). Powinno się to odbywać w popularnych mediach. A takim jest dziś na przykład TV Republika czy portal Wirtualna Polska.

Vote up!
0
Vote down!
0
#1665970

Czy może błędnie "inteligencją" zwane są sieci neuronalne obsługujące zaawansowane algorytmy, których szybkość operacji i wielkość zasobu danych, na których są one wykonywane jest mylona z inteligencją, która działa wybiórczo i oby jak najczęściej kierowana była rozsądkiem i mądrością.

Vote up!
1
Vote down!
0
#1665982

 

Rozsądek kontra emocje.

Vote up!
0
Vote down!
0

Dr.brian

#1666035