Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.

Aktualne wydanie

Cofamy się wraz z postępem

15-09-2017 Autor: Lechosław Hojnacki

Ponad 93% nastolatków korzysta z internetu codziennie w domu. Większość z nich jest w szkole online (rzadko za wiedzą nauczyciela). Za internetowe źródła wiedzy nastolatkowie uważają głównie Google i YouTube. A są to przecież tylko narzędzia dostępu technicznego do źródeł informacji. Wymagają zatem trudnych umiejętności identyfikacji i porównywania źródeł informacji oraz oceny ich jakości.

 

Czy jesteśmy w stanie ich tego nauczyć? A czy sami to umiemy? Istnieją przesłanki, że coraz bardziej nie. I składa się na to kilka współdziałających czynników.

Pierwszy czynnik to trwająca eksplozja informacyjna. Codziennie pojawiają się nowe dwa eksabajty dostępnej informacji. Do samego tylko YouTube'a trafia kilkaset godzin nagrań wideo na minutę. Informacji potrzebnej, rzetelnej i zdatnej do przyswojenia szukamy w coraz głębszym oceanie. Internet rośnie, nasze mózgi nie.

Drugim czynnikiem jest postępujące protezowanie wyszukiwania przez ewoluujące wyszukiwarki, które dogłębnie „poznają” nas, nasze upodobania i nasz język, więc dopasowują wyniki do naszych potrzeb i preferencji (a ściślej – do „przeświadczenia”, jakie ma na ich temat sztuczna inteligencja). Efektem ubocznym jest niedostrzegalnie postępujące ubezwłasnowolnienie i alienacja. Coraz łatwiej uzyskujemy informacje spodziewane, ale coraz trudniej nam znaleźć rzeczy niezgodne z naszymi nawykami, przekonaniami i upodobaniami. Sztuczna inteligencja coraz skuteczniej usuwa sprzed naszych oczu odmienne poglądy, podejścia i informacje, o których istnieniu nie wiemy. Zamykamy się powoli we własnym świecie, przekonani, że dobrze nam idzie oraz że inni (czyli tylko ci, których wypowiedzi widzimy) myślą podobnie do nas.

Trzeci czynnik to nowe, zaawansowane techniki manipulacyjne dostosowane do specyfiki Sieci. Oto przykład. Usłyszeliśmy o czymś interesującym. Może to być nowy produkt, np. skuteczny lek, wynalazek, idea, projekt polityczny lub społeczny, wydarzenie. Jako fachowi internauci szukamy w Google różnych źródeł, fachowych portali, gazet online, sprawdzamy też solennie wypowiedzi ludzi w mediach społecznościowych. Jest trochę alarmistycznych komentarzy, jednak i zwykli ludzie, i eksperci twierdzą, że ich autorzy to głupcy, pseudonaukowcy lub najemnicy konkurencji. Zastosowaliśmy procedurę czasochłonną, ale poprawną. A czy skuteczną? Niekoniecznie. Bo np. grupy nacisku (polityczne, korporacyjne etc.), chcące wypromować konkretny produkt, przeforsować pogląd lub projekt, coraz częściej angażują duże środki w stworzenie mistyfikacji kompletnej w kontekście naszych metod weryfikacji treści. Polega to m.in. na jednoczesnym tworzeniu i upowszechnianiu w różnych mediach „wiarygodnych treści”, animowaniu lub generowaniu masowych pozytywnych reakcji tzw. zwykłych ludzi i ekspertów oraz na dyskredytowaniu zdań odmiennych i ich autorów. Treści mogą przygotowywać wynajęci fachowcy, a komentarze – wynajęci internauci, ale nie tylko. Wielu uczciwych dziennikarzy poważnych gazet w pogoni za tematami łapie bezkrytycznie podrzucane gotowce (sam wciąż otrzymuję takie niewinnie wyglądające materiały gotowe do opublikowania!). Podejrzliwszym oferuje się cenne „przecieki”, których nie ma czasu dokładnie sprawdzać. Internauci sami powielają atrakcyjne newsy (zwłaszcza jeżeli wyglądają na pochodzące od znajomych lub znanych osób). Coraz trudniej przejrzeć takie mistyfikacje, bo wspomaga je czwarty czynnik: rosnąca armia syntetycznych dziennikarzy i internautów. Są szacunki, że już blisko 40% polskich komentarzy generują boty. Boty na razie zwykle multiplikują wskazane im treści i oceny, udając żywych użytkowników Facebooka czy Twittera. Tworzą wrażenie masowego poparcia, masowej dezaprobaty lub maskują swoją masą komentarze ludzi. A to tylko pionki. Sztuczna inteligencja może coraz więcej i coraz taniej. Przykładowo firma Narrative Science produkuje ponad setkę fachowych artykułów prasowych na godzinę. Danymi wejściowymi są np. notowania giełdowe lub wyniki rozgrywek i pożądany styl narracji, a produktem – chłodne analizy (publikuje je np. „Forbes”) lub pasjonujące relacje sportowe. Nie jest to zwykła zamiana tabel i wykazów w opis tekstowy. Aby były atrakcyjne i przekonujące, informacje są opakowywane w interesującą narrację metodami storytellingu. Nasza przewaga nad maszynami w zawodach wymagających intelektu i kreatywności topnieje: oto cała kategoria dziennikarzy-specjalistów przestaje być niezbędna.

Maszynowo generowane treści wygrają z żywymi autorami masą i kosztem. Ale sztuczna inteligencja wykonuje tylko zadania zlecone. A zleceniodawcy jawnie lub niejawnie realizują różne interesy – legalne lub nielegalne, dobre lub złe, pożyteczne lub szkodliwe. Możliwe, że umiejętność poruszania się w tym sztucznym środowisku informacyjnym stanie się wielkim wyzwaniem edukacyjnym, a może i cywilizacyjnym.
 


Lechosław Hojnacki – nauczyciel-konsultant, wykładowca i trener. Zajmuje się m.in. edukacyjnymi zastosowaniami mobilnych technologii cyfrowych i nowoczesnymi metodami edukacyjnymi. Autor szkoleń, programów oraz licznych publikacji naukowych i popularyzatorskich o tej tematyce. Prowadzi autorski niekomercyjny serwis edukacyjny Enauczanie.com.

______________________________________________________________________________________________________________________________________

Informacje o cookies © 2016 PRESSCOM Sp. z o.o.