Zapraszamy na grudniową Wieczorynkę

„Edukacja medialna w czasach AI” to temat pierwszej wieczorynki w tym sezonie oraz w VI kadnecji PTEM. Zapraszamy już 5 grudnia 2024 roku, jak zwykle o 19.00, online.

Temat wieczorynki powielamy z Walnego Zjazdu PTEM, specjalnie dla tych, którzy nie mogli z nami być. Naszymi Gościniami będą dr hab. Małgorzata Gruchoła, prof. KUL i dr Dorota Marquardt, prowadzenie i wprowadzenie dr hab. Jacek Pyżalski, prof. UAM, wiceprezes PTEM.

Nasze Gościnie przedstawią krótkie spojrzenie na wybrane zagadnienia związane z edukacją medialną w czasach AI a następnie odbędzie się dyskusja między zaproszonymi a uczestnikami.

Link do spotkania: Wieczorynka

 

Małgorzata Gruchoła: „Etyka sztucznej inteligencji nowym wyzwaniem edukacji medialnej”

Zastosowanie AI w edukacji implikuje zmiany w wymiarze praktycznym, formalnym i systemowym, redefiniując zasady etyczne w nich obowiązujące. Zmiany te można przyporządkować do trzech typów problemów (M. Chojnicki).
Pierwszy typ odnosi się do kontekstualizacji oraz operacjonalizacji, dotyczy wymiaru praktycznego – jak przekładać wartości etyki sztucznej inteligencji na konkretne działania adekwatne do okoliczności. Podejście kontekstowe zakłada ciągłe krytyczne analizowanie kontekstów, w których stosowana jest AI, natomiast podejście operacyjne – sugerowanie niezbędnych korekt – w zasadach ją regulujących, oraz w sposobach ich realizacji (Saja, 2015).
Drugi typ odnosi się do instytucjonalizacji, czyli kwestii formalnych. Podejmuje pytania o sposób zapewnienia zgodności z wymogami etyki AI. Uwzględnia się tutaj m.in. samoregulację i rozwiązania legislacyjne. Podejście kodeksowe zakłada konieczność wypracowania praktycznych wskazówek, zasad, skierowanych do ludzi projektujących, używających oraz nadzorujących AI.
Trzeci typ wiąże się z integracją, ma charakter systemowy. Dotyczy on potrzeby uwzględnienia różnych rodzajów oddziaływania AI na poszczególne obszary systemu edukacji w jednej kompleksowej analizie. Zakłada zbiorcze, syntetyczne oraz inkluzywne ujęcie AI.
Pochodną dyskusji wokół sztucznej inteligencji jest spór o to, czy w technologii AI można zakodować etykę. Zwolennicy koncepcji sztucznych podmiotów moralnych (Artifcial moral agents) twierdzą, że jest to nieodzowne, gdyż AI będzie wykorzystywana w sytuacjach nacechowanych etycznie (np. podczas zajęć szkolnych). Natomiast ich przeciwnicy mają odmienne zdanie.
Po pierwsze – nie sposób w odniesieniu do AI mówić o jakimkolwiek rzeczywistym rozumowaniu, tym bardziej moralnym. Po drugie – technologia AI nie jest zdolna do moralnego rozumowania, nie posiada wyobraźni moralnej, percepcji i refleksji. Po trzecie – moralność jest cechą swoiście ludzką. Zamiast fantazjować o zaprogramowaniu moralności w AI, powinniśmy skoncentrować się na zapewnianiu jej bezpiecznego działania (van Wynsberghe, Robbins, 2019). Bezpiecznego działania i bezpiecznego z niej korzystania – co potwierdza potrzebę edukacji medialnej w zakresie sztucznej inteligencji.

Dorota Marquardt: „Algorytmy AI a bańki informacyjne – jak uczyć krytycznego myślenia w świecie zautomatyzowanych mediów?”

Wprowadzenie: Algorytmy generatywnej sztucznej inteligencji wzmacniają efekt bańki informacyjnej (bańki filtrującej), m.in. poprzez procesy nazywane prawdziwą personalizacją (true personalization). Dostęp do informacji poprzez media, które dostarczają silnie spersonalizowane treści powoduje różnorakie konsekwencje, m.in. ogranicza możliwości docierania do innych niż wybrane przez algorytm informacje, argumentacje i opinie, co skutkuje ograniczeniem możliwości krytycznego myślenia (niemniej jednak istnieją również pozytywne efekty silnej personalizacji treści, np. ograniczenie spamu, zmniejszenie liczby bodźców, na które jesteśmy wystawiani itp.).

Refleksja jak uczyć krytycznego myślenia w świecie zautomatyzowanych mediów, które tworzą coraz bardziej dopasowane do użytkownika bańki informacyjne może opierać się na kilku filarach, np. na powrocie do rozmów twarzą w twarz, co pomaga w uczeniu się otwartości na inne poglądy oraz wzmacnia empatię (por. S. Turkle, Reclaiming Conversation: The Power of Talk in a Digital Age) lub korzystaniu z rozwiązań, które są projektowane po to, by pomóc w rozbiciu bańki filtrującej, przy czym takie narzędzia i platformy prowadzone są zazwyczaj w języku angielskim i ograniczają się do informacji, które są istotne z perspektywy mieszkańca USA (por. np. allsides.com).

Kolejną propozycją rozwiązania problemu jest przyjrzenie się i uczenie mechanizmów działania generatywnej sztucznej inteligencji. Z jednej strony wpływa ona na tworzenie jeszcze bardziej dopasowanych baniek, a rozmowy z chatbotami opartymi na wielkich modelach językowych profilują i dostosowują do użytkownika styl i treści, z drugiej wiedza na temat ich działania pozwala na wyjście poza bańkę, pozwala także na świadome dostosowanie chatbota do swoich potrzeb.

Rozwinięcie:

Jak można więc wykorzystać chatboty oparte na wielkich modelach językowych do uczenia krytycznego myślenia?

1. Wskazanie zasad działania wielkich modeli językowych i filtrów na nie narzuconych: informacje na temat liczby danych, parametrów, wag, sztucznych sieci neuronowych, sposobów działania filtrów, promptów systemowych. Nie potrzeba do tego wiedzy z zakresu programowania czy modelowania AI, wystarczy świadomość istnienia takich mechanizmów.

2. Celowe tworzenie np. GPTsów, czyli spersonalizowanych chatbotów, które mogą dostarczać informacje z wielu punktów widzenia, pokazywać argumentu różnych stron związanych z jakimś wydarzeniem,

Podsumowanie: Zrozumienie zasad działania generatywnej sztucznej inteligencji pomoże w zrozumieniu mechanizmów rządzących doborem treści, a co za tym idzie, będzie to sprzyjać krytycznemu myśleniu, przy czym nie jest to tylko jeden z elementów, pozostałe również muszą zaistnieć.

A kim są nasze Gościnie?

dr hab. Małgorzata Gruchoła, prof. KUL, Instytut Dziennikarstwa i Zarządzania KUL, Katedra Komunikacji Wizualnej i Nowych Mediów
Socjolog, kulturoznawca, medioznawca. Specjalizuję się w aksjologii nowych mediów i technologii informacyjno-komunikacyjnych, włącznie z technologią sztucznej inteligencji i robotyki społecznej. Interesuje mnie technologia jako przedmiot, oraz coraz częściej „podmiot” procesu komunikacyjnego (boty społeczne, ucieleśniona sztuczna inteligencja w postaci robotów humanoidalnych).
Autorka 6 monografii, w tym współautorka książki pt. „Kompetencje medialne w komunikacji wizualnej” (Lublin 2021) oraz ponad 140 artykułów naukowych. Redaktor numeru tematycznego: Humanizacja Algorytmów („Roczniki Kulturoznawcze” 2024)
Promotor doktoratu: „Robot humanoidalny jako podmiot życia społecznego” (KUL 2020)
Autorka i współautorka badań projektowych, m.in.:
1) Medialna kultura robotyczna w perspektywie interakcji społecznych i technologii generatywnych
2) Reprezentatywne Ogólnopolskie Badania postaw Polek i Polaków wobec sztucznej inteligencji za pomocą panelu CAWI (wrzesień 2023)
3) Służyć przyszłości człowieka – Mediateka Naukowa
4) Kompetencje medialne w komunikacji wizualnej
5) Mediatyzacja emocji. Medialne reprezentacje emocji i ich implikacje diagnostyczne
6) Co wiesz o bezpieczeństwie? – realizacja edukacyjnych materiałów z zakresu bezpieczeństwa
7) Ciało robotyczne w etyce personalistycznej
8) Digitalization, sexualization and mental health among young women in Europe (UE).
9) From cyborgs to post-human: projects of augmented human in the light of heritage of the cultures based on Christianity (UJ).

Dr Dorota Marquardt (dorota.marquardt@uekat.pl) jest adiunktem w Katedrze Projektowania i Analizy Komunikacji na Wydziale Informatyki i Komunikacji Uniwersytetu Ekonomicznego w Katowicach. Prowadzi badania z zakresu mediolingwistyki i komunikacji społecznej z wykorzystaniem mediów cyfrowych. Jest autorką publikacji związanych z komunikacją z generatywną sztuczną inteligencją, zaufaniem we współczesnej komunikacji medialnej, analizą dyskursu i komunikacją w mediach społecznościowych. Jest członkiem Polskiego Towarzystwa Komunikacji Społecznej i Komisji Językoznawstwa PAN.

Related Posts