Google Gemini i Common Sense Media
Google Gemini i Common Sense Media – idzie nowe i nieznane? Hmm… Z ostatnich danych na jakie się natknęliśmy wynika, że Common Sense Media uznało Google Gemini za „wysoko ryzykowne” dla dzieci i nastolatków. Cóż, to nie pierwszy przypadek, gdy nowe technologie mogą zagrozić zdrowiu psychicznemu naszych maluchów. Czy będziemy mieli powtórkę akcji ze smartfonami ale tym razem w roli „tego złego” będzie AI?

Podstawy
Common Sense Media pokusiło się o ocenę ryzyka związanego ze sztuczną inteligencją. Oczywiście w odniesieniu do dzieci. Według niej sztuczna inteligencja (AI) ma charakter socjotechniczny. Oznacza to, że nie można oddzielić tej technologii od ludzi i tworzonych przez nich procesów, które kształtują i rozwijają jej zastosowanie. Twierdzą wręcz, że skuteczna sztuczna inteligencja powinna opierać się na odpowiedzialności, etyce i inkluzywności.
W sumie ciężko się z nimi nie zgodzić. Zwłaszcza co do ostatniego wyrazu – inkluzywności. AI powinna mieć określone „ramy” dla odpowiednich osób. Nie chodzi tu bynajmniej o ograniczenia dla wszystkich. Chodzi bardziej o elastyczne dostosowanie do wybranych grup i ich wieku. Dlaczego? Już wyjaśniam.
AI i dzieci
Okazuje się, że dzieci odbierają trochę inaczej AI od dorosłych. Patrząc na ich dzisiejsze podejście do spotkań z rówieśnikami oraz większą podatność na treści w sieci, możemy wyciągnąć pewne wnioski.
Zapewne wszyscy wiemy, że umysł dziecka myśli trochę innymi kategoriami. Więcej jest w tym emocji, biegania za trendami i wymiany treści na komunikatorach z rówieśnikami. Co jednak, gdy dziecko ma problem z odnalezieniem się w grupie?
Okazuje się, że niektórzy wykorzystują AI jako wirtualnego przyjaciela. Zwierzają mu się z własnych problemów i proszą o jakąś radę. Nie zawsze jednak odpowiedź bywa właściwa. AI to tylko algorytm maszyny. Zbiera (agreguje) dane, łączy fakty i wyświetla najbardziej zbliżoną odpowiedź. Co więc gdy się pomyli?
Jeden z opłakanych efektów widzieliśmy niedawno w Anglii. Dziecko mające problem poprosiło o radę AI, a potem popełniło samobójstwo. Okazało się, że pytania zadawane sztucznej inteligencji je przerosło. Podało zbliżone odpowiedzi bez określenia psychiki pytającego. Bo w sumie czemu miało by to robić? Jest przecież od innych celów.
Rodzice przekazali sprawę do sądu. Pytanie tylko, czemu sami nie zauważyli zmian i nie skierowali dziecka do specjalisty?

Podsumowanie
W całym tym technologicznym zgiełku zapominamy o podstawowych rzeczach jakie powinniśmy sami robić. Bez oglądania się na sztuczną inteligencję. Jest tym oczywiście interesowanie się swoimi dziećmi. Maszyna rzeczywiście przyczyniła się do tragicznego skutku, ale rodzice mieli w tym swój udział.
Czy wobec tego AI jest złe z założenia? Oczywiście, że nie. Wiele dzieci korzysta z niej na różne sposoby. Od pomocy w odrabianiu lekcji po rozwijanie swoich pasji i zainteresowań. Czego więc w tym wszystkim brakuje? Ano rodziców, którzy wspólnie z dziećmi usiądą do zagadnienia i poświęcą im swój czas. Zainteresują się swoimi pociechami i ich problemami oraz wdrożą cichą kontrolę nad tym co robią.
W ciągłym pośpiechu czasem zapominamy co jest dla nas najważniejsze. Może już czas trochę zwolnić? Rozejrzeć się wokół siebie i zastanowić do czego to wszystko prowadzi? Jak zwykle wiele pytań i mało odpowiedzi.
Mam nadzieję, że Wy również macie na to swoje sposoby i z chęcią się podzielicie w komentarzu na dole lub na platformie X. Do czego bardzo zachęcam i zapraszam, a póki co…
Do następnego!