Google Gemini i Common Sense Media 1

Google Gemini i Common Sense Media

Google Gemini i Common Sense Media. Czy sztuczna inteligencja może być uznana za "wysoko ryzykowne" dla dzieci i nastolatków?

Google Gemini i Common Sense Media

Google Gemini i Common Sense Media – idzie nowe i nieznane? Hmm… Z ostatnich danych na jakie się natknęliśmy wynika, że Common Sense Media uznało Google Gemini za „wysoko ryzykowne” dla dzieci i nastolatków. Cóż, to nie pierwszy przypadek, gdy nowe technologie mogą zagrozić zdrowiu psychicznemu naszych maluchów. Czy będziemy mieli powtórkę akcji ze smartfonami ale tym razem w roli „tego złego” będzie AI?

Gen Z 3
Photo by Ivan Samkov: https://www.pexels.com/photo/women-smiling-on-the-camera-of-a-cellphone-6968891/

Podstawy

Common Sense Media pokusiło się o ocenę ryzyka związanego ze sztuczną inteligencją. Oczywiście w odniesieniu do dzieci. Według niej sztuczna inteligencja (AI) ma charakter socjotechniczny. Oznacza to, że nie można oddzielić tej technologii od ludzi i tworzonych przez nich procesów, które kształtują i rozwijają jej zastosowanie. Twierdzą wręcz, że skuteczna sztuczna inteligencja powinna opierać się na odpowiedzialności, etyce i inkluzywności.

W sumie ciężko się z nimi nie zgodzić. Zwłaszcza co do ostatniego wyrazu – inkluzywności. AI powinna mieć określone „ramy” dla odpowiednich osób. Nie chodzi tu bynajmniej o ograniczenia dla wszystkich. Chodzi bardziej o elastyczne dostosowanie do wybranych grup i ich wieku. Dlaczego? Już wyjaśniam.

AI i dzieci

Okazuje się, że dzieci odbierają trochę inaczej AI od dorosłych. Patrząc na ich dzisiejsze podejście do spotkań z rówieśnikami oraz większą podatność na treści w sieci, możemy wyciągnąć pewne wnioski.

Zapewne wszyscy wiemy, że umysł dziecka myśli trochę innymi kategoriami. Więcej jest w tym emocji, biegania za trendami i wymiany treści na komunikatorach z rówieśnikami. Co jednak, gdy dziecko ma problem z odnalezieniem się w grupie?

Okazuje się, że niektórzy wykorzystują AI jako wirtualnego przyjaciela. Zwierzają mu się z własnych problemów i proszą o jakąś radę. Nie zawsze jednak odpowiedź bywa właściwa. AI to tylko algorytm maszyny. Zbiera (agreguje) dane, łączy fakty i wyświetla najbardziej zbliżoną odpowiedź. Co więc gdy się pomyli?

Jeden z opłakanych efektów widzieliśmy niedawno w Anglii. Dziecko mające problem poprosiło o radę AI, a potem popełniło samobójstwo. Okazało się, że pytania zadawane sztucznej inteligencji je przerosło. Podało zbliżone odpowiedzi bez określenia psychiki pytającego. Bo w sumie czemu miało by to robić? Jest przecież od innych celów.

Rodzice przekazali sprawę do sądu. Pytanie tylko, czemu sami nie zauważyli zmian i nie skierowali dziecka do specjalisty?

Google Gemini i Common Sense Media 2
Photo by Mariah N: https://www.pexels.com/photo/monitors-and-electronics-on-desk-20453229/

Podsumowanie

W całym tym technologicznym zgiełku zapominamy o podstawowych rzeczach jakie powinniśmy sami robić. Bez oglądania się na sztuczną inteligencję. Jest tym oczywiście interesowanie się swoimi dziećmi. Maszyna rzeczywiście przyczyniła się do tragicznego skutku, ale rodzice mieli w tym swój udział.

Czy wobec tego AI jest złe z założenia? Oczywiście, że nie. Wiele dzieci korzysta z niej na różne sposoby. Od pomocy w odrabianiu lekcji po rozwijanie swoich pasji i zainteresowań. Czego więc w tym wszystkim brakuje? Ano rodziców, którzy wspólnie z dziećmi usiądą do zagadnienia i poświęcą im swój czas. Zainteresują się swoimi pociechami i ich problemami oraz wdrożą cichą kontrolę nad tym co robią.

W ciągłym pośpiechu czasem zapominamy co jest dla nas najważniejsze. Może już czas trochę zwolnić? Rozejrzeć się wokół siebie i zastanowić do czego to wszystko prowadzi? Jak zwykle wiele pytań i mało odpowiedzi.

Mam nadzieję, że Wy również macie na to swoje sposoby i z chęcią się podzielicie w komentarzu na dole lub na platformie X. Do czego bardzo zachęcam i zapraszam, a póki co…

Do następnego!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *