Mimo całej ich oszałamiającej liczby strzelaniny w szkole są nadal przerażającym horrorem.
Nie tylko nie ma zgody co do tego, jak ich powstrzymać - z sugestiami obejmującymi ograniczenie dostępu do broni dla nauczycieli uzbrajających - ale jeszcze mniej jest pewności, dlaczego uczeń otworzyłby ogień do swoich kolegów z klasy.
Teraz niektórzy naukowcy zaczynają badać, czy sztuczna inteligencja (AI) może pomóc w znalezieniu odpowiedzi. Chodzi o to, że algorytmy mogą lepiej analizować dane związane ze strzelaninami szkolnymi, a być może nawet identyfikować wzorce w języku uczniów lub zachowania, które mogą zapowiadać przemoc w szkole. Badania są wciąż w początkowej fazie, a perspektywa użycia maszyn do przewidywania, kto może zostać strzelcem szkolnym, rodzi problemy z prywatnością i inne pytania etyczne związane z wszelkiego rodzaju profilowaniem, zwłaszcza że proces ten obejmowałby dzieci. Celem jest jednak sprawdzenie, czy analityczna moc inteligentnych maszyn może zapewnić większą jasność tragediom zbyt często pochłanianym przez wir wysokich emocji i politycznej retoryki.
Przechodząc do technologii
Wykorzystanie sztucznej inteligencji jako sposobu na doprowadzenie analizy naukowej do czegoś tak niezgłębionego jak strzelaniny szkolne bardzo spodobało się Shreya Nallapati. Właśnie ukończyła szkołę średnią w Kolorado, ale w lutym, po strzelaninie śmierci 17 uczniów w Parkland na Florydzie, zainspirowała ją liderka Emma Gonzalez.
„Czułem, że nie powinniśmy po prostu publikować naszych myśli i kondolencji”, mówi Nallapati. „Myślałem, że jako wschodzące pokolenie tysiącleci powinniśmy spróbować wykorzystać to, co wiemy najlepiej - technologię”.
Tak więc Nallapati, która studiowała sztuczną inteligencję w szkole średniej, skontaktowała się z innymi młodymi kobietami, które zna, poprzez program o nazwie Aspiracje w informatyce prowadzony przez Narodowe Centrum Kobiet i Technologii Informacyjnych. Aspiracje w informatyce zachęcają młode kobiety do wejścia w dziedziny informatyki i technologii.
Nallapati poprosił innych członków grupy o dołączenie do niej w nowym projekcie #NeverAgainTech. Ma nadzieję, że wspólny wysiłek zaowocuje kompilacją i analizą opartą na sztucznej inteligencji szerokiej gamy danych związanych ze strzelaninami szkolnymi - od informacji demograficznych i społeczno-ekonomicznych na temat dawnych strzelców, po historię zażywania narkotyków lub zaburzeń neurologicznych, po dostępność broni w stanach, w których miały miejsce ataki. Celem jest opracowanie bardziej kompleksowego podziału wielu elementów strzelanin szkolnych niż wszystko, co obecnie istnieje, i udostępnienie powstałego oprogramowania społeczeństwu, w szczególności szkołom i organom ścigania, w przyszłym roku.
Ocena ryzyka
Zespół naukowców ze Szpitalu Dziecięcego w Cincinnati stosuje inne podejście do wykorzystywania AI w walce z przemocą w szkole. Opublikowało ostatnie badanie sugerujące, że uczenie maszynowe mogłoby potencjalnie pomóc terapeutom i doradcom w określeniu poziomu ryzyka, jakie może stwarzać uczeń.
W szczególności naukowcy odkryli, że AI była tak dokładna jak zespół psychiatrów dzieci i młodzieży, jeśli chodzi o ocenę ryzyka zachowań związanych z przemocą, na podstawie wywiadów z 119 dziećmi w wieku od 12 do 18 lat. Podczas gdy badanie koncentrowało się głównie na fizyce agresja, główny badacz Drew Barzman mówi, że miało to również zastosowanie do oceny ryzyka strzelania do szkoły.
„Zazwyczaj przed przemocą szkolną pojawiają się znaki ostrzegawcze” - mówi. W szczególności język używany przez studenta podczas rozmowy kwalifikacyjnej może pomóc odróżnić nastolatka wysokiego ryzyka od nastolatka niskiego ryzyka, zgodnie z wcześniejszymi badaniami przeprowadzonymi przez Barzmana. Badanie to wykazało, że ten pierwszy był bardziej skłonny do wyrażania negatywnych uczuć na swój temat i na temat działań innych. Bardziej prawdopodobne było, że będzie mówił o aktach przemocy z udziałem siebie oraz brutalnych grach wideo lub filmach.
Zespół zrobił kolejny krok, wykorzystując algorytm sztucznej inteligencji do wykorzystania wyników wcześniejszych badań do analizy transkryptów studentów, z którymi przeprowadzono wywiady w ramach nowych badań. Na podstawie wzorców językowych wskazywał, czy dana osoba ma wysokie lub niskie ryzyko popełnienia przemocy. W ponad 91 procentach czasu algorytm, wykorzystujący tylko transkrypty, dostosowywał się do bardziej szczegółowych ocen zespołu psychiatrów dzieci i młodzieży, którzy mieli również dostęp do informacji od rodziców i szkół.
Studenci biorący udział w badaniu byli w dużej mierze rekrutowani z poradni psychiatrycznych, oddziałów stacjonarnych i oddziałów ratunkowych. Niektóre ostatnio wykazywały poważne zmiany w zachowaniu, ale dla innych zmiany były bardziej niewielkie. Barzman mówi, że uczęszczali do różnych szkół, chociaż żadna nie była w domu.
Według Barzmana badanie koncentrowało się na przewidywaniu agresji fizycznej w szkole, ale nadal nie wiadomo, czy uczenie maszynowe mogłoby faktycznie zapobiec przemocy. W tym momencie nacisk kładziony jest na zapewnienie terapeutom i doradcom narzędzia, które może wyostrzyć ich ocenę uczniów na podstawie wywiadów. Barzman zauważa, że intencją nie jest, aby maszyny podejmowały decyzje dotyczące studentów.
„Zasadniczo miałoby to pomóc klinicystom w podejmowaniu decyzji” - mówi Barzman. „Zapewnilibyśmy im strukturę pytań, które naszym zdaniem są ważnymi pytaniami. Wywiad z uczniem, wybranie właściwych informacji i zapamiętanie wszystkiego może być trudny. Chodzi o to, aby dać im narzędzie, które może im pomóc poprzez proces i zwiększyć dokładność ich ocen. ”
Matty Squarzoni jest kolejnym wierzącym w potencjał sztucznej inteligencji w radzeniu sobie z przemocą w szkole. Jest dyrektorem kalifornijskiego startupu o nazwie Sitch AI, który planuje wprowadzić na rynek technologię, która według niego może pomóc szkołom poradzić sobie z takimi zagrożeniami. Początkowo nacisk zostanie położony na opracowanie systemu czujników, które umożliwią funkcjonariuszom policji dokładne wykrycie strzałów, a także śledzenie ruchów strzelca w szkole. Ale Squarzoni twierdzi, że firma szuka także sposobów zastosowania analizy predykcyjnej, aby wykryć potencjalne problemy, zanim staną się one gwałtowne.
Uważa, że sztuczna inteligencja może analizować dane ucznia i oznaczać znaczące zmiany w jego wydajności lub zachowaniu. Squarzoni uznaje potencjalne obawy dotyczące prywatności, ale twierdzi, że firma nie poznałaby tożsamości uczniów.
„Nie mówimy o tworzeniu profili” - mówi. „Patrzylibyśmy na każdą osobę jako na wyjątkowy byt. Ale ludzie są przyzwyczajeniami. Kiedy zaczynają mieć nieregularności, wtedy zaczynasz na nie patrzeć. Dostrzegasz flagi, a może flagi zaczynają się zbliżać. Mogą to być problemy ze zdrowiem psychicznym, a może ich oceny spadają.
„Nie patrzymy na to, aby móc powiedzieć:„ Ta osoba będzie strzelcem ”. Chcemy móc powiedzieć: „Ta osoba potrzebuje pomocy”.
Nie tak szybko?
Ale inni mają poważne obawy dotyczące pośpiechu wykorzystywania algorytmów oprogramowania do rozwiązywania złożonych problemów społecznych.
„Obserwujemy teraz trend stosowania sztucznej inteligencji w bardzo wrażliwych domenach z alarmującą prędkością, a ludzie tworzący te algorytmy niekoniecznie rozumieją wszystkie społeczne, a nawet polityczne aspekty wykorzystywanych przez nich danych”, mówi Rashida Richardson, dyrektor ds. badań polityki w AI Now Institute, programie na New York University, który bada społeczne implikacje sztucznej inteligencji.
Jednym z obszarów, w którym użycie AI znalazło się pod ostrzałem, jest tak zwane policyjne postępowanie zapobiegawcze. Są to oprogramowanie, które analizuje statystyki przestępczości, a następnie przewiduje, gdzie przestępstwa są bardziej prawdopodobne. Ale krytycy zwracają uwagę, że dane, takie jak aresztowania, mogą być wynikiem uprzedzeń ludzkich, które ostatecznie mogą zostać upchnięte w algorytmie.
Jest to zawsze ryzyko analizy predykcyjnej i dlatego źródło danych jest kluczowym czynnikiem decydującym o tym, jak obiektywnie może być. Ponieważ narzędzie AI jest opracowywane przez badaczy ze szpitala dziecięcego w Cincinnati, analiza opiera się raczej na tym, co mówią poszczególni studenci podczas wywiadu, a nie na szerokim zestawieniu statystyk.
Mimo to Richardson uważa, że ważne jest, aby zespoły tworzące tego rodzaju oprogramowanie były „interdyscyplinarne”, tak aby na przykład nauczyciele byli zaangażowani w programy oceniające zachowanie uczniów.
„Naukowcy mogą nie rozumieć wielu niuansów tego, co ludzie w świecie edukacji i polityki prawnej nazywają szkolnym klimatem. Obejmuje to kwestie bezpieczeństwa i zachowania ”- mówi. „To, w jakiej szkole się często decydujesz, jak się zachowuje i jak postępuje dyscyplina.
„Na przykład stwierdzono, że szkoły czarterowe mają znacznie bardziej rygorystyczne zasady dyscyplinarne”, dodaje Richardson. „Dzieci w tym środowisku będą traktowane znacznie inaczej niż w prywatnej szkole wyższej klasy, a nawet w różnych szkołach publicznych.
„Próba zrozumienia bardzo skomplikowanych problemów, które mają niezliczoną ilość danych wejściowych, i zastosowanie rozwiązania technicznego, które odzwierciedla ich fragment, jest problemem, ponieważ może albo powtórzyć te same problemy, które widzimy w społeczeństwie, lub stworzyć rozwiązanie problemu, którego nie ma. ”
Richardson mówi, że innym problemem jest to, że nawet jeśli program sztucznej inteligencji zostanie opracowany z najlepszymi intencjami, może zostać wykorzystany w sposób, którego twórcy nie przewidują.
„Kiedy wymyślisz te narzędzia” - mówi - „to nie tak, że nadal masz kontrolę nad tym, jak są one wdrażane lub w jaki sposób będą wpływać na całe społeczeństwo”.