При всей их потрясающей частоте школьные перестрелки остаются ужасающим ужасом.
Мало того, что нет единого мнения о том, как их остановить - с предложениями, варьирующимися от ограничения доступа к оружию до вооружения учителей - но еще меньше уверенности в том, почему ученик открыл огонь по своим одноклассникам.
Теперь некоторые ученые начинают исследовать, может ли искусственный интеллект (ИИ) помочь найти ответы. Идея состоит в том, что алгоритмы могут лучше анализировать данные, связанные со стрельбой в школе, и, возможно, даже выявлять закономерности в языке учащихся или их поведении, которые могут предвещать насилие в школе. Исследование все еще находится на ранних стадиях, и перспектива использования машин для прогнозирования того, кто может стать школьным стрелком, поднимает вопросы конфиденциальности и другие этические вопросы, связанные с любым видом профилирования, особенно с учетом того, что в этом процессе участвуют дети. Цель, однако, состоит в том, чтобы увидеть, может ли аналитическая мощь интеллектуальных машин дать больше ясности трагедиям, слишком часто поглощаемым вихрем высоких эмоций и политической риторики.
Обращаясь к технологии
Использование искусственного интеллекта как способа научного анализа сделать что-то такое непостижимое, как школьные съемки, очень привлекло Шрею Наллапати. Она только что закончила среднюю школу в Колорадо, но в феврале, после расстрела 17 учеников в Паркленде, штат Флорида, она была вдохновлена лидером учеников Эммой Гонсалес принять меры.
«Я чувствовал, что мы не должны просто публиковать наши мысли и соболезнования», - говорит Наллапати. «Я думал, что, как подрастающее поколение миллениалов, мы должны попытаться использовать то, что мы знаем лучше всего - технологии».
Поэтому Наллапати, которая изучала искусственный интеллект в старших классах, обратилась к другим знакомым девушкам в рамках программы под названием «Стремление в компьютерных технологиях», которая проводится Национальным центром женщин и информационных технологий. Стремление в области вычислительной техники поощряет молодых женщин выходить на компьютерные и технологические сферы.
Наллапати попросила других в группе присоединиться к ней в новом проекте #NeverAgainTech. Она надеется, что совместные усилия приведут к компиляции и анализу ИИ широкого спектра данных, связанных со стрельбой в школе - от демографической и социально-экономической информации о прошлых стрелках, до любой истории употребления наркотиков или неврологических расстройств, до наличие оружия в штатах, где произошли нападения. Цель состоит в том, чтобы разработать более полную разбивку по многим компонентам школьных расстрелов, чем все, что существует в настоящее время, и сделать готовое программное обеспечение доступным для общественности, особенно школ и правоохранительных органов, в следующем году.
Оценка риска
Команда исследователей из Медицинского центра детской больницы Цинциннати использует иной подход к использованию ИИ для борьбы с насилием в школе. В нем опубликовано недавнее исследование, предполагающее, что машинное обучение может потенциально помочь терапевтам и консультантам в определении уровня риска, который может представлять студент.
В частности, ученые обнаружили, что ИИ был точным, как команда психиатров из числа детей и подростков, когда дело дошло до оценки риска насильственного поведения, на основе опросов 119 детей в возрасте от 12 до 18 лет. В то время как исследование было сосредоточено в основном на физической агрессия, ведущий исследователь Дрю Барзман говорит, что это также применимо к оценке риска стрельбы в школе.
«Как правило, перед школьным насилием появляются предупреждающие знаки», - говорит он. В частности, язык, который студент использует во время интервью, может помочь отличить подростка с высоким риском от подростка с низким риском, согласно предыдущему исследованию Барзмана. Это исследование пришло к выводу, что первый имел больше шансов выразить негативные чувства по отношению к себе и действиям других. Он также с большей вероятностью говорил о насильственных действиях с участием самого себя и насильственных видеоиграх или фильмах.
Команда сделала еще один шаг, предложив алгоритму ИИ использовать результаты предыдущего исследования для анализа стенограмм студентов, опрошенных для нового исследования. Исходя из языковых моделей, указывалось, был ли у человека высокий или низкий риск совершения насилия. Более чем в 91 процентах случаев алгоритм, использующий только транскрипты, соответствовал более обширным оценкам команды психиатров-детей и подростков, которые также имели доступ к информации от родителей и школ.
Студенты в исследовании были в основном набраны из психиатрических поликлиник, стационарных отделений и отделений неотложной помощи. Некоторые из них недавно показали значительные изменения в поведении, но для других, изменения были более незначительными. Барзман говорит, что они посещали самые разные школы, хотя ни одна из них не была обучена на дому.
По словам Барзмана, исследование было сфокусировано на прогнозировании физической агрессии в школе, но пока неизвестно, может ли машинное обучение реально предотвратить насилие. В данный момент основное внимание уделяется тому, чтобы предоставить терапевтам и консультантам инструмент, который мог бы улучшить их оценки учащихся на основе интервью. Барзман отмечает, что цель состоит не в том, чтобы машины принимали решения о студентах.
«В основном это должно помочь врачу в принятии решений», - говорит Барзман. «Мы предоставим им структуру того, что мы считаем важными вопросами. Может быть трудно взять интервью у студента, выбрать правильную информацию и запомнить все. Идея состоит в том, чтобы дать им инструмент, который может помочь им через процесс и повысить точность своих оценок ".
Мэтти Скварцони - еще один сторонник потенциала искусственного интеллекта в борьбе с насилием в школе. Он является генеральным директором калифорнийского стартапа под названием Sitch AI, который планирует продавать технологии, которые, по его словам, могут помочь школам справиться с такими угрозами. Первоначально основное внимание будет уделено разработке системы датчиков, которые позволят сотрудникам полиции определять точное местоположение выстрелов, а также отслеживать движение стрелка в школе. Но Squarzoni говорит, что компания также ищет способы использовать прогнозный анализ для выявления потенциальных проблем, прежде чем они станут насильственными.
Он считает, что искусственный интеллект может анализировать данные ученика и отмечать заметные изменения в его или ее производительности или поведении. Squarzoni признает потенциальную озабоченность по поводу конфиденциальности, но говорит, что компания не будет знать личности студентов.
«Мы не говорим о создании профилей», - говорит он. «Мы будем рассматривать каждого человека как уникальную личность. Но люди - существа привычки. Когда они начинают иметь неровности, вот когда вы начинаете смотреть на них. Вы замечаете флаги, и, возможно, флаги начинают все ближе и ближе. Это могут быть проблемы с психическим здоровьем или, возможно, их оценки снижаются.
«Мы не стремимся сказать:« Этот человек станет стрелком ». Мы хотим быть в состоянии сказать: «Этому человеку нужна помощь».
Не так быстро?
Но у других есть серьезные опасения по поводу стремления использовать программные алгоритмы для решения сложных социальных проблем.
«Сейчас мы наблюдаем тенденцию применения ИИ к очень чувствительным доменам с пугающей скоростью, и люди, создающие эти алгоритмы, не обязательно понимают все социальные и даже политические аспекты используемых ими данных», - говорит Рашида Ричардсон. директор по политическим исследованиям в Институте AI Now, программе в Нью-Йоркском университете, которая изучает социальные последствия искусственного интеллекта.
Одной из областей, где использование ИИ попало под огонь, является то, что известно как предиктивная полицейская деятельность. Это программные продукты, которые анализируют статистику преступности, а затем предсказывают, где преступления с большей вероятностью будут совершены. Но критики отмечают, что такие данные, как аресты, могут быть результатом предвзятого отношения человека, которое в конечном итоге может быть включено в алгоритм.
Это всегда риск прогнозного анализа, и поэтому источник данных является ключевым фактором, определяющим, насколько объективным он может быть на самом деле. Тем не менее, благодаря инструменту искусственного интеллекта, разработанному исследователями в детской больнице Цинциннати, анализ основан на том, что говорят отдельные ученики во время интервью, а не на широкой статистической статистике.
Тем не менее, Ричардсон считает, что команды, которые создают такое программное обеспечение, являются «междисциплинарными», поэтому, например, преподаватели участвуют в программах, оценивающих поведение учащихся.
«Исследователи могут не понимать многих нюансов того, что люди в мире образования и правовой политики называют школьным климатом. Это включает вопросы безопасности и поведения », - говорит она. «Тип школы, в которой вы находитесь, часто диктует, как поступать с поведением и как обращаться с дисциплиной.
«Например, было установлено, что в чартерных школах действует гораздо более строгая дисциплинарная политика», - добавляет Ричардсон. «С детьми в этой среде будут обращаться по-разному, чем в частной школе высокого класса и даже в других государственных школах.
«Попытка понять очень сложные проблемы, которые имеют множество входных данных, и применение технического решения, отражающего его частичку, является проблемой, потому что она может либо повторить те же проблемы, которые мы видим в обществе, либо создать решение для проблемы, которой нет. »
Ричардсон говорит, что другая проблема заключается в том, что даже если программа ИИ разрабатывается с наилучшими намерениями, она может в конечном итоге использоваться способами, не ожидаемыми ее создателями.
«Как только вы придумаете эти инструменты, - говорит она, - это не значит, что вы продолжаете контролировать то, как они реализуются или как они будут продолжать влиять на общество в целом».