Могут ли цифровые алгоритмы помочь защитить таких детей, как Габриэль Фернандес, от жестокого обращения?

Каждый год примерно 7 миллионов детей сообщаются в органы по защите детей о возможных злоупотреблениях, но как власти определяют, нравятся ли детям? Габриэль Фернандес находятся в серьезной опасности и нуждаются во вмешательстве?





Многие органы социальной защиты детей полагаются на оценки рисков, проводимые персоналом, обученным работать с телефонными линиями, по которым поступают сообщения о предполагаемом жестоком обращении, но некоторые полагают, что может быть лучший способ.

«Мы видели обширную литературу, которая свидетельствует о том, что люди - не особо хорошие хрустальные шары», - говорит Эмили Патнэм-Хорнстайн, директор Детская сеть передачи данных и доцент Университета Южной Калифорнии, сказал в новом сериале документов Neflix «Судебные процессы над Габриэлем Фернандесом». «Вместо этого мы говорим, что давайте обучим алгоритм, чтобы определить, кто из этих детей соответствует профилю, в котором риск длинной дуги предполагает участие системы в будущем».



Фернандес был 8-летним мальчиком, которого его избили и замучили до смерти. мама И ее парень , несмотря на неоднократные звонки его учителя и других в органы власти с сообщениями о предполагаемом насилии. В новой серии из шести частей рассказывается о жизни и ужасной смерти Фернандеса, но в ней также уделяется более пристальное внимание системные проблемы в системе защиты детей это могло сыграть определенную роль.



Патнам-Хорнштейн утверждает, что одна из стратегий более эффективного выявления детей, подвергающихся наибольшему риску, может заключаться в использовании специально созданных алгоритмов, которые используют административные записи и интеллектуальный анализ данных для определения оценок риска для каждого ребенка.



«На самом деле у нас есть около 6 или 7 миллионов детей, о которых каждый год сообщается о предполагаемом жестоком обращении или пренебрежении заботой в США, и исторически то, как мы принимали некоторые из наших решений по скринингу, основывалось только на некоторой внутренней оценке», - сказала она. «Прогнозирующее моделирование рисков просто говорит:« Нет, нет, нет, давайте применим к этому более систематический и эмпирический подход »».

Патнам-Хорнштейн и Рема Вайтианатан, содиректор Центр аналитики социальных данных , смогли воплотить идею в жизнь в округе Аллегейни, штат Пенсильвания. Эта пара использовала тысячи обращений к детям, подвергшимся жестокому обращению, чтобы разработать алгоритм, который определил бы оценку риска для каждой семьи, сообщенной в окружные службы защиты детей, согласно данным Центр медицинской журналистики .



«Рассматривается около сотни различных факторов, - пояснил в серии документов Марк Черна, директор департамента социальных служб округа Аллегейни. «Некоторые основные примеры - это история защиты детей, история родителей, конечно, употребление наркотиков и наркомания, семейные психические заболевания, тюрьма и осуждения, особенно если есть нападения и тому подобное».

почему Эмбер Роуз бреет голову

Из-за большого количества звонков органам по охране детства по всей стране поручено определить, следует ли проверять семью для расследования на основании жалобы или же ее следует отсеивать.

что случилось с парнем из trivago?

По данным компании, в 2015 году 42% из 4 миллионов заявлений, полученных по всей стране в отношении 7,2 миллиона детей, были проверены. Нью-Йорк Таймс .

Тем не менее, дети продолжают умирать от жестокого обращения с детьми.

Система, используемая в округе Аллегейни, предназначена для более точного прогнозирования того, какие семьи, вероятно, будут участвовать в системе в будущем, посредством анализа данных.

«У проверяющих есть много данных», - сказал Вайтианатан The Times. «Но довольно сложно ориентироваться и знать, какие факторы являются наиболее важными. В рамках одного звонка в C.Y.F. , у вас может быть двое детей, предполагаемый преступник, у вас будет мама, у вас может быть еще один взрослый в семье - все эти люди будут иметь истории в системе, которые человек, проверяющий звонок, сможет расследовать. Но человеческий мозг не настолько искусен в использовании и понимании всех данных ».

Инструмент скрининга семьи Аллегейни использует статистический метод, называемый «интеллектуальным анализом данных», чтобы изучить исторические закономерности, чтобы «попытаться сделать прогноз о том, что может произойти» в любом конкретном случае, сказала она в серии документов.

Каждому случаю присваивается оценка риска в диапазоне от одного до 20, при этом каждый случай классифицируется как высокий, средний или низкий риск.

Рэйчел Бергер, педиатр из Детской больницы Питтсбурга, сказала The Times в 2018 году, что ценным прогностический анализ делает то, что он устраняет часть субъективности, которая обычно присутствует в этом процессе.

«Все эти дети живут в хаосе», - сказала она. «Каким образом C.Y.F. выбрать, какие из них больше всего в опасности, когда все они имеют факторы риска? Вы не можете поверить в то, насколько субъективны решения по защите детей. Вот почему я люблю предиктивную аналитику. Это, наконец, привносит некоторую объективность и научность в решения, которые могут невероятно изменить жизнь '.

Но были также критики, которые утверждали, что использование прогнозной аналитики основывается на данных, которые уже могут быть предвзятыми. Прошлые исследования показали, что меньшинства и семьи с низким доходом часто чрезмерно представлены в собираемых данных, что потенциально создает предвзятость в отношении афроамериканских семей или других семей меньшинств, согласно серии документов.

фильм "Волчий ручей" основан на реальных событиях?

«Человеческие предубеждения и предубеждения в данныхидти рука об руку друг с другом, - сказала Келли Капатосто, старший научный сотрудник Института изучения расы и этнической принадлежности Кирвана при Университете штата Огайо, сообщает Центр медицинской журналистики. «Принимая эти решения, мы думаем о наблюдении и системном контакте - с полицией, агентствами по защите детей, любыми агентствами, обслуживающими социальное обеспечение. Он будет чрезмерно представлен в сообществах (с низкими доходами и меньшинствами). Это не обязательно указывает на то, где происходят эти случаи ».

Эрин Далтон, заместитель директора отдела анализа, технологий и планирования округа Аллегейни, признала, что предвзятость возможна.

«Несомненно, в наших системах есть предвзятость. Жестокое обращение с детьми рассматривается нами и нашими данными не как функция фактического насилия над детьми, а как функция от того, о ком сообщается », - сказала она в серии Netflix.

Но округ также сообщил Центру медицинской журналистики, что выяснилось, что получение государственных пособий снижает показатели риска для почти семей.

Токруг «очень чувствителен» к этой проблеме и проводит постоянный анализ системы, чтобы определить, были ли группы подвергнуты непропорциональному преследованию, - также сказал Черна в серии документов.

Система округа Аллегейни принадлежит самому округу, но также была некоторая критика других частных систем проверки.

Департамент обслуживания детей и семьи штата Иллинойс объявил в 2018 году, что он больше не будет использовать пакет прогнозной аналитики, разработанный некоммерческой организацией Eckerd Connects и ее коммерческим партнером MindShare Technology, отчасти потому, что компания отказалась предоставить подробную информацию о том, какие факторы были использованы в их формуле, согласно The Times.

По сообщениям, система начала определять тысячи детей как нуждающихся в срочной защите, что дает более чем 4100 детям из Иллинойса вероятность смерти или травмы 90 или более процентов. Чикаго Трибьюн сообщалось в 2017 году.

Тем не менее, другие дети, не получившие высоких оценок риска, все равно умирали от жестокого обращения.

«Прогнозирующая аналитика (не) предсказывала какие-либо тяжелые случаи», - заявил директор Департамента по делам детей и семьи Беверли «Би Джей». Уокер сказал Tribune. «Я решил не продолжать этот контракт».

Дэниел Хэтчер, автор книги « Индустрия бедности: эксплуатация наиболее уязвимых граждан Америки »Сравнил некоторые аналитические системы с« черным ящиком », заявив в серии документов, что не всегда ясно, как они принимают решения.

«У них нет возможности понять, как они на самом деле определяют уровень ухода, который имеет огромное влияние на человека», - сказал он.

клуб плохих девчонок сезон 16 зи

Патнам-Хорнстайн признала, что системы прогнозного анализа не способны определять будущее поведение, но она действительно считает, что это ценный инструмент, который позволяет специалистам по скринингу принимать более обоснованные решения о том, какие дети могут подвергаться наибольшему риску.

«Я надеюсь, что эти модели помогут нашей системе уделять больше внимания относительно небольшой группе направлений, где риск особенно высок, и мы сможем выделить больше ресурсов для этих детей и семей в профилактических целях», - сказала она. в Центр медицинской журналистики. «Я не хочу, чтобы кто-то переоценивал возможности прогнозного моделирования рисков. Это не хрустальный шар. Это не решит всех наших проблем. Но с запасом, если это позволит нам принимать немного более точные решения и выявлять случаи с высоким риском, отсортировать их от дел с низким риском и соответствующим образом корректировать, это могло бы стать важным событием в этой области ».

Категория
Рекомендуем
Популярные посты