Aici va fi o intruziune
Acest nou instrument de combatere a criminalității a fost dezvoltat de Prof. Ishanu Chattopadhyay de la Universitatea din Chicago, este specializat în inteligență artificială. Baza sa este așa-numita rețea neuronală de auto-învățare, adică un sistem informatic care, pe baza datelor introduse în ea (cum ar fi descrierile evenimentelor trecute), este capabil să tragă concluzii despre cursul cel mai probabil al evenimentele din viitor. Aceasta se numește sisteme predictive, utilizate, de exemplu, în prognoza vremii sau a tendințelor economice.
A. Chattopadhyay a examinat modul în care un astfel de sistem se ocupă de predicția criminalității. În cercetare au fost implicate agenția de cercetare militară DARPA și Colegiul Neubauer pentru Cultură și Societate din Chicago. Vorbind despre algoritmul său, profesorul folosește termenul „city twin” – este un geamăn virtual al unui oraș real creat într-un computer, în care sunt simulate evenimente viitoare.
Dar pentru ca un algoritm să prezică ceva, mai întâi trebuie să i se furnizeze date. Acest lucru a fost realizat folosind informații de la poliția din Chicago despre infracțiuni, în special lupte și jaf, dar și despre infracțiuni minore semnalate de cetățeni. Au fost luate în considerare evenimentele din 2014-2016, care au avut loc în diferite zone ale orașului.
A. Chattopadhyay a instruit algoritmul să calculeze unde sunt probabil să fie comise următoarele crime în săptămâna viitoare. S-a dovedit că algoritmul a indicat aceste locuri cu o precizie de două blocuri și a fost foarte eficient: a lovit de 9 din 10 ori!
Poliția nu este complet obiectivă
Algoritmul a constatat, de asemenea, că numărul de arestări în raport cu numărul de infracțiuni este distribuit foarte inegal. Depinde de situația socio-economică a cartierului și a locuitorilor acestuia: criminalitatea din cartierele mai bogate a dus la mai multe arestări decât în cele mai puțin norocoase. Potrivit profesorului. Chattopadhyaya, acest lucru poate indica o părtinire în răspunsul poliției și al forțelor de ordine. Dr. Cuba Biowar, sociolog de la Universitatea SWPS, este de acord cu acest diagnostic: – Aceasta clarifică mecanismul psihologic al prejudecăților. Dacă unui polițist din districtul Praga-Bodny din Varșovia nu i-ar plăcea Braga-Boonok, probabil că ar fi reticent să meargă la intervenția de pe strada Staloa și ar fi mai puțin interesat să pună ordine acolo, comentează dr. Beowar.
Oamenii de știință lucrează la utilizarea inteligenței artificiale pentru a prezice boli la anumite persoane, pe baza unei analize a stilului lor de viață
După cum asigură creatorul algoritmului, acesta nu este destinat a fi utilizat în secțiile de poliție pentru intervenții directe. – Posibilitatea de a prezice infracțiuni nu înseamnă că unele locuri sunt inundate de patrule de poliție – explică profesorul. Chattopadhyay. Se pot face multe alte lucruri: măsuri educaționale și preventive, ridicarea nivelului de trai într-o anumită zonă. Merită să ne amintim că algoritmul nu indică potențialii criminali, ci doar dinamica evenimentelor criminale dintr-o anumită zonă, spune el. Profesorul realizează că poliția ar putea încerca să folosească greșit acest instrument. „De exemplu, prin patrulare excesivă a anumitor zone sau comunități”, explică el.
Cum învață algoritmii să distingă
Din păcate, fiecare algoritm este la fel de bun ca datele pe care le introduceți și pe baza cărora trageți rezultate – spune dr. Beowar. Este de conceput că patrularea excesivă a zonelor respective va duce la o creștere bruscă a numărului de arestări, stigmatizând astfel zona drept zona cu cea mai mare rată a criminalității. – În plus, profilul criminalității care ar genera un astfel de algoritm bazat pe datele poliției nu ține cont de așa-numitele infracțiuni cu guler alb, infracțiuni specifice comise de oameni înstăriți din zone prestigioase, de exemplu delapidarea de mari sume de bani sau trafic, explică dr. Piwowar.consumul pe scară largă de droguri. Există, de asemenea, probleme sensibile ale rasismului – în cartierele din SUA unde au loc multe crime înregistrate de poliție sunt predominant afro-americani – și din această afirmație este doar o mișcare de generalizare care poate răni mulți oameni și poate face cartierele ciudate. .
Aceasta nu ar fi prima dată când Amnesty International trage concluzii din declarațiile poliției care ar dăuna comunității de culoare din Chicago. În 2016, poliția locală a testat un algoritm de inteligență artificială menit să identifice cetățenii care riscau cel mai mult să participe la împușcături și potențialii autori ai acestor infracțiuni. Potrivit American Business Insider, se dovedește că 56 la sută erau pe listă. Oraseni de culoare!
Rasismul este una dintre cele mai frecvente prejudecăți pe care le-am preluat din neatenție de la noi de către inteligența artificială. – Acum câțiva ani a fost un scandal în legătură cu sistemul Compass, care este folosit în justiția americană – spune dr. Beowar. Sistemul plătea judecătorii care aveau nevoie de o pedeapsă prelungită cu închisoarea și puteau fi eliberați condiționat. Problema a fost că algoritmul a aflat din chestionarele pe care deținuții le-au completat, nu numai despre sentința lor, ci și despre locul în care locuiau sau despre istoria încălcării legii în familie. Negrii din Statele Unite au o astfel de istorie mai des decât albii, iar sistemul a recunoscut că dacă cineva avea un frate în închisoare în familie, exista un risc mai mare de a recidivă ei înșiși. Și este mai probabil să-i afecteze pe negrii decât pe albi. – Deci, chiar dacă White a comis o crimă mai gravă, pe baza acestor date, Kompas a sugerat să-i acorde eliberarea condiționată – spune dr. Beowar.
Stereotipurile despre genul pur uman pătrund și în sistemele AI. Dosarul de recrutare al Amazon a fost derulat în urmă cu câțiva ani, timp în care sistemul informatic a început prima etapă de angajare pentru posturi tehnice, respingând fără motiv oferte mari de femei și de preferat bărbați albi gălăgioși. Numai când profesioniștii IT au analizat cazul, a devenit clar că acești candidați au fost selectați mai des în timpul proceselor de recrutare anterioare. Inteligența artificială reflectă punctul de vedere uman.
Cu toate acestea, nimeni nu intenționează să renunțe la algoritmi de ajutor în procesul de recrutare. Potrivit Washington Post, aproximativ 100 de companii internaționale folosesc deja în faza inițială sistemul HireVue, care comunică cu candidatul prin camera telefonului său și analizează aspectul, îmbrăcămintea, stilul și manierele intervievatorului în timpul interviului. Pe baza indicatorilor sistemului, se efectuează o selecție preliminară a candidaților. Acest lucru este destul de controversat, dar specialiștii din departamentele de resurse umane se apără cu argumentul că această selecție bazată pe o evaluare complet subiectivă a aspectului sau a modului de a vorbi a candidatului s-a făcut întotdeauna. Acum, datorită algoritmilor, este pur și simplu mai rapid și mai eficient.
Confidențialitate pentru confortul dumneavoastră
Există mult scepticism, dar, cu toate acestea, sistemele AI ne afectează din ce în ce mai mult viețile – ne forțează prietenii pe rețelele sociale, ne controlează deciziile. – Google, Facebook și Twitter colectează cantități uriașe de informații despre noi, bazându-se exclusiv pe monitorizarea comportamentului nostru în spațiul cibernetic – spune profesorul. Ryszard Tadeusiewicz de la Universitatea de Știință și Tehnologie AGH din Cracovia. – Se creează un model digital al personalității fiecărui utilizator, care permite prezicerea modului în care va interacționa cu aceasta sau cutare informație. Pe de altă parte, în cantitatea uriașă de informații pe care o generează lumea, fără ajutorul inteligenței artificiale, ne-am pierde ca niște copii într-o pădure deasă – adaugă el.
Adecvarea utilizării sistemelor AI în lumea virtuală nu poate fi exagerată. Personalizarea magazinului dvs. online sau a reclamei pentru un anumit client ușurează mult viața. Același lucru este valabil și pentru vizualizarea postărilor prietenilor sau a grupurilor tematice pe rețelele sociale. De obicei, este o potrivire perfectă pentru ceea ce ne pasă și ne iubim mult, spune dr. Piwowar.
Sistemele AI cu auto-învățare nu înseamnă doar o viață mai convenabilă, ci și una mai sigură. Algoritmul nostru, care prezice criminalitatea astăzi, poate fi folosit pentru a prezice evenimente meteorologice extreme sau cutremure. Sisteme similare de auto-învățare au mari speranțe pentru creșterea eficienței agriculturii, ceea ce va preveni o criză alimentară și poate ajuta, de asemenea, la prezicerea următoarelor epidemii – enumeră profesorul. Chattopadhyay.
Oamenii de știință lucrează, de asemenea, la utilizarea inteligenței artificiale pentru a prezice boli la anumite persoane, pe baza unei analize a stilului lor de viață și a frecvenței de apariție a acestora la medici. Acestea sunt date sensibile, dar analiza acestora ar putea reprezenta o descoperire precoce, de exemplu, a cancerului.
– Problema apare atunci când inteligența artificială începe să controleze alegerile oamenilor, așa cum sa întâmplat în timpul scandalului Cambridge Analytica – spune dr. Piwowar. Era vorba despre aplicația Mydigitallife, care urmărea comportamentul utilizatorilor și crea profilurile personale, care apoi erau folosite pentru a manipula opiniile politice și a încuraja anumite alegeri. Aceasta include, datorită datelor de la Cambridge Analytica, Donald Trump a câștigat alegerile din SUA.
„Creator. Bursă de alcool. Maven web extrem de umil. Scriitor rău. Tv ninja.”