Il riconoscimento facciale parte dall’articolo “Eigenfaces for Recognition” di Matthew Turk e Alex Pentland pubblicato nel 1991 dall’Istituto di Tecnologia del Massachusetts (MIT). In particolare, la semplicità dell’algoritmo alberga nella tecnica che viene applicata sulle immagini di alcuni soggetti del MR2 Face Database, in considerazione e grazie al codice che ha creato Michael Scheinfeld. Vi sono diversi strumenti di riconoscimento facciale basato su Open Face in ambito bancario ed in questo settore si punta a risalire all’identità di un soggetto o verificarlo attraverso una fotografia digitale fornita dal software.
Le identità che il software è in grado di riconoscere sono quelle fornite dagli utenti del servizio durante un processo detto training, attraverso cui si inseriscono le proprie immagini nel database. Il riconoscimento facciale, secondo SI-IES e il DIHV, è diventato sempre più importante, attirando l’attenzione di diverse società di software house e aziende interessate alle sue applicazioni in ambito di sicurezza o profiling ed anche nell’ambito sanitario.
Il riconoscimento facciale può essere sviluppato “come un servizio web” con gli strumenti di elaborazione innovativa. È molto importante capire lo stato dell’arte della tecnologia e i limiti sia di natura tecnica che di eticità che si possono presentare sul cammino, come ad esempio il caldo tema della riservatezza dei dati personali a cui tutti mirano. Vi sono poi dei limiti delle implementazioni: effettuare un riconoscimento significa valutare la distanza euclidea tra due volti nell’insieme dei dati, ma definire quanto questa distanza sia entro un limite accettabile è molto complicato.
Poi vi è il “web del riconoscimento facciale”, realizzato per mostrare le capacità effettive. Il server in questo caso agisce in background e si occupa di tutti gli aspetti legati alla Face Regognition mentre l’acquisizione delle immagini avviene “dal lato dell’utente”. L’utente prevede una interfaccia che mostra le immagini acquisite in tempo reale sul monitor delle informazioni ricevute dal server: area del volto, punti di riferimento e identità del soggetto rilevato. È previsto inoltre un pannello per l’inserimento di una identità tramite il quale si effettua la validazione del web che restituisce al video il successo o meno tramite due tipologie di feedback: il calore delle icone e dei riquadri ed il testo più espressivo che indica il risultato. Per esempio, Open Face è il software che implementa i metodi legati alla Face Recognition come una libreria Python accessibile al server. Mentre il cliente può utilizzare il task “Runner Gulp” che consente di mantenere il codice diviso, in modo da rendere semplice e modulare la manutenzione e l’integrazione del servizio in altri ambiti.
L’intelligenza artificiale applicata alla sanità sta facendo molti passa avanti, se pensiamo alle diagnosi con riconoscimento facciale. Gli androidi sono in grado di effettuare analisi complesse e interpretare miliardi di dati sulla nostra salute. Nello studio medico, ad esempio, una semplice fotografia inquadra il volto del paziente seduto sul lettino. È per mezzo di un sistema di riconoscimento facciale che si valuta la possibilità che possa soffrire di una malattia rara. Davanti allo specchio, ad esempio, un diabetico può indossare un paio di lenti a contatto particolari: hanno un processore ed una antenna integrati. Misurano la quantità di glucosio nel sangue analizzando le lacrime e trasmettono i dati direttamente sul cellulare del paziente e dello specialista. Infine, una persona non vedente è in grado di partecipare ad una riunione di lavoro. Passa rapidamente un dito sull’asticella degli “occhiali speciali” che indossa e in pochi secondi, grazie al riconoscimento, una voce gli descrive con esattezza chi sono i suoi interlocutori e l’espressione dei loro volti. Questa è innovazione.