La rivoluzione dell’Intelligenza Artificiale: sfide e linee di ricerca future verso un’intelligenza aumentata

L’Intelligenza Artificiale (IA), che nell’ultimo decennio ha avuto un forte impulso in termini di sviluppo, sta influenzando moltissime attività della nostra vita quotidiana. Essa rappresenta una disciplina delle scienze informatiche nata intorno agli anni ‘50 del Novecento (Jatobá et al., 2019) con l’obiettivo di sviluppare sistemi software e hardware in grado di mostrare capacità tipicamente umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività (Lucci & Kopec, 2016; Somalvico, 1987). Tuttavia, è solo negli ultimi anni che questa disciplina è passata dallo sviluppo teorico alla sua piena applicazione pratica. Le tecnologie di IA hanno quindi affiancato la robotica, quella branca dell’ingegneria che studia e sviluppa robot per l’automazione, soprattutto in ambito industriale. Proprio perché fortemente complementari, spesso nell’immaginario collettivo le due discipline vengono confuse. In realtà, la robotica si concentra principalmente sullo sviluppo delle parti meccaniche di un robot, mentre l’IA mira all’elaborazione di algoritmi software in grado apprendere e ragionare autonomamente. Proprio per questo motivo, l’ecosistema che include IA, algoritmi e robotica viene più propriamente oggi indicato con l’acronimo STARA (Smart Technology, Artificial Intelligence, Robotics, and Algorithms).

Recentemente, diversi autori/autrici descrivono l’avvento dell’IA come una rivoluzione del genere umano capace di portare cambiamenti ancora più grandi di quelli portati dalle rivoluzioni industriali (Gray, 2013; Spohrer & Maglio, 2008). A questo proposito, la ricerca in ambito psicologico sta iniziando progressivamente a interrogarsi su quali possano essere le conseguenze derivanti dall’interazione con software in grado di “pensare”. Infatti, lo sviluppo delle tecnologie STARA starebbe conducendo a una progressiva scomparsa di lavoratori e lavoratrici della classe media (Brougham & Haar, 2018), sempre più di frequente sostituibili da strumenti tecnologici di ultima generazione (Feng & Graetz, 2015; Tiwari & Srivastava, 2020). Uno studio del Mckinsey Global Institute (2020) suggerisce che entro il 2030 algoritmi intelligenti potrebbero sostituire fino al 30% dell’attuale forza lavoro mondiale, portando milioni di persone a dover cambiare completamente il proprio settore lavorativo. Tuttavia, è importante precisare che secondo molti autori/autrici (Rapanyane & Sethole, 2020; Susar & Aquaro, 2019) l’adozione di applicazioni di IA non rappresenterà necessariamente una svolta dalle forti connotazioni negative, ma consentirà di aiutare gli individui a svolgere meglio il proprio lavoro. La ragione su cui si fonda la tendenza a sostituire la forza lavoro umana con quella digitale risiede primariamente nella capacità della tecnologia di eseguire le stesse attività svolte dall’essere umano ma senza fatica, con maggiore efficienza e riducendo al minimo il tempo d’azione. Proprio per questo, i posti di lavoro cambieranno, cambierà il modo in cui lavoriamo e il tipo di lavoro che le persone intraprenderanno, il tutto perché la maggior parte dei settori produttivi sta investendo in maniera cospicua in questa nuova tecnologia (Tiwari & Srivastava, 2020).

Le tecnologie STARA stanno oggi facendosi largo in moltissimi campi: dalla medicina all’informazione, dal settore produttivo alla gestione delle risorse umane. Proprio il settore delle organizzazioni rappresenta il contesto in cui, nell’ultimo decennio, la strada verso l’impiego dell’IA è stata percorsa a velocità molto elevata. Ad esempio, gli algoritmi di Intelligenza Artificiale vengono oggi già ampiamente impiegati per migliorare il job matching tra posizioni lavorative aperte e candidati attraverso motori di ricerca knowledge based (o semantici; Mochol et al., 2007; Strohmeier & Piazza, 2015). L’IA è anche divenuta protagonista dei colloqui di lavoro grazie a chatbot addestrati per condurre interviste efficienti attraverso l’impiego di algoritmi di Natural Language Processing (Yakkundi et al., 2019). O ancora, sfruttando tecniche di text mining, sentiment analysis e opinion mining, algoritmi di IA possono essere utilizzati per analizzare le opinioni, i commenti e le recensioni che lavoratori e lavoratrici pubblicano online su portali dedicati al mondo lavorativo per individuare ciò che può essere migliorato in una certa realtà organizzativa (Strohmeier & Piazza, 2015). Tutti questi esempi mostrano come l’impiego delle IA nel settore lavorativo stia comportando numerosi vantaggi e risparmio in termini di tempi e costi (Ensher et al., 2002; Paoletti, 2008; Thite et al., 2012) aumentando l’efficienza dei processi organizzativi. Ma quali sono le conseguenze psicologiche che potrebbero derivare da questa rivoluzione?

Percezione di minaccia e disparità sociale: conseguenze psicologiche dell’implementazione delle tecnologie di IA

Se da un lato la progressiva adozione delle tecnologie di IA sta portando a un miglioramento nelle performance produttive, dall’altro stanno emergendo molteplici conseguenze a livello psicologico per i lavoratori e le lavoratrici. A questo proposito, diversi studi suggeriscono come l’interazione con agenti automatici può favorire la percezione di minaccia in termini di stabilità lavorativa, economica ma anche rispetto ai confini della distintività identitaria fra individui e agenti automatici (Kieslich et al., 2021; Yogeeswaran et al., 2016; Shen et al., 2012; Złotowski et al., 2017). Algoritmi trasformatisi in “colleghi/e di lavoro” possono infatti indurre la comparsa di una maggiore incertezza sul futuro (Pellegrino, 2015), poiché ancora non è chiaro quale direzione queste tecnologie stiano prendendo.

La ricerca empirica ha evidenziato come l’opinione pubblica non sia chiaramente polarizzata verso una visione positiva o negativa circa l’introduzione delle IA. A tal proposito, è noto che, indipendentemente dal contesto, nel momento in cui avvengono dei cambiamenti tecnologici, alcune persone ne trarranno dei vantaggi, mentre altre non riusciranno a far fronte al cambiamento (Eubanks, 2018). Conseguenze così diseguali possono essere causa di una preoccupante enfatizzazione delle discriminazioni sociali, poiché i benefici apportati dalle tecnologie sono considerabili tali soltanto nel momento in cui gli individui ne conoscono il funzionamento e le potenzialità, mentre una scarsa consapevolezza del loro funzionamento tende ad accentuare ulteriormente il divario sociale tra classi socioeconomiche differenti. Questa disparità può generare un’incongruenza nella percezione delle nuove applicazioni tecnologiche, viste da alcuni come fonte di opportunità e da altri come fonte di minaccia, determinando il successo o il fallimento del loro impiego, dipendente in buona parte da queste stess percezioni (Bauer, 1997).

La ricerca sulle conseguenze derivanti dall’interazione con algoritmi di IA è ancora agli albori, tuttavia, è possibile trovare una cornice teorica di riferimento nei risultati degli studi relativi alla percezione dei robot, che, insieme alle IA, sono parte delle tecnologie STARA. Da questi studi è emerso come la percezione di minaccia elicitata dai robot può essere di diversa natura: Złotowski e colleghi (2017) suggeriscono infatti come l’interazione con i robot possa favorire, da un lato, sentimenti di minaccia realistica, generalmente elicitati da fonti in grado di limitare l’accesso a risorse materiali, la sicurezza individuale e il proprio lavoro, e dall’altro sentimenti di minaccia all’identità umana, ossia una più simbolica percezione che vengano intaccati i valori e l’unicità della specie umana e quindi i caratteri distintivi del proprio ingroup (Riek et al., 2006; Stephan et al., 1999; Złotowski et al., 2017). Questa seconda forma di minaccia è interpretabile attraverso la teoria della Uncanny Valley (Mori, 1970), secondo cui agenti robotici simili nelle forme agli esseri umani possono elicitare sensazioni di disagio, rifiuto ed evitamento (Kätsyri et al., 2015; Strait et al., 2017). Secondo questo modello, infatti, robot antropomorfi sono valutati più negativamente (MacDorman, 2006), come meno affidabili (Mathur & Reichling, 2016) e vengono più frequentemente evitati rispetto a robot che non ricalcano la figura umana (Strait et al., 2015, 2017).

Tuttavia, data la differenza fra agenti basati su IA e robot, è importante sottolineare che i processi socio-cognitivi implicati nell’interazione con agenti così differenti potrebbero essere a loro volta molto diversi (Raj & Seamans, 2019). Infatti, laddove i robot cercano di replicare i movimenti fisici di un essere vivente, gli algoritmi di IA mirano prevalentemente a riprodurre le capacità cognitive dell’essere umano, senza necessariamente replicarne la fisicità. Ad esempio, robot autonomi impiegati nel contesto produttivo possono essere percepiti come una fonte di minaccia per il lavoro operaio poiché ritenuti in grado di sostituire l’essere umano nelle proprie attività manuali, minandone quindi la sicurezza economica e divenendo fonte di stress. Dall’altro lato, assistenti vocali e chatbot automatici in grado di comprendere il linguaggio, risultano sempre più indistinguibili da un vero operatore umano e per questo potrebbero favorire sentimenti di minaccia non solo in termini di risorse, ma anche rispetto ai tratti considerati esclusivi della specie umana, come appunto le capacità cognitive.

Intelligenza Artificiale e oggettivazione lavorativa: direzioni future di ricerca

Considerando quanto descritto, è lecito ipotizzare che l’interazione diretta con algoritmi intelligenti in grado di replicare le capacità cognitive umane possa portare ad alcune conseguenze anche a livello individuale. Per comprendere la portata e l’entità di questi effetti individuali, è bene considerare con attenzione la letteratura precedente relativa al fenomeno dell’oggettivazione lavorativa, definibile come una forma di deumanizzazione riferita alla considerazione di lavoratori e lavoratrici come oggetti (Volpato, 2013, 2014) semplicemente utili al soddisfacimento di bisogni legati alla sfera produttiva (Baldissarri et al., 2019). Essere considerati dai propri superiori come un mero strumento funzionale al processo produttivo (Gruenfeld et al., 2008) può portare gli individui ad auto-oggettivarsi. Si parla in questo caso di “sguardo strumentale” o “oggettivante” che, secondo la teoria dell'oggettivazione (Fredrickson & Roberts, 1997), costituisce uno tra i principali predittori dell'auto-oggettivazione, in quanto facilita nel target oggettivato l’interiorizzazione della prospettiva dell'osservatore. Questa stretta connessione tra sguardo strumentale e tendenza ad auto-strumentalizzarsi è stata confermata da uno studio di Baldissarri e colleghi (2014) condotto in un contesto lavorativo gerarchico reale, che ha rivelato come nelle situazioni in cui lavoratrici e lavoratori subordinati percepivano di essere trattati al pari di semplici strumenti da chi era gerarchicamente superiore a loro, essi/e tendevano a interiorizzare questa prospettiva, oggettivandosi a loro volta.  

Sulla base di queste premesse, è possibile ipotizzare un’analogia tra l’oggettivazione derivante dal modo di porsi di un superiore e quella proveniente invece dall’interazione con algoritmi intelligenti: nell’interfacciarsi con un’IA l’utente potrebbe sentirsi vincolato alle richieste e alle possibilità di azione imposte dalla tecnologia intelligente, sentendo di ricoprire un ruolo maggiormente passivo e meno proattivo. Questo potrebbe favorire la percezione di eterodirezione, ossia l’impressione che i risultati delle proprie performance dipendano per lo più dai passi imposti da un algoritmo e solo in parte dalle proprie capacità, favorendo forme di auto-oggettivazione (Baldissarri et al., 2017), da intendersi non tanto come la percezione di essere trattati al pari di un oggetto, quanto più come a un file che deve essere processato dall’agente software. In questo quadro, l’interazione con una IA potrebbe favorire minori credenze nel libero arbitrio personale, inteso come la possibilità di compiere scelte libere e consapevoli (Baldissarri et al., 2017, 2019), l’abbassamento dell’impegno lavorativo e un generale peggioramento delle prestazioni (Stillman et al., 2010). Una volta verificate queste ipotesi, successivi studi dovranno approfondire i possibili meccanismi psicologici sottostanti. A questo riguardo, è ipotizzabile che la percezione di essere più simili a un file di dati che a una persona durante l’interazione con una IA, possa essere causata da un indebolimento dell’autoefficacia, rappresentata dall’insieme delle credenze che le persone hanno di controllare, prevenire o gestire potenziali difficoltà che insorgono durante una particolare prestazione (Bandura, 1986). Considerando, ad esempio, il contesto specifico della selezione del personale, un/una candidato/a che si trovi a svolgere un’intervista con un agente basato su IA, potrebbe percepire una riduzione nella gestione delle proprie scelte e quindi anche una ridotta possibilità di superare con successo il colloquio. Analogamente, un/una lavoratore/lavoratrice potrebbe esperire minor controllo nella gestione attiva delle proprie mansioni lavorative, subendo passivamente l’andamento imposto dall’algoritmo e sentendosi quindi più simile a uno script software, parte integrante di un più articolato sistema, piuttosto che una persona in grado di compiere scelte attive e consapevoli.

A sua volta, il processo di auto-oggettivazione derivante dall’interazione con un software di IA, potrebbe portare lavoratori e lavoratrici a percepire i sistemi intelligenti come una minaccia, ritenendo che questi potrebbero sostituirli/e nelle proprie mansioni, rendendo così superfluo il loro contributo e portandoli alla perdita del lavoro. Proprio la percezione di minaccia rappresenta uno dei principali predittori della paura (Dillard & Pfau, 2002), che emerge quando questa viene associata dagli individui alla percezione di ridotte capacità di farvi fronte (Witte, 1992). Dal punto di vista organizzativo, la minaccia elicitata dall’introduzione di nuove tecnologie, così come la paura che può derivarne, rappresentano un fattore in grado di favorire manifestazioni di rifiuto e tentativi di boicottaggio dell’implementazione delle tecnologie stesse da parte di lavoratori e lavoratrici (Kieslich et al., 2021), provocando così rallentamenti a livello produttivo ma anche un ingente spreco di risorse, poiché l’investimento per l’introduzione delle nuove tecnologie viene di fatto vanificato.

D’altro canto, è possibile anche immaginare conseguenze che vanno nella direzione opposta rispetto alle precedenti. Il confronto con una IA potrebbe infatti portare gli individui a percepire i confini fra ingroup (il genere umano) e outgroup (agenti software automatici) come più marcati, rendendo maggiormente salienti i tratti tipici ed esclusivi della natura umana (si veda a tal proposito Leyens et al., 2001; Haslam, 2006; Wilson & Haslam, 2013). Se questo dovesse verificarsi, le IA potrebbero essere percepite come non minacciose e, anzi, il confronto potrebbe rafforzare la percezione che determinate emozioni e competenze siano tipiche esclusivamente del genere umano e non possano appartenere a robot o software intelligenti.

Le conseguenze ipotizzate dell’interazione con le IA potrebbero inoltre essere influenzate da diversi fattori. Un primo aspetto rilevante nello sviluppo di questa linea di ricerca è il ruolo giocato dalla fiducia che le persone ripongono nello sviluppo tecnologico. La fiducia è alla base di qualsiasi tipo di relazione, soprattutto quando si ha una scarsa conoscenza di ciò con cui si entra in contatto (Ba & Pavlou, 2002) e ricopre un ruolo fondamentale nell’accettazione delle nuove tecnologie (Gefen & Straub, 2000). Per garantire quindi che la transizione verso l’impiego delle IA rappresenti realmente un vantaggio per tutti/e, è importante favorire la consapevolezza in merito a cosa un algoritmo possa o non possa veramente fare. Infatti, gli individui considerano una certa tecnologia maggiormente affidabile quando ne conoscono il funzionamento, favorendo così la sensazione di saper esercitare su di essa un certo grado di controllo (Ashleigh & Nandhakumar, 2007). Quando invece il reale funzionamento di una tecnologia rimane nascosto, il livello di affidabilità percepita dipenderà da quanto questa sia considerata familiare (McKnight et al., 2011). Tuttavia, un recente report suggerisce che la familiarità e la consapevolezza delle persone rispetto alle tecnologie di IA è ancora limitata e le persone riportano scarsa fiducia, e talvolta anche paura, rispetto al loro impiego futuro (IPSOS Mori, 2017).

Un secondo aspetto da considerare è il ruolo giocato dalle categorie sociali attivate durante l’interazione con una IA. La letteratura precedente suggerisce che quando a una IA viene assegnata una connotazione femminile (si pensi ad esempio agli smart speaker come Alexa) questo favorisca l’attivazione automatica di tratti stereotipicamente associati al genere femminile (Habler et al., 2019), a cui viene comunemente attribuito alto calore. Analogamente, tratti tipicamente maschili sono invece associati a maggiore competenza (Fiske et al., 2002; Ko et al., 2009). L’attivazione di specifiche categorie sociali potrebbe moderare la percezione da parte degli individui delle IA in diverse direzioni: ad esempio, essa potrebbe abbassare la percezione di minaccia quando il software è percepito come femminile ed accentuarla di fronte a un agente automatico di genere maschile.

Conclusioni

L'Intelligenza Artificiale rappresenta quindi una rivoluzione sia tecnologica sia sociale che ha ricevuto di recente un forte impulso nell’ambito della ricerca, in quello organizzativo ma anche nella vita quotidiana, basti pensare ai diversi assistenti vocali diffusi in molte delle nostre case. Per questo motivo, è necessario approfondire le conoscenze circa le conseguenze psicologiche derivanti dall’interazione con i nuovi strumenti digitali “intelligenti”.

Il successo o fallimento degli investimenti messi in campo da aziende e organismi di governo per favorire i processi di digitalizzazione e automazione, dipendono da un’attenta pianificazione dei processi di transizione tecnologica, che non possono prescindere dalla considerazione dei fattori umani implicati nell’interazione con la tecnologia stessa. Uno degli errori più comunemente commessi dal management consiste infatti nel preoccuparsi esclusivamente di valutare il ritorno economico che la nuova tecnologica può favorire, dimenticandosi dell’impatto psicologico che la sua introduzione può avere sugli individui, ma questo fattore rappresenta di fatto l’ago della bilancia per un impiego di successo delle tecnologie. È quindi importante sviluppare strumenti tecnologici utili per il progresso del genere umano, favorendone il benessere e limitando tutti quei fattori che possono generare stress e paura. Alla luce di ciò, invece di concentrarsi sull’Intelligenza Artificiale in quanto tale, ricercatori/ricercatrici, imprese e policy maker dovrebbero guardare a quella che alcuni/e esperti/e hanno iniziato a definire “intelligenza aumentata”, ossia l’integrazione delle tecnologie di Intelligenza Artificiale a supporto del pensiero, del lavoro e delle attività umane, mantenendo al centro della progettazione e dell’interazione uomo-macchina l’essere umano.

Mentre inauguriamo la nuova era guidata dall’Intelligenza Artificiale, l’idea di un’intelligenza aumentata descrive appieno come l’Intelligenza Artificiale dovrà interagire con le persone: non sostituendole, ma migliorando ciò che già sono.

Glossario

Middle management: manager che in una gerarchia aziendale si trovano al di sotto di manager di più alto livello: i primi sono responsabili del controllo e della gestione di un'organizzazione, mentre i secondi prendono decisioni a livello più operativo.

Job matching: incontro tra domanda e offerta di lavoro.

Motori di ricerca knowledge-based (o semantici): motori di ricerca in grado di riconoscere il significato semantico dei contenuti ricercati  dagli utenti e, sulla base di questo, eseguono una ricerca sul web per adattare il profilo del/la candidato/a ai contenuti semantici degli annunci di lavoro pubblicati online dalle organizzazioni.

Chatbot (o talkbot): programma per computer che intrattiene conversazioni umane con gli utenti tramite formati testo o audio. Il chatbot è in grado di capire cosa sta provando a fare l’utente e, di conseguenza, di inviare risposte appropriate che soddisfino le sue esigenze attraverso l’utilizzo del Natural Language Processing.

Natural Language Processing: branca appartenente alla grande famiglia delle Intelligenze Artificiali e definibile come la capacità di una macchina di analizzare, comprendere e generare il linguaggio umano.

Text mining: tecnica di Intelligenza Artificiale che offre funzionalità differenti relativamente a documenti di testo non strutturati. Tra queste, attraverso le attività di rilevamento e monitoraggio degli argomenti, identifica i temi trattati nei vari documenti, raggruppa i documenti di testo correlati allo stesso tema e associa nuovi documenti a temi già precedentemente evidenziati; la funzione di riepilogo testuale consente di riassumere il contenuto di un documento, mentre la classificazione suddivide i documenti considerati in categorie predefinite.

Sentiment analysis o opinion mining: mira all'estrazione di sentimenti e opinioni espressi in documenti di testo non strutturati e, di conseguenza, classifica i documenti consideranti identificandoli come contenenti sentimenti positivi o negativi.

Bibliografia

Ashleigh, M. J., & Nandhakumar, J. (2007). Trust and technologies: Implications for organizational work practices. Decision support systems43(2), 607-617.

Ba, S., & Pavlou, P. A. (2002). Evidence of the effect of trust in electronic markets: Price premiums and buyer behavior. MIS Quarterly, 26, 3.

Baldissarri, C., Andrighetto, L., & Volpato, C. (2014). When work does not ennoble man: psychological consequences of working objectification. TPM: Testing, Psychometrics, Methodology in Applied Psychology21(3).

Baldissarri, C., Andrighetto, L., & Volpato, C. (2019). Feeling like an object: A field study on working self-objectification and belief in personal free will. TPM: Testing, Psychometrics, Methodology in Applied Psychology, 26(2).

Baldissarri, C., Andrighetto, L., Gabbiadini, A., & Volpato, C. (2017). Work and freedom? Working self‐objectification and belief in personal free will. British Journal of Social Psychology, 56(2), 250-269.

Bandura, A. (1986). The explanatory and predictive scope of self-efficacy theory. Journal of social and clinical psychology, 4(3), 359-373.

Bauer, M. (1997). Resistance to new technology: nuclear power, information technology and biotechnology. Cambridge University press.

Brougham, D., & Haar, J. (2018). Smart technology, artificial intelligence, robotics, and algorithms (STARA): Employees’ perceptions of our future workplace. Journal of Management & Organization24(2), 239-257.

Dillard, J. P., & Pfau, M. (2002). The persuasion handbook: Developments in theory and practice. SAGE Publications, Inc.

Ensher, E. A., Nielson T. R., & Vallone E. (2002). Tales from the Hiring Line: Effects of the Internet and Technology on HR Processes. Organizational Dynamics, 31(3), 224, 244.

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.

Feng, A., & Graetz, G. (2015). Rise of the machines: The effects of labor-saving innovations on jobs and wages (2042- 2695). Centre for Economic Performance. Retrieved January 8, 2016.

Fiske, S. T., Cuddy, A. J., Glick, P., & Xu, J. (2002). A model of (often mixed) stereotype content: competence and warmth respectively follow from perceived status and competition. Journal of personality and social psychology82(6), 878.

Fredrickson, B. L., & Roberts, T. A. (1997). Objectification theory. Toward understanding women’s lived experiences and mental health risks. Psychology of Women Quarterly, 21, 173-206.

Gefen, D., & Straub, D. W. (2000). Managing user trust in e-services. e-Service Journal, 2, 1.

Gray, R. (2013). Taking technology to task: The skill content of technological change in early twentieth century, United States. Explorations in Economic History, 50(3), 351–367.

Gruenfeld, D. H., Inesi, M. E., Magee, J. C., & Galinsky, A. D. (2008). Power and the objectification of social targets. Journal of Personality and Social Psychology, 95, 111-127.

Habler, F., Schwind, V., & Henze, N. (2019). Effects of Smart Virtual Assistants' Gender and Language. Proceedings of Mensch und Computer 2019, 469-473.

Haslam, N. (2006). Dehumanization: An integrative review. Personality and social psychology review, 10(3), 252-264.

IPSOS Mori. (2017). Public views of Machine Learning. Report acessibile all’indirizzo https://royalsociety.org/~/media/policy/projects/machine-learning/publi…

Jatobá, M., Santos, J., Gutierriz, I., Moscon, D., Fernandes, P. O., & Teixeira, J. P. (2019). Evolution of artificial intelligence research in human resources. Procedia Computer Science164, 137-142.

Kätsyri, J., Förger, K., Mäkäräinen, M., & Takala, T. (2015). A review of empirical evidence on different uncanny valley hypotheses: support for perceptual mismatch as one road to the valley of eeriness. Frontiers in psychology6, 390.

Kieslich, K., Lünich, M., & Marcinkowski, F. (2021). The Threats of Artificial Intelligence Scale (TAI). International Journal of Social Robotics, 1-15.

Ko, S. J., Judd, C. M., & Stapel, D. A. (2009). Stereotyping based on voice in the presence of individuating information: Vocal femininity affects perceived competence but not warmth. Personality and Social Psychology Bulletin35(2), 198-211.

Leyens, J. P., Rodriguez‐Perez, A., Rodriguez‐Torres, R., Gaunt, R., Paladino, M. P., Vaes, J., & Demoulin, S. (2001). Psychological essentialism and the differential attribution of uniquely human emotions to ingroups and outgroups. European Journal of Social Psychology, 31(4), 395-411.

Lucci, S., & Kopec, D, (2016). Artificial Intelligence in the 21st Century: a Living Introduction. Second edition. Mercury Learning and Information, Duxbury.

MacDorman, K. F. (2006, July). Subjective ratings of robot video clips for human likeness, familiarity, and eeriness: An exploration of the uncanny valley. In ICCS/CogSci-2006 long symposium: Toward social mechanisms of android science, 26-29.

Mathur, M. B., & Reichling, D. B. (2016). Navigating a social world with robot partners: A quantitative cartography of the Uncanny Valley. Cognition146, 22-32.

Mckinsey Global Institute (2020). The state of AI in 2020. Report accessibile all’indirizzo https://www.mckinsey.com/business-functions/mckinsey-analytics/our-insi…

McKnight, D. H., Carter, M., Thatcher, J. B., & Clay, P. F. (2011). Trust in a specific technology: An investigation of its components and measures. ACM Transactions on management information systems (TMIS)2(2), 1-25.

Mochol, M., Jentzsch, A., & Wache, H. (2007). Suitable employees wanted? Find them with semantic techniques. In Making Semantics Work for Business, European Semantic Technology Conference, Vienna, Austria 2007.

Mori, M. (1970). Bukimi no tani [the uncanny valley]. Translated by MacDorman, K. F. & Kageki, N. (2012). IEEE Robotics and Automation Magazine 19, 98–100.

Paoletti, F. (2008). Organizzare le funzioni del personale. Strategie, assetti strutturali e processi per una gestione efficace della forza lavoro. Milano: Franco Angeli.

Pellegrino, G. (2015). Obsolescence, presentification, revolution: Sociotechnical discourse as site for in fieri futures. Current Sociology, 63(2), 216-227.

Raj, M., & Seamans, R. (2019). Primer on artificial intelligence and robotics. Journal of Organization Design8(1), 1-14.

Rapanyane, M. B., & Sethole, F. R. (2020). The rise of artificial intelligence and robots in the 4th Industrial Revolution: implications for future South African job creation. Contemporary Social Science, 15(4), 489-501.

Riek, B. M., Mania, E. W., & Gaertner, S. L. (2006). Intergroup threat and outgroup attitudes: a meta-analytic review. Personality and social psychology review, 10(4), 336-353.

Shen, L., Bigsby, E., Dillard, J. P., & Shen, L. (2012). The SAGE handbook of persuasion developments in theory and practice. SAGE Publications, Inc.

Somalvico, M. (1987). Intelligenza artificiale. Scienza & vita nuova.

Spohrer, J., & Maglio, P. P. (2008). The emergence of service science: Toward systematic service innovations to accelerate co‐creation of value. Production and Operations Management, 17(3), 238–246.

Stephan, W. G., Ybarra, O., & Bachman, G. (1999). Prejudice toward immigrants 1. Journal of Applied Social Psychology, 29(11), 2221-2237.

Stillman, T. F., Baumeister, R. F., Vohs, K. D., Lambert, N. M., Fincham, F. D., & Brewer, L. E. (2010). Personal philosophy and personnel achievement: Belief in free will predicts better job performance. Social Psychological and Personality Science, 1, 43-50.

Strait, M. K., Floerke, V. A., Ju, W., Maddox, K., Remedios, J. D., Jung, M. F., & Urry, H. L. (2017). Understanding the uncanny: both atypical features and category ambiguity provoke aversion toward humanlike robots. Frontiers in psychology8, 1366.

Strait, M., Vujovic, L., Floerke, V., Scheutz, M., & Urry, H. (2015). Too much humanness for human-robot interaction: exposure to highly humanlike robots elicits aversive responding in observers. In Proceedings of the 33rd annual ACM conference on human factors in computing systems, 3593-3602.

Strohmeier, S., & Piazza, F. (2015). Artificial Intelligence Techniques in Human Resource Management – A Conceptual Exploration. In Kahraman, C., Onar, S.Ç. (Eds.), Intelligent Techniques in Engineering Management (pp. 149-172). Cham: Springer International Publishing.

Susar, D., & Aquaro, V. (2019, April). Artificial intelligence: Opportunities and challenges for the public sector. In Proceedings of the 12th International Conference on Theory and Practice of Electronic Governance (pp. 418-426).

Thite, M., Kavanagh, M. J., & Johnson, R. A. (2012). Evolution of Human Resource Management and Human Resource Information Systems: The Role of Information Technology. In Human Resource Information Systems: Basics, Applications, and Future Directions (pp. 2–32). Sage Publications, Inc.

Tiwari, A., & Srivastava, S. (2020). The process of artificial intelligence and automation has increased the need of emotional intelligence at workplace. International Journal of Mechanical and Production Engineering Research and Development, 10(3), 7723–7730.

Volpato, C. (2013). Negare l’altro. La deumanizzazione e le sue forme. Psicoterapia e Scienze umane.

Volpato, C. (2014). Deumanizzazione: Come si legittima la violenza. Gius. Laterza & Figli Spa.

Wilson, S. G., & Haslam, N. (2013). Humanness beliefs about behavior: An index and comparative human-nonhuman behavior judgments. Behavior research methods45(2), 372-382.

Witte, K. (1992). Putting the fear back into fear appeals: The extended parallel process model. Communications Monographs, 59(4), 329-349.

Yakkundi, S., Vanjare, A., Wavhal, V., & Patankar, S. (2019). Interactive Interview Chatbot. International Research Journal of Engineering and Technology (IRJET), 6(4), 2746-2748.

Yogeeswaran, K., Złotowski, J., Livingstone, M., Bartneck, C., Sumioka, H., & Ishiguro, H. (2016). The interactive effects of robot anthropomorphism and robot ability on perceived threat and support for robotics research. Journal of Human-Robot Interaction, 5(2), 29- 47.

Złotowski, J., Yogeeswaran, K., & Bartneck, C. (2017). Can we control it? Autonomous robots threaten human identity, uniqueness, safety, and resources. International Journal of Human - Computer Studies, 100, 48–54.