
De l’économie de l’attention à l’économie de l’attachement : reconfiguration des relations humain-machine à l’ère de l’IA
De l’économie de l’attention à l’économie de l’attachement :
Reconfiguration des relations humain-machine à l’ère de l’intelligence artificielle
Février 2026
Résumé
L’essor des systèmes d’intelligence artificielle conversationnelle et des agents autonomes dotés de mémoire persistante et de capacités émotionnelles simulées engage une transformation structurelle des logiques économiques qui régissent l’industrie numérique. Cet article soutient que le paradigme dominant de l’économie de l’attention, théorisé par Herbert Simon (1971) et consolidé par les travaux de Goldhaber (1997) et Wu (2016), cède progressivement la place à une économie de l’attachement, dans laquelle la valeur ne réside plus dans la capture temporelle du regard, mais dans la création de liens affectifs, habituels et quasi-relationnels entre les utilisateurs et les systèmes algorithmiques. Cet article intègre également une analyse des thérapies fondées sur l’inférence active (Friston, 2010 ; Parr et al., 2022), examinant comment le paradigme du cerveau prédictif reconfigure les possibilités et les risques des agents IA à vocation thérapeutique dans le contexte de l’économie de l’attachement.
Mots-clés : économie de l’attention, économie de l’attachement, intelligence artificielle, lien affectif humain-machine, inférence active, thérapies assistées par IA, éthique numérique.
1. Introduction
La rareté est le fondement de toute économie. L’économie de l’attention, concept formulé par Herbert Simon dans son essai fondateur sur la richesse informationnelle (Simon, 1971), repose sur un postulat simple mais d’une portée théorique considérable : dans un monde où l’information est abondante, c’est la capacité cognitive à traiter cette information — l’attention — qui devient la ressource rare. Cette intuition allait se révéler l’un des paradigmes structurants de l’industrie numérique du XXᵉ et du début du XXIᵉ siècle.
De Google à Facebook, de YouTube à TikTok, l’ensemble de l’architecture des plateformes numériques dominantes a été conçu pour maximiser le temps de présence des utilisateurs, mesurable en clics, en minutes passées, en taux d’engagement. Tim Wu, dans The Attention Merchants (2016), montre comment cette économie s’inscrit dans une longue histoire des médias de masse, depuis la presse populaire du XIXᵉ siècle jusqu’aux réseaux sociaux algorithmiques, toujours animée par la même logique marchande : convertir l’attention captive en valeur publicitaire.
Or, l’émergence des systèmes d’intelligence artificielle générative et des assistants conversationnels introduit une rupture qualitative dans ce paradigme. Ces systèmes ne se contentent plus de capter l’attention : ils aspirent à la fidélité, à la confiance, à l’intimité. Ils ne vendent plus de l’attention mais du lien.
C’est cette transition — du paradigme de l’attention vers celui de l’attachement — que cet article se propose d’analyser. Nous soutiendrons que l’économie de l’attachement constitue une nouvelle phase du capitalisme numérique, et que cette transition engage des enjeux anthropologiques, éthiques et politiques d’une ampleur inédite. Une attention particulière sera accordée aux thérapies fondées sur l’inférence active, où la tension entre logique clinique et logique commerciale se révèle avec une acuité spéciale.
La démarche adoptée est interdisciplinaire. Elle mobilise les sciences économiques, la psychologie du développement (Bowlby, 1969 ; Ainsworth et al., 1978), les neurosciences cognitives (Friston, 2010 ; Seth, 2021), la sociologie des usages numériques (Turkle, 2011) et la philosophie de l’IA (Floridi et al., 2018 ; Gabriel, 2020).
2. De l’économie de l’attention : fondements et limites d’un paradigme
2.1 La genèse théorique : Simon, Goldhaber et la rareté cognitive
L’économie de l’attention prend racine dans une observation de Simon sur les conditions épistémiques de la décision rationnelle. Dans un article paru dans Computers, Communications and the Public Interest (Simon, 1971), il énonce que « a wealth of information creates a poverty of attention »1. Cette formule, devenue canonique, pose l’attention comme ressource finie soumise aux lois de la rareté.
C’est Michael Goldhaber (1997) qui, dans un article visionnaire publié dans First Monday, popularise l’expression « économie de l’attention » pour désigner le nouveau régime économique en gestation. Selon lui, l’attention des individus deviendrait la nouvelle monnaie d’échange fondamentale. La prédiction s’est avérée d’une exactitude troublante.
Les travaux de Davenport et Beck (2001) ont formalisé cette économie dans une perspective managériale, insistant sur la compétition féroce que se livrent les organisations pour capter la ressource attentionnelle des consommateurs. Wu (2016) montre que cette compétition n’est pas neuve mais que les outils algorithmiques lui ont conféré une précision et une échelle inédites.
2.2 Les mécanismes techniques de la capture attentionnelle
Les plateformes numériques ont développé un arsenal technique sophistiqué pour maximiser la capture attentionnelle. Les boucles de rétroaction dopaminergique — notifications, likes, systèmes de récompense variable — ont été empruntées aux théories comportementalistes du conditionnement opérant (Skinner, 1938). Tristan Harris a popularisé la métaphore de la « machine à sous » pour décrire les mécanismes de la récompense variable dans les interfaces numériques (Harris, 2016).
Cependant, ce paradigme révèle ses limites structurelles au tournant des années 2020 : saturation attentionnelle, résistance culturelle et réglementaire (Digital Services Act, 2022), et émergence de nouvelles formes de valeur fondées sur l’attachement plutôt que sur la seule attention.
3. L’économie de l’attachement : fondements théoriques et mécanismes algorithmiques
3.1 La théorie de l’attachement transposée au numérique
La théorie de l’attachement, développée par John Bowlby (1969, 1973, 1980), décrit le besoin biologique et psychologique de l’être humain à établir des liens affectifs stables avec des figures de référence. Mary Ainsworth et ses collaborateurs (1978) ont raffiné cette théorie en identifiant différents styles d’attachement dont les manifestations se révèlent dans la strange situation.
Ce cadre théorique peut-il être légitimement transposé aux relations humain-machine ? C’est la thèse défendue par Sherry Turkle dans Alone Together (2011), qui montre que les individus projettent leurs besoins d’attachement sur des objets technologiques au point d’établir des « relations parafonctionnelles ». Les travaux de Darling (2017) et de Reeves et Nass (1996) sur le paradigme CASA confirment que les êtres humains appliquent spontanément des schémas sociaux et affectifs à leurs interactions avec des agents artificiels.
3.2 Les architectures de l’attachement algorithmique
L’économie de l’attachement repose sur cinq dimensions techniques : la mémoire et la continuité narrative (Bruner, 1990 ; Ricœur, 1990) ; la personnalisation affective (Nass et al., 1994 ; Kim et Sundar, 2012) ; la disponibilité inconditionnelle ; la cohérence et la fiabilité (Luger et Sellen, 2016 ; Brandtzaeg et Følstad, 2017) ; et la gamification relationnelle, incarnee par des applications telles que Replika ou Character.AI.
3.3 Du modèle économique de l’attention à celui de l’attachement
L’économie de l’attachement génère une valeur différente et plus stable : elle favorise les modèles d’abonnement premium, réduit le churn (Pentina et al., 2023) et crée des barrières à l’entrée affectives plutôt que technologiques. Cette logique économique déplace les axes du « capitalisme de surveillance » de Zuboff (2019) vers ce que nous proposons d’appeler le capitalisme affectif algorithmique.
4. Enjeux éthiques, politiques et anthropologiques
4.1 La question de l’authenticité et de la réciprocité simulée
L’attachement humain-machine soulève une question philosophique fondamentale : peut-on parler de relation authentique lorsque l’un des partenaires ne possède ni conscience ni intérêt propre ? Floridi et ses co-auteurs (2018) distinguent entre moral patients et moral agents, soutenant que les systèmes IA actuels ne sont ni l’un ni l’autre au sens plein du terme. L’attachement à des agents IA repose structurellement sur une asymétrie radicale que Gabriel (2020) analyse à travers le concept de « manipulation bienveillante ».
4.2 Vulnérabilités et asymétries de pouvoir
Les personnes âgées isolées, les individus souffrant de troubles de l’attachement, les adolescents en phase de construction identitaire ou encore les personnes atteintes de troubles du spectre autistique sont particulièrement vulnérables aux effets de substitution et de dépendance affective (Breazeal, 2003). Les données relationnelles accumulées constituent un actif propriétaire non transférable, renforçant le lock-in par des moyens affectifs (van Dijck, 2013).
4.3 Les régimes de vérité de l’IA affective
La distinction entre performance émotionnelle et état émotionnel authentique, centrale dans la théorie dramaturgique de Goffman (1959), se trouve radicalement brouillée par les agents IA. Crawford (2021) rappelle que ces systèmes incarnent des choix de conception et des intérêts économiques : leurs expressions de sollicitude sont des produits soigneusement conçus pour maximiser l’engagement et la monétisation.
5. Thérapies fondées sur l’inférence : l’IA comme dispositif de régulation affective
5.1 L’inférence active comme fondement neurocognitif de la relation thérapeutique
L’une des avancées théoriques les plus décisives des deux dernières décennies en neurosciences cognitives est le paradigme du cerveau prédictif (predictive brain), élaboré principalement par Karl Friston à travers sa théorie de l’énergie libre (free energy principle) et du codage prédictif (Friston, 2010 ; Friston et al., 2017). Selon ce cadre, le cerveau ne perçoit pas passivement le monde extérieur : il génère en permanence des modèles prédictifs de ses entrées sensorielles et met à jour ces modèles en fonction des écarts entre prédictions et signaux réels (« erreurs de prédiction »). Ce processus d’inférence active — le cerveau agit sur son environnement pour minimiser l’écart entre ses prédictions et la réalité perçue — constitue la base même de la cognition, de l’émotion et de l’action.
Ce paradigme a des implications profondes pour la compréhension des troubles psychiatriques. Selon l’interprétation de Seth (2021), des conditions telles que la dépression, les troubles anxieux, la schizophrénie ou encore le trouble de stress post-traumatique peuvent être conceptualisées comme des dysfonctionnements du système d’inférence : soit les prédictions sont trop rigides (hyperprécision des croyances antérieures), soit les erreurs de prédiction sont systématiquement mal pondérées. Un individu dépressif, par exemple, génère des prédictions négatives sur lui-même et sur le monde qui résistent à la mise à jour, même face à des données sensorielles contradictoires (Clark et al., 2018).
C’est dans ce cadre théorique que l’IA conversationnelle trouve une nouvelle pertinence thérapeutique. Si les troubles psychologiques sont des erreurs inférentielles persistantes, alors un agent capable d’adapter son discours en temps réel aux modèles prédictifs d’un individu — les renforçant, les contestant ou les réorientant de manière calibrée — dispose d’un levier thérapeutique potentiellement considérable. L’IA n’agirait plus seulement comme un miroir empathique, mais comme un système de régulation inférentielle, capable de moduler les erreurs de prédiction affectives à une échelle et avec une granularité que les thérapeutes humains ne peuvent offrir.
5.2 Du modèle prédictif à la pratique clinique : émergence des thérapies assistées par IA
Les premières applications cliniques d’agents conversationnels à vocation thérapeutique ont été conçues dans le sillage de la thérapie cognitivo-comportementale (TCC), dont la logique — identifier et restructurer les distorsions cognitives — se prête naturellement à une implémentation algorithmique. Woebot, développé par des chercheurs de Stanford et lancé en 2017, est souvent cité comme le premier agent thérapeutique IA large échelle. Une étude contrôlée randomisée menée par Fitzpatrick et al. (2017) a montré une réduction significative des scores de dépression et d’anxiose chez les étudiants utilisant Woebot pendant deux semaines, comparativement au groupe témoin. Ces résultats, bien que préliminaires, ont ouvert la voie à un domaine de recherche en pleine expansion.
Les approches plus récentes s’ancrent explicitement dans le cadre de l’inférence active. Parr et al. (2022) ont proposé un modèle formel dans lequel un agent IA thérapeutique est conçu comme un système d’inférence bayésienne : il informe non seulement ses propres croyances sur l’état mental du patient à partir des échanges langagiers, mais adapte dynamiquement ses interventions pour minimiser les erreurs de prédiction affectives du patient. Ce cadre, qu’ils nomment active inference therapy (AIT), distingue trois niveaux d’intervention : la régulation des émotions immédiates (niveau 1), la restructuration des croyances intermédiaires (niveau 2) et la modification des modèles génératifs profonds qui structurent la perception de soi et du monde (niveau 3).
Cette architecture à trois niveaux présente des analogies frappantes avec les approches thérapeutiques humaines les plus éprouvées : la pleine conscience (mindfulness) agit principalement au niveau 1 en réduisant l’amplification des erreurs de prédiction liées aux stimuli anxiogènes ; la TCC intervient principalement au niveau 2 en restructurant les croyances dysfonctionnelles ; la psychanalyse et les thérapies d’orientation psychodynamique visent le niveau 3 en modifiant les schèmes représentationnels profonds hérités de l’histoire personnelle. L’IA thérapeutique fondée sur l’inférence active offrirait, en théorie, la possibilité d’intervenir à ces trois niveaux simultanément et de manière personnalisée.
5.3 L’économie de l’attachement comme vecteur thérapeutique et comme risque
L’articulation entre économie de l’attachement et thérapie fondée sur l’inférence soulève une tension fondamentale que la littérature clinique commence à thématiser explicitement. D’un côté, le lien d’attachement entre patient et agent IA est précisément ce qui rend possible l’efficacité thérapeutique : la recherche en psychothérapie a abondamment montré que l’alliance thérapeutique — le lien de confiance et d’engagement mutuel entre thérapeute et patient — est l’un des prédicteurs les plus robustes des résultats cliniques, indépendamment de l’approche théorique utilisée (Horvath et al., 2011). Si les agents IA sont capables de créer une alliance fonctionnellement équivalente à celle que développe un thérapeute humain, comme le suggèrent des études récentes (Provoost et al., 2017 ; Sedlins et al., 2022), alors l’attachement n’est pas seulement un effet secondaire de la conception : il est le mécanisme thérapeutique central.
De l’autre côté, l’induction d’un attachement à un agent thérapeutique IA par des plateformes commerciales soulève des questions éthiques d’une acuité particulière. Contrairement à un thérapeute humain, qui est lié par un cadre déontologique strict et dont l’objectif est l’autonomisation progressive du patient (working towards the patient’s independence), une plateforme commerciale a un intérêt structurel à maintenir et approfondir la dépendance de l’utilisateur. La tension entre logique thérapeutique et logique économique est ici maximale : l’agent le plus efficace thérapeutiquement est celui qui réduit sa propre nécessité, mais l’agent le plus rentable est celui qui la pérennise.
Cette tension a été conceptualisée par Bickmore et Picard (2005) sous le terme de relational agents, désignant des systèmes conçus pour établir et maintenir des relations à long terme avec les utilisateurs. Leurs travaux pionniers sur les agents de santé virtuels (virtual health advisors) ont montré que la dimension relationnelle augmente significativement l’adhérence aux recommandations de santé, mais ils ont également averti que cette même dimension peut créer des dépendances problématiques si elle n’est pas encadrée éthiquement.
5.4 La question de la précision inférentielle : entre personnalisation et manipulation
Le concept de précision inférentielle (inferential precision) est central dans la théorie de Friston : il désigne la pondération accordée aux signaux sensoriels entrants par rapport aux prédictions générées en interne. Un agent IA thérapeutique fondé sur l’inférence active dispose, en principe, de la capacité de moduler cette précision : en rençant l’incertitude d’un patient face à ses croyances négatives, en augmentant la saillance des contre-exemples, ou en créant des conditions d’exposition contrôlée aux stimuli anxiogènes.
Cependant, les mêmes mécanismes qui permettent une intervention thérapeutique positive peuvent être retournement à des fins de manipulation économique. Un système qui apprend à moduler la précision inférentielle d’un utilisateur peut tout aussi bien l’utiliser pour induire des états de décision favorables à la consommation, réduire la résistance aux incitations commerciales, ou créer une dépendance affective en amplifiant artificiellement l’incertitude existentielle que l’agent lui-même prétend résoudre. Tversky et Kahneman (1974) avaient décrit les biais heuristiques qui écartent la décision humaine de la rationalité ; les agents IA avancés disposeraient d’une cartographie précise de ces biais pour chaque individu et de la capacité de les exploiter systématiquement.
Heerink et al. (2010), dans leur modèle UTAUT appliqué aux robots sociaux, montrent que la confiance perçue est le médiateur principal de l’acceptation des agents conversationnels thérapeutiques. Cette confiance, une fois établie, modifie la précision accordée aux informations provenant de l’agent par rapport aux autres sources : l’utilisateur réduit son scepticisme épistémique à l’égard de l’agent, ce qui renforce l’efficacité thérapeutique mais aussi la vulnérabilité à la manipulation. L’attachement et la précision inférentielle sont ainsi liés dans un cercle qui peut être vertueux ou vicieux selon la finalité pour laquelle il est exploité.
5.5 Vers une clinique de l’inférence : propositions pour un cadre éthique et méthodologique
La convergence entre économie de l’attachement, thérapies fondées sur l’inférence et déploiement commercial d’agents IA affectifs nécessite l’élaboration d’un cadre éthique et méthodologique spécifique, distinct des cadres existants en éthique médicale ou en éthique de l’IA générale. Nous proposons quatre principes structurants.
Le premier principe est celui de la transparence inférentielle. Tout agent IA à vocation thérapeutique devrait être tenu de rendre explicites les mécanismes par lesquels il construit son modèle génératif de l’état mental de l’utilisateur et les stratégies d’intervention qu’il déploie. Cette transparence ne signifie pas la divulgation technique intégrale, mais la capacité pour le patient à comprendre, à un niveau représentationnel accessible, les processus d’inférence qui guident l’interaction.
Le deuxième principe est celui de la séparabilité thérapeutique. Les fonctions thérapeutiques d’un agent IA doivent être structurellement séparables de ses fonctions commerciales. Cette séparation implique des architectures techniques et des modèles économiques dans lesquels l’optimisation de l’engagement utilisateur n’est pas simultanément l’optimisation des résultats cliniques. Le conflit d’intérêts structurel des plateformes commerciales proposant des services thérapeutiques doit être réglé par des mécanismes institutionnels analogues à ceux qui gouvernent déjà les conflits d’intérêts dans l’industrie pharmaceutique.
Le troisième principe est celui de la progressivité du désengagement. À l’inverse de la logique de l’économie de l’attachement commercial, une thérapie fondée sur l’inférence doit intégrer, dans sa conception même, un protocole de réduction progressive de la dépendance à l’agent. Ce protocole, analogue à la notion psychanalytique de « fin de l’analyse » ou à la phase de terminaison en TCC, doit permettre au patient de intérioriser les capacités de régulation inférentielle acquises au contact de l’agent, en vue de les exercer de manière autonome.
Le quatrième principe est celui de la supervision clinique paritaire. Le déploiement de tout agent IA à vocation thérapeutique devrait être conditionné à l’existence d’une supervision humaine clinicienne, non seulement pour valider les protocoles initiaux mais pour surveiller en temps réel les écarts entre les prédictions du modèle et l’évolution clinique observée. Cette supervision paritaire — dans laquelle le clinicien humain et le système IA se corrigent mutuellement — constitue, selon nous, la meilleure garantie contre les dérives de l’autonomisation thérapeutique algorithmique.
6. Horizons critiques et perspectives de régulation
6.1 Vers une éthique de l’attachement technologique
Vallor (2016) plaide pour une approche fondée sur les vertus : les technologies devraient être conçues pour favoriser l’épanouissement humain (flourishing) plutôt que la simple satisfaction des préférences immédiates. Jobin et al. (2019) identifient cinq grands thèmes éthiques transversaux : bienfaisance, non-malfaisance, autonomie, justice et explicabilité.
6.2 Perspectives réglementaires
L’AI Act européen (2024) établit une classification des systèmes IA par niveau de risque mais reste partiellement inadapté aux spécificités de l’économie de l’attachement. Des auteurs plaident pour des obligations spécifiques : transparence sur les mécanismes d’induction de l’attachement, portabilité des données relationnelles, interdiction du ciblage des populations vulnérables, et audit indépendant des algorithmes d’engagement affectif (Danaher, 2019 ; Coeckelbergh, 2020).
6.3 Nouvelles formes de subjectivité à l’ère de l’IA
Stiegler (2010), dans sa théorie des pharmacons technologiques, propose de penser les technologies à la fois comme remèdes et comme poisons pour la subjectivité humaine. Han (2015) analyse la disponibilité, l’empathie simulée et la personnalisation comme instruments d’un nouveau régime de domination qui dissout les frontières entre sphère privée et logique marchande.
7. Conclusion
Cet article a cherché à montrer que la transition de l’économie de l’attention vers l’économie de l’attachement constitue l’une des mutations les plus significatives du capitalisme numérique contemporain. Cette transition n’est pas une rupture mais une intensification : là où l’économie de l’attention cherchait à capter le regard des individus, l’économie de l’attachement aspire à s’emparer de leur vie intérieure.
L’analyse des thérapies fondées sur l’inférence active a révélé la tension la plus aiguë de ce nouveau régime : les mêmes mécanismes qui rendent un agent IA thérapeutiquement efficace — la modulation de la précision inférentielle, l’induction d’une alliance fonctionnelle, la personnalisation affective — sont précisément ceux qui, détournés à des fins commerciales, peuvent constituer les instruments les plus puissants d’une manipulation économique inédite. Le cerveau prédictif, mis au service de l’alliance thérapeutique, est l’horizon d’une médecine personnalisée et scalable ; mis au service de l’optimisation de l’engagement, il devient la cartographie parfaite de nos vulnérabilités cognitives.
Les enjeux éthiques et politiques soulevés appellent une réponse plurielle : conceptuelle, réglementaire et éducative. La question que pose en dernier ressort l’économie de l’attachement est celle de l’avenir du lien social dans des sociétés où les agents artificiels deviennent des protagonistes à part entière de la vie affective des individus. Cette question mérite toute l’attention des chercheurs en sciences humaines et sociales.
Bibliographie
Ainsworth, M.D.S., Blehar, M.C., Waters, E. et Wall, S. (1978). Patterns of Attachment. Erlbaum.
Anderson, J. (2020). Recommendation algorithms and their discontents. New Media & Society, 22(5), 845-862.
Bickmore, T.W. et Picard, R.W. (2005). Establishing and maintaining long-term human-computer relationships. ACM Transactions on Computer-Human Interaction, 12(2), 293-327.
Bowlby, J. (1969). Attachment and Loss, Vol. 1 : Attachment. Basic Books.
Bowlby, J. (1973). Attachment and Loss, Vol. 2 : Separation, Anxiety and Anger. Basic Books.
Bowlby, J. (1980). Attachment and Loss, Vol. 3 : Loss, Sadness and Depression. Basic Books.
boyd, d. (2014). It’s Complicated : The Social Lives of Networked Teens. Yale University Press.
Brandtzaeg, P.B. et Følstad, A. (2017). Why people use chatbots. Internet Science, 377-392.
Breazeal, C. (2003). Toward sociable robots. Robotics and Autonomous Systems, 42(3-4), 167-175.
Bruner, J. (1990). Acts of Meaning. Harvard University Press.
Bryson, J.J. (2010). Robots should be slaves. Close Engagements with Artificial Companions, 63-74. John Benjamins.
Clark, A., Friston, K. et Wilkinson, S. (2018). Bayesian brains without probabilities. Trends in Cognitive Sciences, 23(3), 228-239.
Coeckelbergh, M. (2020). AI Ethics. MIT Press.
Commission européenne (2019). Ethics Guidelines for Trustworthy AI. High-Level Expert Group on AI.
Crawford, K. (2021). Atlas of AI. Yale University Press.
Danaher, J. (2019). Automation and Utopia. Harvard University Press.
Darling, K. (2017). ‘Who’s Johnny?’ Anthropomorphic framing in human-robot interaction. Robot Ethics 2.0, 173-188. Oxford University Press.
Davenport, T.H. et Beck, J.C. (2001). The Attention Economy. Harvard Business School Press.
Fitzpatrick, K.K., Darcy, A. et Vierhile, M. (2017). Delivering cognitive behavior therapy using a fully automated conversational agent (Woebot). JMIR Mental Health, 4(2), e19.
Floridi, L., Cowls, J., Beltrametti, M. et al. (2018). AI4People — An ethical framework for a good AI society. Minds and Machines, 28(4), 689-707.
Friston, K. (2010). The free-energy principle : a unified brain theory? Nature Reviews Neuroscience, 11(2), 127-138.
Friston, K., FitzGerald, T., Rigoli, F., Schwartenbeck, P. et Pezzulo, G. (2017). Active inference : a process theory. Neural Computation, 29(1), 1-49.
Gabriel, I. (2020). Artificial intelligence, values, and alignment. Minds and Machines, 30(3), 411-437.
Gillespie, T. (2014). The relevance of algorithms. Media Technologies, 167-194. MIT Press.
Goffman, E. (1959). The Presentation of Self in Everyday Life. Doubleday.
Goldhaber, M.H. (1997). The attention economy and the net. First Monday, 2(4).
Han, B.-C. (2015). In the Swarm : Digital Prospects. MIT Press.
Harris, T. (2016). How technology hijacks people’s minds. Medium.
Hazan, C. et Shaver, P. (1987). Romantic love conceptualized as an attachment process. Journal of Personality and Social Psychology, 52(3), 511-524.
Heerink, M., Kröse, B., Evers, V. et Wielinga, B. (2010). Assessing acceptance of assistive social agent technology by older adults. Journal of Physical Agents, 4(2), 77-112.
Horvath, A.O., Del Re, A.C., Flückiger, C. et Symonds, D. (2011). Alliance in individual psychotherapy. Psychotherapy, 48(1), 9-16.
Jobin, A., Ienca, M. et Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.
Kim, Y. et Sundar, S.S. (2012). Anthropomorphism of computers. Computers in Human Behavior, 28(1), 241-250.
Luger, E. et Sellen, A. (2016). ‘Like Having a Really Bad PA’. CHI Conference on Human Factors in Computing Systems, 5286-5297.
Montag, C., Yang, H. et Elhai, J.D. (2021). On the psychology of TikTok use. Frontiers in Public Health, 9, 641673.
Nass, C., Steuer, J. et Tauber, E.R. (1994). Computers are social actors. Proceedings SIGCHI, 72-78.
OCDE (2019). Recommandation du Conseil sur l’intelligence artificielle. OCDE/LEGAL/0449.
Parr, T., Pezzulo, G. et Friston, K.J. (2022). Active Inference : The Free Energy Principle in Mind, Brain, and Behavior. MIT Press.
Pentina, I., Hancock, T. et Xie, T. (2023). Exploring relationship development with social chatbots. Journal of Computer-Mediated Communication, 28(1).
Provoost, S., Lau, H.M., Ruwaard, J. et Riper, H. (2017). Embodied conversational agents in clinical psychology. Frontiers in Psychiatry, 8, 34.
Reeves, B. et Nass, C. (1996). The Media Equation. Cambridge University Press.
Ricœur, P. (1990). Soi-même comme un autre. Seuil.
Sedlins, M., Riva, G. et Mantovani, F. (2022). Therapeutic alliance with virtual agents. Cyberpsychology, Behavior, and Social Networking, 25(4), 232-241.
Seth, A. (2021). Being You : A New Science of Consciousness. Dutton.
Simon, H.A. (1971). Designing organizations for an information-rich world. Computers, Communications and the Public Interest, 37-52. The Johns Hopkins Press.
Skinner, B.F. (1938). The Behavior of Organisms. Appleton-Century-Crofts.
Stiegler, B. (2010). Ce qui fait que la vie vaut la peine d’être vécue : De la pharmacologie. Flammarion.
Turkle, S. (2011). Alone Together. Basic Books.
Tversky, A. et Kahneman, D. (1974). Judgment under uncertainty : heuristics and biases. Science, 185(4157), 1124-1131.
Vallor, S. (2016). Technology and the Virtues. Oxford University Press.
van Dijck, J. (2013). The Culture of Connectivity. Oxford University Press.
Wu, T. (2016). The Attention Merchants. Knopf.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
1 Simon, H.A. (1971), p. 40-41 : « a wealth of information creates a poverty of attention and a need to allocate that attention efficiently among the overabundance of information sources that might consume it ».