Actualité
Appels à contributions
Big Data, vérités et fictions (Bucarest)

Big Data, vérités et fictions (Bucarest)

Publié le par Université de Lausanne (Source : Larissa Luica)

Appel à communications
Colloque international 

Big Data, vérités et fictions

20-21 septembre 2019

CEREFREA Villa Noël, Bucarest

 

La puissance de calcul des ordinateurs, le progrès des algorithmes, les travaux en machine learning et en intelligence artificielle (IA) ouvrent de vastes possibilités devant les chercheurs en sciences humaines et sociales. Tout d’abord, la possibilité de mettre en question de telles entreprises: En quoi élargissent-elles le champ de notre compréhension? Qu’est-ce qu’elles apportent à nos principes méthodologiques? Quels types de vérités échappaient à notre sagacité, que les nouveaux outils d’étude nous permettent de saisir? Et la suprême provocation - l’écriture des textes, la composition des tableaux et des mélodies – mène-t-elle à un remplacement de l’artiste par la machine, ou bien c’est l’équipe des programmeurs, artistes et critiques qui vient de produire simplement un nouveau média numérique, l’art de la „machine intelligente”? Les nouvelles technologies peuvent-elles nous aider à distinguer la vérité du mensonge, le réel du faux, ou bien cherchent simplement à nous persuader que l’output de la machine est „vrai”? 

Quelques éléments de réponse sont assez évidents, mais comment les articuler en un corpus théorique? L’ordinateur nous permet de saisir de vastes masses de données, ce qui n’était pas possible il y a 50 ans. Tout ce qui tient de l’approche historique de la société en sort renouvelé, mais encore à l’âge des balbutiements, pour des raisons de méthode et d’organisation de la recherche. Un principe de méthode sain repose sur une compréhension (et une manipulation efficace) des outils mis en oeuvre dans la recherche. Par conséquent, dans la connaissance de l’objet des SHS, le qualitatif et le quantitatif ne peuvent plus être séparés par une dichotomie diltheyenne (Lyotard 1979), car au-delà de la conscience individuelle les vérités reposent sur la constitution des ensembles connaissants et connus. La „prédiction” sociologique repose surtout sur l’étude des séries antérieures; la connaissance du futur repose sur une projection du passé. Du coup, de quel degré de confiance peuvent bénéficier ces prévisions ? L’art produit par l’IA demeure encore lié au traitement d’un input qui est l’oeuvre des mains et des esprits humains; le grand bond en avant aura lieu quand la machine donnera corps à des théories. Enfin, les fondements sémantiques de la question du vrai résistent pour l’instant à toute technologie machinique; même l’esprit averti est pris au dépourvu quand il s’agit de distinguer un récit vrai d’un récit faux (contra HaCohen-Kerner et al. 2016, Tin et Minh 2018). Le discours fondé sur des mensonges est-il plus « intéressant » que le discours vrai (Vosoughi, Roy et Aral 2018), ou bien la crise de la confiance dans les élites (Davies 2018) mène à des « opinions vindicatives », à une duplicité épistémique gouvernée par la « protestation symbolique contre le groupe dominant » (Hahl, Kim, Sivan 2018) ? La multiplication des canaux de communication a donné naissance à l’économie de l’attention et aux sociétés de la post-vérité (Harsin 2015). Le public s’enferme dans des bulles informationnelles et se polarise, mais cela peut conférer une meilleure écoute à certaines causes (Sunstein 2017; Pariser 2011). 

Notre colloque se propose de réunir informaticiens, historiens, littéraires, politologues, artistes et critiques d’art, spécialistes en communication et médias, chercheurs de tous les domaines des SHS, afin de réfléchir ensemble sur les nouvelles directions de recherche que l’emploi des algorithmes offre aux formes de la connaissance. 

Qu’est-ce que la machine ne peut pas faire? Quels modèles de connaissance nous proposent les recherches IA-SHS et à quels modèles de tolérance pourrait-on aboutir ? Quel est l’impact sur la société humaine des pratiques ancrées dans l’emploi des  big data ? Si la transparence des décisions est une valeur pour nous, pourquoi accepter les décisions d’une machine ? L’autorité des algorithmes est toujours légitimée par une instance investie d’autorité par nous autres. En quoi les modèles de connaissance dynamiques – suivant la flèche du temps – accentuent-ils une relativisation de la connaissance ? Les recherches culturomiques (Aiden et Michel 2013; Roth 2014; Acerbi, Lampos, Garnett et Bentley 2013) offrent-elles uniquement une modalité de tester des hypothèses existantes, ou bien permettent d’en proposer de nouvelles ? Peut-on rédiger la constitution ou les lois d’un pays par crowdsourcing (Landemore 2017) ? 

Quelles opportunités offrent à l’histoire littéraire les humanités numériques et la constitution de corpus massifs (Moretti 2005; Moretti 2013; Ferrer 2015)? Comment représenter et modéliser un texte (Flanders et Jannidis eds. 2019) ? Quelles possibilités en linguistique et stylistique (Ganascia 2015)? Quelles méthodes pour travailler avec de vastes corpus d’images ou de sons? Où en est la numérisation des archives de différents types de documents? Quelles voies pour l’art de la machine intelligente et quel impact sur le goût esthétique des communautés, sur le marché de l’art, bientôt sur les monuments publics? Les écrivains collaborant avec les savants produisent-ils une meilleure littérature SF (Harrison et Minsky 1993)?

Comment les mégadonnées peuvent-elles nous aider à étudier notre imaginaire – peut-être à l’élargir? Comment les controverses en neurosciences se reflètent-elles dans la recherche conjointe en intelligence artificielle et SHS, comment étudier les controverses elles-mêmes (Raynaud 2015) ? Comment traiter les traces média des contre-cultures et contre-idéologies (Lingel 2017) ? Comment évaluer l’impact respectif des discours médiatiques contradictoires (publicités pour les SUV et campagnes écologiques) ? Quel est le statut des injonctions contradictoires dans l’espace public ? Comment s’y prendre pour appliquer les nouvelles méthodes à l’étude des mouvements sociaux (gilets jaunes, Rosia Montana) ? La technologie numérique est-elle un danger pour la démocratie, voire pour l’économie (O’Neil 2016; Ezrachi et Stucke 2016)? Les scandales qui ont ébranlé la confiance dans les élites ont été possibles grâce à la publication de vastes ensembles de données (Wikileaks, Panama Papers). Le contrôle de l’individu atteint-il vraiment le niveau anticipé par les dystopies, ou se réduit à une nouvelle routine bureaucratique inefficace (Scheer et Beladi 2015) ? Le public semble certain que nous vivons déjà une dystopie, de sorte que le débat „Orwell ou Huxley” a migré du site Quora dans les pages du Financial Times. Sommes-nous à l’heure du contrôle de chaque individu ou de l’émancipation de chacun (Hoofd 2017) ? 

Le monde est entré dans une étape de changement accéléré (Hartmut Rosa 2013; Virilio 1977, 1990). Les méthodes numériques massives peuvent nous aider à y voir plus clair ou bien nous flouer. Une équipe en IA-SHS peut-elle mieux distinguer les enjeux et les visées des campagnes politiques, les filières et les nuances des idées politiques, entre souverainisme, nationalisme, populisme, isolationnisme ? Dans la complexité des transformations actuelles, quels modèles de complexité nous aideront à mieux comprendre ? 

*

Comité scientifique

Jean-Claude SOULAGES, Université Lumière Lyon 2

Fadila BENTAYEB, Université Lumière Lyon 2

Omar BOUSSAID, Université Lumière Lyon 2

Dana POPESCU-JOURDY, Université Lumière Lyon 2

Cristina VERTAN, Université de Hambourg

Andrea SGARRO, Université de Trieste

Liviu Petrisor DINU, Université de Bucarest

Anca DINU, Université de Bucarest

Ioan PÂNZARU, Université de Bucarest

Roxana TROFIN, Université Polytechnique de Bucarest

Vincent WERTZ, Université Catholique de Louvain

*

Comité d’organisation

Isabelle SANYAS, Université Lumière Lyon 2

Simona NECULA, Université de Bucarest

Larissa LUICA, Université de Bucarest

*

Calendrier

1er avril - 15 mai 2019 : envoi des résumés (350 mots maximum) à l'adresse larissa.luica@villanoel.ro

15 juin 2019 : réponse aux participants

*

Bibliographie

Erez Aiden, Jean-Baptiste Michel, Uncharted. Big Data as a Lens on Human Culture, New York, Riverhead Books, 2013

Alberto Acerbi, Vasileios Lampos, Philip Garnett, R. Alexander Bentley, „The Expression of Emotions in 20th Century Books”, PLoS ONE 8(3): e59030. doi:10.1371/journal.pone.0059030 

William Davies, Nervous States. How Feeling Took over the World, London, Jonthan Cape, 2018

Ariel Ezrachi, Maurice E. Stucke, Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy, Harvard Univesity Press, 2016

Carolina Ferrer, „Digital Humanities, Big Data, and Literary Studies: Mapping European Literatures in the 21st Century”, Rupkatha Journal on Interdisciplinary Studies in Humanities, 7, 1, 2015, URL: http://rupkatha.com/V7/n1/01_Digital_Humanities_Big_Data.pdf 

Julia Flanders, Fotis Jannidis eds., The Shape of Data in Digital Humanities. Modeling Texts and Text-Based Resources, London, New York, Routledge, 2019

Jean-Gabriel Ganascia, „The Logic of the Big Data Turn in Digital Literary Studies”, Frontiers in Digital Humanities, 2, 7, 2015, doi: 10.3389/fdigh.2015.00007

Yaakov HaCohen-Kerner, Rakefet Dilmon, Shimon Friedlich et Daniel Nissim Cohen, „Classifying True and False Hebrew Stories Using Word N-Grams”, Cybernetics and Systems, 2016, DOI: 10.1080/01969722.2016.1232119 

Oliver Hahl, Minjae Kim, Ezra W. Zuckerman Sivan, „The Authentic Appeal of the Lying Demagogue: Proclaiming the Deeper Truth about Political Illegitimacy”, American Sociological Review, 2018, 83, 1, pp. 1–33.

Harry Harrison, Marvin Minsky, The Turing Test, New York, Warner Books, 1993

Jayson Harsin, „Regimes of Posttruth, Postpolitics, and Attention Economies”, Communication, Culture & Critique, 2015

Ingrid M. Hoofd, Higher Education and Technological Acceleration. The Disintegration of University Teaching and Research, New York, Palgrave Macmillan, 2017

Hélène Landemore, „Inclusive Constitution Making and Religious Rights: Lessons from the Icelandic Experiment”, The Journal of Politics, 79, 3, 2017, publié en ligne http://dx.doi.org/10.1086/690300 

Jessa Lingel, Digital Countercultures and the Struggle for Community, Cambridge MA, MIT Press, 2017

Jean-François Lyotard, La Condition post-moderne, Les Editions de Minuit, 1979

Franco Moretti, Graphs, Maps, Trees. Abstract Models for Literary History, London, New York, Verso, 2005

Franco Moretti, Distant Reading, London, New York, Verso, 2013

Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York, Crown, 2016

Eli Pariser, The Filter Bubble. What the Internet Is Hiding from You, New York, The Penguin Press, 2011

Dominique Raynaud, Scientific Controversies. A Socio-Historical Perspective on the Advancement of Science, with a new preface by Mario Bunge, New Brunswick, New Jersey, Transaction Publishers, 2015

Hartmut Rosa, Social Acceleration. A New Theory of Modernity, trad. Jonathan Trejo-Mathys, New York, Columbia University Press, 2013

Steffen Roth, Fashionable Functions: A Google Ngram View of Trends in Functional Differentiation (1800-2000), International Journal of Technology and Human Interaction, 10(2), 34-58, April-June 2014

Robert Scheer with Sara Beladi, They Know Everything About You. How Data-Collecting Corporations and Snooping Government Agencies are Destroying Democracy, New York, Nation Books, 2015

Cass Sunstein, #Republic. Divided Democracy in the Age of Social Media, Princeton University Press, 2017 

Pham Trung Tin et Nguyen Le Minh, „Memory Networks for Fake News Detection”, accepté par CICLing 2018 19th International Conference on Computational Linguistics and Intelligent Text Processing; March 18 to 24, 2018, Hanoi, Vietnam, URL: https://www.cicling.org/2018/accepted.html 

Paul Virilio, L'Inertie polaire. Essai, Paris, Bourgois, 1990

Paul Virilio, Vitesse et politique. Essai de dromologie, Paris, Galilée, 1977

Soroush Vosoughi, Deb Roy, Sinan Aral, „The Spread of True and False News Online”, Science, 359, 1146–1151, 9 March 2018.