Visualizzazione post con etichetta Algorithmic Governmentality. Mostra tutti i post
Visualizzazione post con etichetta Algorithmic Governmentality. Mostra tutti i post

giovedì 3 settembre 2015

:: Dromology Archive 2 :: Il PartiRank del Cerchio - Parte IV - Recensione del libro Gli Algoritmi del capitale (curato da Matteo Pasquinelli)

 
:: Dromology Archive 2 :: Il PartiRank del Cerchio


“Mae guardò l’ora. Erano le sei. Aveva un mucchio di tempo per migliorare, lì per lì, e allora s’imbarcò in un turbine di attività, inviando quattro zing, trentadue commenti e ottantotto smile. In un’ora il suo PartiRank arrivò a 7288. Scendere sotto i 7.000 era più difficile, ma entro le otto, dopo essersi iscritta a undici gruppi di discussione e avervi postato dei messaggi, dopo aver inviato altri dodici zing, uno dei quali classificato tra i primi 5000 per quell’ora, e dopo essersi registrata per altri sessantasette feed, ce l’aveva fatta. Era a 6872, e si dedicò al social feed dell’InnerCircle. Era rimasta indietro di qualche centinaio di post e cercò di riguadagnare il terreno perduto rispondendo a una settantina di messaggi, dando la propria adesione a undici eventi del campus, firmando nove petizioni e sfornando commenti e critiche costruttive su quattro prodotti che al momento erano in una delle fasi conclusive di sviluppo. Alle 22.16 la sua posizione era 5342 e, di nuovo, il plateau - fissato questa volta a 5000 - non fu facile da raggiungere.” ( segue QUI )

(Dave Eggers, Il cerchio, 2014)

(Nota dell'editore: il testo completo si compone di 22 paragrafi che verranno pubblicati giorno per giorno, a partire dal 31 agosto 2015. Il titolo del breve saggio/recensione è Dromologia, bolidismo e accelerazionismo marxista. Frammenti di comunismo tra al-Khwarizmi e Mach)


Picblog: Euthanasia Coaster by Julijonas Urbonas: Challenging the physical and psychological limits of the human body, this speculative design is intended to slowly ascend 1,700 feet into the air before launching passengers down seven loops at a mind-boggling speed of 330 feet per second. The roller coaster aims to give its riders a diverse range of experiences from euphoria to thrill, tunnel vision to a loss of consciousness and, eventually, to the end result: death.

mercoledì 3 giugno 2015

Elettra Stimilli: Recensione del libro (a cura di) Matteo Pasquinelli: Gli algoritmi del capitale @ Alfabeta2, 3 giugno 2015

Gli algoritmi del capitale

Recensione di Elettra Stimilli per Alfabeta2, 3 giugno 2015 

Quando era appena uscito nelle sale italiane The Wolf of Wall Street, il film in cui Scorsese narra l'ascesa e la caduta di uno dei tanti spregiudicati broker newyorkesi, nell'intenzione - da lui stesso esplicitamente dichiarata - di “scoprire come lavorano le loro menti”, viene pubblicato in Italia un volume a cura di Matteo Pasquinelli, Gli algoritmi del capitale. Accelerazionismo, macchine delle conoscenza e autonomia del comune (Ombre Corte 2014), che tenta di inscrivere la riflessione sull'attuale crisi finanziaria tra le sofisticate pieghe della virtualizzazione della finanza e delle relazioni sociali. Più che al film di Scorsese, Pasquinelli preferisce, però, far riferimento, come antecedente artistico delle analisi contenute nel libro da lui curato, al romanzo di Don DeLillo Cosmopolis, scritto negli stessi anni del movimento di Seattle e prima del tragico attacco alle Twin Towers.
Muovendo da una riflessione sul predominio e sulla crisi del capitalismo finanziario contemporaneo, i saggi raccolti in questo volume sono tutti accomunati dall'esigenza di guardare all'orizzonte tecnologico globale nell'intento di trovare nuovi paradigmi in grado di dischiudere differenti spazi collettivi e politici. Il volume si apre con il Manifesto per una politica accelerazionista di Alex Williams e Nick Srnicek, da molti definito il caso editoriale del 2013 all'interno del pensiero politico radicale. Sorto dall'ambiente intellettuale che ruota attorno alla rivista inglese «Collapse» - spesso individuato con l'etichetta “realismo speculativo” e legato ad autori come Reza Negarestani e Ray Brassier – il Manifesto è stato tradotto in diverse lingue e viene qui presentato in versione italiana come un'introduzione al dibattito che si è sviluppato a partire da un simposio organizzato a Berlino nel 2013.


Le tesi del Manifesto possono così essere confrontate con quelle che provengono dalle riflessioni dell'operaismo italiano che, già negli anni Settanta del secolo scorso, aveva saputo mettere a tema l'egemonia del general intellect nelle società post-fordiste, evidenziando il graduale predominio del lavoro cognitivo. Oggi tuttavia, come scrive Pasquinelli nell'Introduzione, “non è sufficiente affermare che il capitalismo [...] [sia] un capitalismo cognitivo […]. Il capitalismo ha sviluppato forme di intelligenza autonoma e di scala superiore. Si deve dire: il capitale stesso pensa” (p. 9). Il piano di sorveglianza PRISM della National Security Agency, di recente divenuto famoso grazie allo scandalo sulle intercettazioni che ha coinvolto le agenzie di intelligenceamericane - di cui, tra l'altro, si tratta in Citizenfour, il film documentario di Laura Poitras su Edward Snowden, di recente diffuso anche nelle sale cinematografiche italiane - ha rivelato in maniera palese questa situazione.
Se questo automaton tecnologico planetario sta ridisegnando i confini del nuovo nomos politico, a nulla possono servire nostalgiche visioni di un passato ormai irrecuperabile. Per gli autori del Manifesto accelerazionista si tratta piuttosto di portare all'estremo questa orientamento come attendendo una sua implosione interna, che sia, però, l'inizio per una nuova era post-capitalistica. L'accelerazione risulta in questo senso la realizzazione di tendenze che dovrebbero condurre al pieno dispiegamento di potenzialità già contenute, ma neutralizzate, nell'attuale forma del capitalismo.
Una simile analogia tra l'impero globalizzante della politica post-nazionale e le potenzialità della rete è presente anche nella prospettiva di Antonio Negri, che interviene insieme ad altri nel volume (come Franco Berardi Bifo, Mercedes Bunz, Stefano Harney, Tiziana Terranova, Carlo Vercellone, Cristiana Marazzi, ecc.). Ma il problema, per Negri, non è soltanto il fatto che “accelerazionismo” risulta un termine infelice, perché richiama “un senso futurista a quello che futurista non è” (p. 34); ma soprattutto sta nella possibilità di ricondurre questo processo alla sua organizzazione politica, alle stesse forze sociali preesistenti a qualsiasi “algoritmo” del capitale.



giovedì 22 gennaio 2015

Pierre Alonso: BIG DATA IS ALGORITHMING YOU. Un entretien avec Antoniette Rouvroy @ Article 11, 22Jan2014



Cet entretien a été publié dans le numéro 17 d’Article11  Read more @ A11
Je donne, tu donnes, il/elle donne… nos données. Les data sont le nouvel or noir que se disputent gouvernements et géants du numérique. Parfois, les premiers se servent même tout simplement chez les seconds, comme l’a montré l’existence du programme Prism, l’une des nombreuses révélations d’Edward Snowden - l’ancien sous-traitant de la toute-puissance National Security Agency (NSA) américaine. Par une tentative de retournement culotté de la situation, les artisans de la surveillance de masse et de la présomption de culpabilité tentent de se dédouaner en pointant la collecte tentaculaire opérée par Google, Facebook et consorts. Leur argument : vous – population – filez bien plus à des entreprises privées ! Lesquelles répondent que pas du tout… Un cercle sans fin.
Ces enfumages et faux débats empêchent de penser la transformation de nos vies en données, en signaux infrapersonnels qui ne font sens qu’agrégés et moulinés par millions. En naît un pouvoir d’un genre nouveau, la « gouvernementalité algorithmique », explique la chercheuse belge Antoinette Rouvroy1.
Au commencement, il y a les données. Qu’est-ce qu’une donnée ?
« On parle aujourd’hui de plus en plus des données brutes, par opposition aux données à caractère personnelle2. Dans le contexte des big data3 ou du data mining4, les données traitées sont elles-mêmes ’’assignifiantes’’ : elles n’identifient pas une personne.
De mon point de vue, elles constituent de nouveaux objets, dans la mesure où elles sont produites par des opérations de décontextualisation, de désindexation, de purification de toute signification personnelle. Elles ne sont pas signifiantes individuellement, mais sont agrégeables avec d’autres données recueillies dans des contextes temporels et géographiques différents. Elles permettent ainsi de créer des profils ou des modèles de comportement qui ne se rapportent à personne en particulier mais désignent des trajectoires possibles.
Les données ne fonctionnent pas comme des signes, les éléments traditionnels de la sémiotique. Pour qu’un signe soit signifiant, il faut qu’il représente la chose qu’il signifie. Par ressemblance (comme les icônes), par convention (comme les signaux routiers) ou par le souvenir d’un rapport physique avec la chose représentée (comme les traces ou empreintes).
Les données brutes ne fonctionnent pas ainsi parce qu’elles ne ressemblent à rien, ne font évidemment pas signe par convention (personne ne décide a priori de la signification à leur accorder) et ne conservent aucun lien matériel avec un geste physique (le doigt qui frappe le clavier, par exemple). Ce sont donc bien de nouveaux objets, qui se rapprochent plus du signal que du signe. Je m’en rapporte ici à la définition d’Umberto Eco : un signal est ce qui est calculable, malgré l’absence de signification. »
C’est donc un potentiel ?
« Comme ces données ne sont pas signifiantes, qu’elles ne conservent aucun lien direct avec les individus, qu’elles sont souvent anonymisées, décontextualisées, elles paraissent triviales, peu menaçantes, y compris pour la vie privée des individus. Mais elles vont servir à produire une forme de modélisation du social et du comportement qui aura des effets très concrets de gouvernement sur les conduites possibles. »
Lors d’une intervention récente, vous avez défini la donnée brute comme « texture même du capitalisme »...
« Dans Mille Plateaux, Capitalisme et Schizophrénie, Gilles Deleuze et Félix Guattari définissent le capitalisme comme la libération des flux dans des champs déterritorialisés. Cette libération nécessite des opérations de dé-codage. Les signes qui ont de la signification pour nous en ont grâce aux codages propres à la société dans laquelle nous vivons. Les codes d’intelligibilité nous permettent de les comprendre.
Ici, il y a un dé-codage. C’est-à-dire une sorte d’abstraction sur fond de complète décontextualisation qui supprime des possibilités d’intelligibilité dans l’esprit humain. Le capitalisme fonctionne de cette manière, en extrayant notamment de leur contexte de vie les moyens de production. »
En quoi consiste le phénomène de big data ? C’est une simple juxtaposition de données brutes ou une agrégation intelligente (grâce aux algorithmes) des données brutes ? 
« Il s’agit d’abord d’un phénomène de perte de contrôle. Il y a big data lorsque des seuils de quantité, de complexité (les données sont recueillies dans des contextes très différents) et de rapidité (elles prolifèrent en temps réel) sont atteints, de telle sorte que ces masses de données ne peuvent plus être gérées par les techniques traditionnelles de banques de données. L’existence des big data constitue donc une sorte d’aveu de faiblesse, lequel renvoie en creux à notre incapacité à administrer ces masses de données autrement qu’en sous-traitant leur gestion à des algorithmes, dont on connaît de moins en moins le fonctionnement.
Les big data offrent de nouvelles manières de rendre le monde signifiant – Michel Foucault parlerait d’un nouveau ’’régime de vérité’’ – sur la base de la pure induction (et non de la causalité), en temps réel, dans des modèles qui s’affinent en permanence… C’est vraiment un changement de paradigme dans le mode de production de ce qu’on considère comme le réel. Les possibilités ouvertes sont gigantesques dans tous les domaines : le marketing, la connaissance des consommateurs, l’astronomie, l’histoire, l’archivage…
Dans le même temps, les big data transforment de nombreuses disciplines, pas toujours pour le pire. Elles permettent de prendre en compte des masses de données qu’on devait ignorer auparavant. Donnent l’impression d’avoir un accès plus exhaustif à la réalité. Satisfont le mythe d’un accès immédiat et total à celle-ci sans passer par quelque représentation que ce soit. Un rêve d’immanence qu’on a l’impression de voir se réaliser. »
L’utilisation des big data n’est-elle pas le prolongement technique et logique de la statistique ?
« Les finalités de la statistique traditionnelles sont très différentes des opérations statistiques du data mining ou des big data. La statistique consiste à objectiver des hypothèses faites a priori : elle est un moyen de preuve. Le data mining au contraire fait surgir des hypothèses du réel numérisé lui-même !
Les techniques aussi sont différentes. La statistique ne tient pas compte des points les plus éloignés pour calculer une moyenne, car ils sont perturbateurs, générateurs de bruit. Les capacités de calcul sont limitées. Avec le data mining, il est possible, grâce aux puissances de calcul, de tenir compte de tout, y compris des points les plus éloignés. La notion même de normal, de normalité, de moyenne disparaît. »
Ce qui donne l’illusion d’une retranscription totale du réel, voire d’un dédoublement du réel ? 
« Le réel numérisé peut en effet sembler être le réel lui-même. Comme il n’y a plus de sélection de données par des acteurs humains, donc faillibles, on a l’impression d’une très grand objectivité. La totalité des données étant actualisée en temps réel, le monde numérisé paraît reproduction exacte du monde. La notion de médiation, de représentation en fait les frais, comme pour consacrer le mythe de l’accès immédiat au réel tel qu’il est. »
Il y a un risque de confondre le réel avec le réel numérisé ?
« Oui, parce que ce processus présente des aspects extrêmement performatifs. Ce qui n’est pas numérisé ou numérisable, que ce soit la détresse humaine ou des circonstances particulières, ce qui ne rentre pas dans les cases, n’a plus voix au chapitre. Cette évolution, qui paraît très objective, est en fait profondément injuste : on sait très bien que la totalité du réel n’est pas mise en nombres.
Cette impression de repli de la réalité à l’intérieur de la réalité numérisée, cette totalisation – c’est presque un régime totalitaire numérique –, risque de faire disparaître la distinction entre le monde et sa représentation, et donc la possibilité même de la critique. On peut critiquer la représentation, comme on critiquait les anciens objets statistiques, qui n’étaient pas assez représentatifs ou mal construits. Tandis que le réel numérisé va à rebours de l’idée que le savoir est toujours construit, et donc critiquable en fonction des conditions de sa construction. Si ce n’est plus construit, ce n’est plus critiquable. C’est un enjeu fondamental. »
Comment critiquer efficacement les effets de pouvoir engendrés ?
« La critique est d’autant plus difficile que le pouvoir n’apparaît pas comme tyrannique. Pour fonctionner, ce mode d’exercice du pouvoir a besoin que nous nous sentions le plus libre possible de nous exprimer, que nous donnions un maximum de données. Il ne nous contraint pas dans notre expression. Au contraire ! Dès que vous êtes connecté sur Facebook, un champ vous propose de vous exprimer ! C’est exactement l’inverse du monde orwellien dans lequel la liberté d’expression était l’ennemi du pouvoir. Nous sommes en quelque sorte gouvernés par notre liberté, ce qui rend la critique extrêmement difficile. »
Et nous sommes consentants...
« Il faudrait plutôt parler d’un effet d’adhésion. Nos profils sont si multiples, adaptables et adaptés en temps réel que ne pas vouloir être profilé, c’est ne pas se vouloir soi-même. Dans ce mode de gouvernement, l’autorité n’est plus assumée par personne, sinon par nous-mêmes, par les trajectoires qui nous sont assignées à titre d’un destin identitaire conduisant à une clôture de l’individu sur lui-même. Ce qui correspond, dans un certain sens, à l’idéal des années 1960 - ne pas être gouverné par autre chose que nous-mêmes. »
La multiplicité presque infini des profils créés permet de résoudre ce que vous appelez « l’oxymore de la personnalisation industrielle »...
« C’est paradoxal : la personnalisation très fine ne s’accompagne d’aucune rencontre entre des individus qui n’ont plus à exprimer leur propre désir. Le président de Google a ainsi expliqué qu’il deviendra bientôt très difficile pour les individus de vouloir quelque chose qui n’a pas été prévu pour eux par sa firme. Dans ce cadre disparaissent l’expression, le façonnement de nos propres désirs, ainsi que notre manière de les exprimer à autrui.
Nous nous exprimons ou rencontrons quelqu’un parce que nous ressentons une sorte de manque, d’insatisfaction. Si tout est prévu par une providence numérique, nous n’avons plus besoin de cet espace public pour exprimer nos envies, nos désirs. La sphère individuelle est gavée, volontairement ou non, de manière à éviter le commun. »
Personne ne détient ce pouvoir ? Même pas les créateurs d’algorithme ? Ou ceux qui les possèdent, comme Google ?
« C’est très dilué. Ceux qui façonnent les algorithmes ne sont pas détenteurs du pouvoir, car ils n’exploitent pas les données eux-mêmes. D’autant plus qu’ils sous-traitent leur boulot aux algorithmes (le ’’machine learning’’), lesquels sont auto-apprenants.
Par contre, ceux qui sont autorisés (ou qui s’autorisent) à exploiter ces données à des fins de prédation détiennent un pouvoir important. Ils visent par exemple le temps d’attention des utilisateurs d’Internet et ciblent leur espace de vie avec la publicité individualisée. Grâce à l’Internet des objets, des publicités pourront s’afficher dans nos espaces privés, sur nos frigos ou sur d’autres objets domestiques. Les industriels et les commerciaux tirent ainsi les marrons du feu. De même que les États surveillants, comme les États-Unis avec la NSA. »
La cible de ce nouveau pouvoir paraît davantage être le futur que le présent...
« Il se concentre sur l’incertitude radicale liée au fait que nous sommes des individus qui nous pensons libres, avec une possibilité de ne pas forcément faire tout ce dont nous sommes capables. Alors que les algorithmes appliqués à la sécurité considèrent que l’individu susceptible de commettre un acte terroriste est déjà un terroriste, comme s’il avait commis l’acte dont il est physiquement capable.
Spinoza expliquait que notre puissance vient de notre capacité à ne pas faire tout ce dont nous sommes capables. Cette possibilité de retenue est essentielle. Même si nous ne sommes pas des êtres absolument libres, rationnels, autonomes, il existe une sorte de marge. Et c’est précisément cette dernière qui est la cible de la gouvernementalité algorithmique. Il s’agit en somme de l’excès du possible sur le probable. »
En quoi ce gouvernement du futur se distingue-t-il de la prévention, qui consiste à empêcher la réalisation d’actes jugés illégaux ou immoraux ?
« La prévention passe par l’identification des causes, puis par une intervention pour que le comportement ne se produise pas. Ici, il n’est plus du tout question de prévention : les causes sont devenues totalement indifférentes. La production de ce mode de ’’savoir’’ est purement inductive. Je parlerais de préemption : il faut empêcher (ou faire advenir) certains comportements, sans se soucier des causes. En laissant de côté ces dernières, on se prive de la possibilité de prévenir. »
Est-ce le prolongement de ce que Foucault décrit à propos de l’intériorisation de la contrainte ?
« Non, c’est complètement nouveau ! Dans les dispositions algorithmiques, le sujet n’existe pas. L’effet de ces dispositions est précisément de rendre impossible les opérations de subjectivation. La norme n’est plus connue par personne, elle n’est plus visible, elle évolue en temps réel. Elle est complètement plastique, s’adapte à tout ce qui se passe. Ce système ne connaît que les données infrapersonnelles, les données brutes donc, agrégées au niveau supra-individuel.
L’objectif est très différent de la discipline foucaldienne, qui visait la réforme des comportements, soit une sorte de moralisation. Ici, le caractère moral est complètement absent. Cela fait apparaître la gouvernementalité algorithmique comme neutre, objective et non-gouvernante. La cible n’est pas la réforme des individus, mais celle des comportements - peu importe par qui ils sont portés.
Lire Foucault permet surtout de comprendre ce qui a glissé depuis ses analyses. Au lieu de la production de corps dociles par les normes, on en vient à la production de normes dociles par les corps. La normativité s’adapte à tous les mouvements. »
Dans quelle mesure la gouvernementalité algorithmique comporte-t-elle des failles ? Vous disiez un peu plus tôt que refuser d’être profilé, c’est se refuser soi-même...
« Tout événement est disséqué, éparpillé en une multitude de données elles-mêmes réagrégées. Mais il en reste. L’affaire Prism a par exemple fait bouger certaines lignes. Pas assez, évidemment, mais elle a quand même constitué une sorte d’électrochoc.
Alain Badiou explique que si on reconnaît un fait comme événement, si on décide que c’est un point de rupture, un point de refus, on peut en tirer les conséquences. Ce qui suppose une décision à l’origine et se traduit ensuite par des décisions concrètes. À cet égard, l’affaire Prism est un non-événement, malgré les possibilités portées par la situation. Elle a certes permis une certaine prise de conscience de ce dans quoi on s’embarque. Mais elle n’a pas débouché sur une forme de ’’débarquement’’. »
En quoi le mouvement d’ouverture des données publiques (open data) peut-il constituer un contre-pouvoir ?
« C’est tout à fait insuffisant. Les individus n’ont aucune possibilité de traiter ces données d’une manière qui fasse sens pour eux. Ce mouvement ne change rien aux déséquilibres de pouvoir et de moyens. C’est davantage un cache-sexe, qui rajoute une couche au discours dominant faisant l’apologie des données et expliquant que l’avenir est dans leur traitement. »
Les données protégées par les institutions de type CNIL et les gouvernements sont celles à caractère personnelle. Mais si on prend l’exemple de la la NSA, on se rend compte qu’elle se nourrit de métadonnées5...
« Le droit est complètement à côté de la plaque ! Il faut bien sûr continuer à protéger les données à caractère personnel. Mais on rate un large pan de la problématique actuelle si on en reste là. C’est-à-dire qu’on fait alors l’impasse sur tout ce qui a trait au profilage, à la personnalisation, à l’hypertrophie de la sphère privée, à la paupérisation de l’espace public et à la prédation par des sociétés privées des espaces eux-mêmes privés des internautes.
Cet acharnement à camper sur la protection des données à caractère personnel est curieux, voire suspect. Une cécité pareille ne peut être que volontaire. L’objectif serait-il raté à dessein ?
Quoi qu’il en soit, ce processus est éminemment révélateur. Nous sommes tellement imprégnés d’une culture individualiste que nous sommes incapables de voir ce qui se joue au-delà de la question des données à caractère personnel. Cet aveuglement va de pair avec un mépris pour le commun, pour l’espace public et pour le débat public. »


1 Qui oeuvre au sein du Centre de recherche en information, droit et société de l’Université de Namur.
2 Une donnée personnelle comporte des informations renvoyant à l’identité d’une personne, que ce soit directement (son nom) ou indirectement (son numéro de téléphone, son adresse IP, son empreinte ADN, etc.).
3 Le terme big data désigne des ensembles de données très volumineux.
4 Le data mining consiste à passer à la moulinette des données, souvent en très grand nombre, pour en extraire du sens. Les moulinettes sont aussi appelées algorithmes.
5 Les métadonnées sont l’ensemble des informations qui entourent les données elles-mêmes. Par exemple, pour un e-mail, il s’agit des adresses IP de l’émetteur et du récepteur, de leurs adresses tout court, de l’objet du message et de sa date d’envoi.

martedì 2 dicembre 2014

Matteo Pasquinelli: The Eye of the Algorithm: Anthropocene and the Making of the World Brain @

Matteo Pasquinelli: The Eye of the Algorithm: Anthropocene and the Making of the World Brain

Abstract. A new planetary scale of computation demands a new planetary scale of politics. As the current debate on the Anthropocene points too, no political agency is possible without the recognition of a new cognitive perspective on the whole planet. The eye of modern perspective was born trough an equivalent paradigm shift, bringing innovative techniques of optical projection from the mathematicians of Baghdad to Florence. A further dimension of depth was so added to aesthetics, many crooked paintings were straightened and a new political vision of the collective space was inaugurated. Similarly, a further cognitive dimension has to be imported today from computation into political thought, in order to be able to ‘see’ and grasp the oceanic depth of the global datascape and to disclose the novel techno-complexity of the social space. Something similar happened already in cybernetics with the shift from the first order to the second order cybernetics, that is with the recognition of the meta-level of the observer observing a system of observers. Any century produces its own epistemic rift. The making of a global datascape is calling for a new epistemic eye.

lunedì 1 settembre 2014

ANTOINETTE ROUVROY: ALGORITHMIC GOVERNMENTALITY – THE TAMING OF MULTITUDES @ Cent­re for Di­gi­tal Cul­tu­res


ANTOINETTE ROUVROY: ALGORITHMIC GOVERNMENTALITY – THE TAMING OF MULTITUDES

01.09.2014 18:00Hybrid Publishing Lab
Phi­lo­so­phy of the Web Lec­tu­re Se­ries
Ve­nue: Cent­re for Di­gi­tal Cul­tu­res, Sülz­tor­str. 21–35, 21335 Lüne­burg, 2. Floor
Al­go­rith­mic go­vern­ment is a form of go­vern­ment fed with raw data (in­fra-per­so­nal si­gnals), af­fec­ting in­di­vi­du­als and groups by way of in­dus­tri­al per­so­na­liza­t­i­on and preemp­ti­on. An un­pre­ce­den­ted ra­tio­na­li­ty/​mode of go­vern­ment, al­go­rith­mic go­vern­men­ta­li­ty is, An­toi­net­te Rouvroy will try to de­mons­tra­te, the mode of go­vern­ment ty­pi­cal of the age of multi­tu­des, and a uni­que­ly power­ful neo­li­be­ral re­ab­sorp­ti­on of the cri­ti­cal ethos in­heri­ted from the six­ties. The type of “know­ledge” it is fed with and pro­du­ces, the man­ner it ac­tual­ly af­fects/​neu­tra­li­zes in­di­vi­du­al and collec­tive agen­cy, and the mo­des of in­di­vi­dua­ti­on sus­cep­ti­ble to in­flux or re­sist al­go­rith­mic go­vern­men­ta­li­ty are what this talk will be about.
Antoinette Rouvroy, Doc­tor of Laws of the Eu­ro­pean Uni­ver­si­ty In­sti­tu­te (Flo­rence), is per­ma­nent re­se­arch as­so­cia­te at the Bel­gi­an Na­tio­nal Fund for Sci­en­ti­fic Re­se­arch (FNRS) and se­ni­or re­se­ar­cher at the Re­se­arch Cent­re In­for­ma­ti­on, Law and So­cie­ty, Law Fa­cul­ty, Uni­ver­si­ty of Na­mur (Bel­gi­um). She is also mem­ber of the French CNIL (Com­mis­si­on In­for­ma­tique et Li­bertés)’s Fo­re­sight com­mit­tee. She aut­ho­red ‘Hu­man Ge­nes and Neo­li­be­ral Go­ver­nan­ce: A Fou­caul­di­an Cri­tique’ (Rout­ledge-Ca­ven­dish, 2008) and co-edi­ted, with Mi­reil­le Hil­de­brandt, ‘Law, Hu­man Agen­cy and Au­to­no­mic Com­pu­ting: Phi­lo­so­phers of Law meet Phi­lo­so­phers of Tech­no­lo­gy’ (Rout­ledge, 2011). In her wri­tings, she has ad­dres­sed, among other things, is­su­es of pri­va­cy, data pro­tec­tion, non-dis­cri­mi­na­ti­on, equa­li­ty of op­por­tu­nities, due pro­cess in the con­text of “data-rich” en­vi­ron­ments (the so-cal­led ge­ne­tic re­vo­lu­ti­on, the so-cal­led in­for­ma­ti­on/​sur­veil­lan­ce so­cie­ty) with an ap­proach com­bi­ning le­gal and po­li­ti­cal phi­lo­so­phy. Her cur­rent in­ter­di­sci­pli­na­ry re­se­arch in­te­rests re­vol­ve around the con­cept of al­go­rith­mic go­vern­men­ta­li­ty. Un­der this fou­caul­di­an neo­lo­gism, she ex­plo­res the se­mio­tic-epis­te­mic, po­li­ti­cal, le­gal and phi­lo­so­phi­cal im­pli­ca­ti­ons of the com­pu­ta­tio­nal turn (Big Data, al­go­rith­mic pro­filing, in­dus­tri­al per­so­na­liza­t­i­on). She ex­plo­res the im­pact of al­go­rith­mic go­vern­men­ta­li­ty on our mo­des of pro­duc­tion of what counts and ac­counts for “rea­li­ty”, on our mo­des of go­vern­ment, and on the mo­da­li­ties of cri­tique, re­sis­tan­ce or re­cal­citran­ce.
This event is part of the se­ries Phi­lo­so­phy of the Web, or­ga­ni­zed by Dr. Yuk Hui, CDC.