Make the Algorithm Virtuous

 

For a virtuous algorithm

What if the algorithm considered us as free, thinking and responsible people, and not as Pavlovian, isolated and solipsist “automatons”?

Algorithm is the supreme contemporary metonymy: a computation method used to model behaviour has become the name of the model itself. To tell the truth, “probabilistic correlation” would have been a more accurate description, but such a name would have failed to give the concept the connotations of frightening futurism that we love to employ. By and large, however, the idea is nothing that requires a PhD in math. A guy who buys a Ferrari and a plane ticket for just one person to the Seychelles has a high probability of being divorced within two years. In the 18th century a bishop who spent a lot of money at his tailor probably had a mistress. But what is called by metonymy “the algorithm”, is not just one or two correlations, here or there. Powerful machines correlate the extraordinary volume of innumerable data that can be collected on humans. The word “algorithm” is no longer the correlation itself, it is the way in which the correlation is used.

The algorithm also has another connotation: it refers to the knowledge, the “learning” that these correlations make possible. A somewhat implicit epistemological evolution, yet a very significant one. There is an “explanative” intelligence which explains events by their “causes”: to understand a phenomenon, this intelligence searches for its causal roots. As for human actions, the “causalist” will study the motives and the intentions to understand behaviour. Yet very early in the development of human sciences, the probability theory has enabled another source of knowledge, knowledge by probabilistic correlates, which isolates the social factors from the psychological factors and studies it as such. This is how Durkheim, in the nineteenth century, created the “object” of sociology. The algorithm, as it is evoked today, is underpinned by a positivist conception of society. No matter what our Ferrari buyer thinks, no matter what his intentional system is, he’ll divorce soon. For the positivist sociologist, his behaviour is the result of how social patterns influence the individual, irrespective of the sort of psychological person he is.

Algorithmic systems invade the social field. Of course, brands rely on their limitless power to “predict behaviour”. Political organizations are hoping for more effective and more scientific propaganda. Public authorities are planning systematic use to detect security risks or to “better manage” public services. Considering some people’s enthusiasm, and others’ deep concerns, it may be relevant to raise a few questions.

The dominance of the algorithm in many social, political and economic practices diffuses an implicit philosophical and management concept: humans are determined to act the way they do by “behavioural patterns”: analysis of intentions is not necessary to explain behaviour. Patterns are the key, and the power of behavioural patterns analysis has made the search for a person’s intention futile and ineffective.

In terms of public safety, for example, there is a growing temptation to replace searching and enquiring with “profiling”, which large-scale data management can automate. In social matters, it’s the temptation of “social scoring”, hence the Chinese social rating experience.

These approaches raise issues, contradicting other social norms and principles, the norms that underpin our legal system, that recognizes that we are not just predetermined automatons, but also “people”, and as such, presumably able to think, decide, exercise freedom, develop intentions, and behave responsibly. Philosophers of Law, such as Antoinette Rouvroy of the University of Namur, are alarmed to see the algorithm reduce “the person” to “the automaton”. Undermining the recognition of a person’s free will and responsibility, algorithm thinking leads to collective policies based on presumptions of individual behaviour based on profiles, scores, and other social “determinations”.

Beyond public authorities use of algorithm, we might all be worried about the exponentially growing number of social practices that are algorithm based. Algorithms lead to a society without “people”, a society of individuals without “subjectivity” and hence without freedom. And the worries that Antoinette Rouvroy expresses of a “society of individuals” without subjectivity replacing a “society of people” may have relevance in many other aspects of contemporary society.

Be it partisan organizations and political parties, associations, or commercial brands, the contemporary use of big data leads some to consider that individual behaviour can be controlled by controlling the patterns that determine it. According to them, regardless of consciousness and subjectivity, objective behavioural factors determine actions and reactions: to modify or influence behaviour, it would be futile to talk to the person when instead one can effectively influence behavioural patterns directly to stimulate response. In politics, for example, to gain support, it would be more efficient to determine behavioural patterns and the reaction of a particular group to such and such “content” than to persist in subjecting the public, hostile or favourable, to an argument aimed at convincing. For political organizations, the social field would thus become a set of cohorts, some of which would have a propensity to react “favourably” to certain messages, or stimuli.

Nothing really new, one could say. Such strategies existed before social media and digital communications: Greek rhetoricians had already formalized the rules by which one could mobilize a crowd rather than try to convince through rational argument. What is new is the power of machines to change the scale and intensity of data gathering. Also, machines, and new digital media allow proliferation, as well as fragmentation, of the message. Instead of having to find propaganda messages that appeal to all, it is now possible to micro-target stimuli to adapt them infinitely to each social cohort, and ultimately, to every individual.

Machines didn’t invent a society of “isolated monads”, and the fragmentation of public opinion: as Adam McCay recalls in the movie Vice, the abandonment of the “fairness doctrine” in 1987 in the United States, well before big data, paved the way for partisan news media, exempt from the obligation to present any opinions contrary to those they hold. Moreover, the new propaganda models are greatly helped by our own behaviour: many sociologists observe how the practice of “liking” leads individuals to immerse themselves exclusively in communities who feel the same as they do, with opinions to which they adhere, and even with “truths that suit them”.

Machines are accelerating and intensifying public opinion fragmentation by decomposing society and recomposing it around behavioural patterns. Machines have the power to isolate individuals within cohorts like never before, and to allow propagandists to reach everyone with a differentiated stimulus.

But machines are not responsible for the use we make of them. It is a choice men are making today to consider society as a group of mindless “reactives” rather than a group of conscious persons. It is a choice for each of us to surround ourselves with “like mindedness”, to listen only to what we agree with, to focus only on things that reinforce our behaviour and our opinions. The power of machines could equally receive new goals. It is possible to put the power of the algorithm at the service of each person. For example, using the power of the algorithm to expose people to opinions contrary to their own. And it is undoubtedly the moral responsibility of politics to promote a defragmentation of opinion: the fragmentation of opinion may be useful to win an election or a referendum, but it is infinitely toxic when it comes to governing, as examples are not lacking in France, England, or the United States.

Rather than embarking on dubious fights to limit the use of fake news, dubious because they would inevitably lead to limiting freedom of expression, perhaps public authorities could reintroduce the “fairness doctrine” to the obligations of all media, whether digital or not. And when such a doctrine exists at least partially, as with the French “Right of reply”, authorities could make it truly live, develop it by expanding its usage, and control its respect.

The same moral obligation exists for brands. But for brands, asking for more and better from their big data strategy also seems to be a matter of sustainability: brands, unlike public authorities, are exposed to competition; hence brands need to differentiate from each other, which becomes a real challenge when every other player can equally “master” behavioural patterns.

In the first place, brands have a social responsibility. You cannot believe brands need a “brand purpose”, social and societal resonance, the importance of which is now widely recognized by marketers, and deny at the same time brands’ contribution to social fragmentation, a phenomenon that is happening today before our eyes. Using an algorithm to fragment brand audiences does undeniably contribute to overall social fragmentation. Imagine a society where the different social groups would no longer have any relationship with brands that do not engage with them, with lifestyles that these brands convey, and the technologies they broadcast. Where individuals would have access only to the universe of marks that the algorithm would find have affinity with them. For example, if technology brand A promoted the use of information technology for creative purposes, and brand B, of the same universe, focused its products on applications to facilitate everyday life, it is conceivable that a fragmentation of their respective audiences would lead to greater differences in the use of technology in society, thus contributing to technological inequality.

Beyond this, for most brands, moving from an algorithm based on “automatons” to an algorithm based on “people” is also a matter of efficiency and perhaps, survival. To come back to the previous example, in most markets, there are few brands that find algorithmic affinity with cohorts that are altogether broad, with high disposable income, and with a propensity to look for value rather than price. Most brands are in algorithmic affinity with constrained targets in terms of time and budget, for which price is a major determinant of individual behaviour, and for which the expected benefits are essentially the central benefits of the category. And so, the paradox that many brands face today: born of a promise of infinite personalization of the offer to respond infinitely better to individual demand, algorithms based on individuals inevitably lead to converge on some key cohorts, the very ones that all players of a market feel they need to win over.

For brands, what does an algorithm of the “person” mean? An algorithm of the “person” wouldn’t limit itself to behavioural patterns, it would also explore behavioural choices. An algorithm of the person wouldn’t focus exclusively on what’s predictable and correlated, but would also look at what can surprise and challenge the recipient, excite his or her curiosity, trigger his or her appetite, desires, and dreams.

As all marketers know, it’s easier to sell a red ball to someone who has 10 red balls than it is easy to sell him or her a blue ball. It’s also easier than it is to sell a first red ball to someone who has none. This is perhaps why pattern algorithms are the easy way in. However, the richer the brand offer, the higher the chance to trigger brand preference. It has been demonstrated, for example, that even if in the end, consumers tend to choose the same variants from a range, for example an “orange” or “vanilla” product in a flavour full line up, they prefer to buy it from a brand that offers a wide variety, rather than from one that offers only the “taste” they prefer.

An algorithm of the person would look at how to propose relevant choices: even if it is rarer, a buyer of red balls can still buy a blue ball. But above all, the brand that gives us a choice is richer than the brand that only exploits our behavioural propensity, and we’ll be more likely to prefer it.

An algorithm of the person can go further: it can create a link between buyers of red balls and buyers of blue balls. Assert other choices, other preferences, relate “tastes and colours”, suggest new experiences, propose the point of view of others, other uses, other behaviours. An algorithm of the person can also create inter-subjectivity, empower sharing of experiences at a time where the rarefaction of bonds and interactions is deplored, and where each “monad” seems increasingly confined in a solipsist bubble.

In the end, in fragmented societies, brands, rather than contributing to fragmentation, have the power to enrich their content and to create bonds. Algorithms can give brands the power to engage with people rather than with individuals. We bet that the person, people’s choices and inter-subjectivity are destined to become new horizons.

Rendre l’algorithme vertueux

Et si l’algorithme nous considérait comme des sujets libres, pensants et responsables, et non pas comme des individus pavloviens, isolés et solipsistes?

L’Algorithme est la métonymie contemporaine par excellence : procédé de calcul utilisé pour modéliser le comportement, il est devenu le nom de la modélisation elle-même. A vrai dire, l’ensemble de ce que l’on désigne ainsi aurait peut-être pu s’appeler la corrélation probabiliste, mais cette dénomination aurait failli à donner à la chose les connotations d’un futurisme un peu terrifiant qu’on aime attacher à la méthode. En gros pourtant, rien qui ne nécessite d’être agrégé de mathématiques. Les gens qui s’achètent une Ferrari et un billet d’avion pour une seule personne pour les vacances ont une forte probabilité d’avoir divorcé dans les deux ans. Autrefois, on aurait sans doute pensé qu’un évêque qui dépensait beaucoup d’argent chez son tailleur avait probablement une maîtresse. Mais voilà. Ce qu’on appelle par métonymie l’algorithme, ce n’est pas tant une ou deux corrélations, ici ou là. C’est le fait que de puissantes machines corrèlent de façon permanente toutes les datas, au demeurant innombrables, qui peuvent être recueillies sur le comportement humain. L’algorithme, ce n’est donc pas  la corrélation elle-même, c’est le caractère systématique et absolu de la corrélation.

L’algorithme a aussi une autre connotation, ou dimension sémantique : l’algorithme désigne aussi la connaissance, le « learning » que ces corrélations apportent, et là, il s’agit d’une évolution épistémologique relativement peu bavarde, voire implicite, mais extrêmement significative. Il y a une intelligence « explicative » et une connaissance par les causes. Pour comprendre un phénomène, je peux chercher à comprendre quelles en sont les racines causales. En ce qui concerne l’humain, le causaliste étudiera les motifs d’une action pour comprendre le comportement. Il y a un lien entre le causalisme et la recherche de l’intention, qui est la puissance de l’acte, pour utiliser le langage aristotélicien. Pourtant très tôt dans le développement des sciences humaines, la connaissance probabiliste s’impose comme une autre source de connaissance, la connaissance par les corrélats probabilistes, qui isole le fait social du fait psychologique et l’étudie en tant que tel. C’est ainsi que Durkheim, dès le XIXème siècle, constitue l’objet de la sociologie. L’algorithme tel qu’il est évoqué aujourd’hui, est sous-tendu par une conception positiviste de la société. Peu importe ce que pense notre acheteur de Ferrari et de billet d’avion pour les Seychelles, peu importe son système intentionnel, il divorcera bientôt.

Les systèmes algorithmiques envahissent le champ social. Bien entendu, les marques s’appuient sur leur puissance sans limite à « prédire le comportement ». Les organisations politiques en espèrent une propagande plus efficace et plus scientifique. La puissance publique s’apprête à son emploi systématique pour dépister les risques sécuritaires ou pour « mieux gérer » les services publics. Face à l’enthousiasme collectif, mêlé il faut bien le dire d’une sourde inquiétude, il faut peut-être soulever quelques questions.

D’abord, la dominance de l’algorithme dans de nombreuses pratiques sociales, politiques et économiques pose une question philosophique ; plus exactement, l’algorithme, de par sa nature même, installe dans le champ social une théorie philosophique implicite : cette théorie, c’est que les humains sont déterminés à agir de la façon dont ils le font, et que, l’analyse de l’intention n’est pas nécessaire pour expliquer le comportement. En matière de sécurité publique, on voit bien émerger une tentation de plus en plus forte de remplacer l’enquête par le « profiling », que le management de data à grande échelle permet d’automatiser. En matière sociale, on songe de plus en plus à recourir au « scoring social », cf. l’expérience chinoise de notation sociale. La philosophie implicite de l’algorithme, c’est que la liberté n’existe pas, ou que tout du moins, elle n’explique pas le comportement. En d’autres termes, expliquer le comportement par la liberté serait futile.

Cette philosophie implicite n’est pas sans poser problème dans un système social qui repose par ailleurs sur la possibilité de la liberté, et partant, de la responsabilité. Les penseurs du Droit, comme Antoinette Rouvroy de l’Université de Namur, ne sont pas sans s’alarmer de voir l’algorithme transformer le sujet du droit en individu, et la pensée algorithmique s’immiscer dans la réflexion sur les problèmes de sécurité collective, pour objectiver les comportements individuels. Mais au-delà de ces cas limites, rares et sans rapport avec le quotidien de la plupart d’entre nous, diront certains, on peut s’inquiéter de ce que, pour le reste d’entre nous, justement, l’algorithme ne conduise à une société sans sujets, une société d’individus sans subjectivité et partant, sans liberté.

Qu’il s’agisse d’institutions, d’organisations partisanes, de partis politiques, d’associations, ou de marques commerciales, l’utilisation contemporaine du big data conduit à considérer que le comportement individuel est déterminé, comme à l’insu de la conscience et de la subjectivité, par des facteurs comportementaux objectifs, et que pour modifier ou influer le comportement, il est futile de s’adresser au sujet quand on peut efficacement s’inscrire dans le flux comportemental de l’individu. En politique par exemple, pour acquérir des soutiens ou des voix, il serait plus efficace de déterminer des schèmes comportementaux et la réaction de tel ou tel groupe à tel ou tel « contenu » que de s’obstiner à exposer les publics, hostiles ou favorables, à une argumentation visant à convaincre. Pour les organisations politiques, le champ social deviendrait ainsi un ensemble de cohortes dont certaines présenteraient une propension à réagir « favorablement » à certains messages.

Rien de véritablement nouveau, dira-t-on. Les rhéteurs grecs avaient déjà formalisé les règles par lesquelles on peut mobiliser une foule plutôt que d’essayer de convaincre les sujets qui la composent. Ce qui est nouveau, c’est la puissance des machines à décomposer le champ social et à le recomposer autour de schèmes comportementaux. Et c’est la puissance de ces mêmes machines à isoler les individus au sein de cohortes et à permettre pour chacune d’entre elles un « traitement » différencié. D’ailleurs, les machines sont grandement aidées par notre propre comportement : nombreux sont les sociologues qui observent comment une société du « liking » conduit les individus à s’entourer exclusivement de communautés avec lesquelles ils se sentent en affinité, d’opinions auxquelles ils adhèrent, et même de « vérités qui leur conviennent ».

Ce ne sont pas les machines qui ont inventé une société de monades isolées, et la fragmentation de l’opinion : comme le rappelle Adam McCay dans le film Vice, l’abandon de la « fairness doctrine » en 1987 aux Etats Unis, bien avant le big data, a ouvert la voie à des news media partisans, soustraits à l’obligation de présenter les opinions contraires à celles qu’ils divulguent. Cependant les machines ont rendu possible une accélération et une intensification de la fragmentation de l’opinion.

In fine, les machines ne sont pas responsables de l’usage que nous en faisons. C’est bien un choix humain que de considérer la société comme un ensemble d’individus plutôt que comme un ensemble de consciences subjectives. Et c’est le choix de chacun d’entre nous de s’entourer de « like mindedness », de n’écouter que ce avec quoi nous sommes d’accord, de ne nous intéresser qu’aux choses qui confortent notre comportement et nos opinions. La puissance des machines peut tout à fait recevoir de nouveaux objectifs. Et il est tout à fait possible de mettre la puissance de l’algorithme au service du sujet. Par exemple, en utilisant la puissance de l’algorithme pour exposer le sujet à des opinions contraires à la sienne. Et c’est sans aucun doute la responsabilité morale du politique que de promouvoir une défragmentation de l’opinion : la fragmentation de l’opinion est peut-être utile pour gagner une élection ou un référendum, mais elle est infiniment toxique lorsqu’il s’agit de gouverner, comme les exemples n’en manquent ni en France, ni en Angleterre, ni aux Etats Unis.

Plutôt que de s’embarquer dans de douteux combats pour limiter l’utilisation de fake news, douteux parce qu’ils reviennent inévitablement à limiter la liberté d’expression, on peut souhaiter que les pouvoirs publics réintroduisent ou introduisent la fairness doctrine dans les obligations de tous les media, qu’ils soient digitaux, ou non. Et quand une telle doctrine existe au moins partiellement, comme avec le droit de réponse français, qu’ils la fassent vivre véritablement, la développent en en élargissant le champ, et en contrôlent le respect.

La même obligation morale existe pour les marques. Mais il s’agit aussi pour les marques, semble-t-il, d’une nécessité de survie.

En premier lieu, les marques ont une responsabilité sociale. On ne peut pas à la fois parler de « brand purpose » et de résonnance sociale et sociétale des marques, dont l’importance est désormais largement reconnue par les marketeurs, et nier la contribution des marques à la société qui se construit sous nos yeux. Utiliser l’algorithme pour fragmenter l’audience de la marque contribue, que les marques le veuillent ou non, à la fragmentation sociale d’ensemble. On peut imaginer le pire, une société où les différents groupes sociaux n’auraient plus aucun rapport avec les marques qui ne s’adressent pas à eux, avec les modes de vie que ces marques permettent et véhiculent, et les technologies qu’elles diffusent. Où les individus n’auraient plus accès qu’aux univers des marques que l’algorithme mettrait en affinité avec eux. Ainsi, par exemple, si la marque de produits technologiques A se faisait le promoteur d’usages des technologies de l’information à des fins de création, et que la marque B du même univers centraient ses produits sur les applications destinées à faciliter le quotidien, on peut imaginer qu’une fragmentation de leurs audiences respectives conduirait à accentuer les divergences d’utilisation de la technologie dans la société, et contribuerait ainsi à l’inégalité technologique.

Mais pour la plupart des marques, passer d’un algorithme de l’individu à un algorithme du sujet est aussi une affaire d’efficacité et, peut-être de survie. Pour reprendre l’exemple ci-dessus, sur la plupart des marchés, rares sont les marques qui trouvent une affinité algorithmique avec des cohortes à la fois larges, disposant de hauts revenus disponibles, et ayant une propension à rechercher la valeur plutôt que le prix. La plupart des marques sont en affinité algorithmique avec des cibles contraintes en termes de temps et de budget, pour lesquelles le prix est un déterminant principal du comportement individuel, et pour lesquelles les bénéfices attendus sont essentiellement les bénéfices centraux de la catégorie. Et ainsi se produit le paradoxe auquel sont confrontées aujourd’hui de nombreuses marques : né d’une promesse de personnalisation infinie de l’offre pour répondre infiniment mieux à la demande individuelle, l’algorithme de l’individu conduit inéluctablement, pour la plupart des marques, à une convergence de l’offre sur quelques cohortes clés que se disputent tous les acteurs du marché.

Pour les marques, en quoi consiste un algorithme du sujet ? Un algorithme du sujet consiste à ne pas se contenter des normes du comportement, mais au contraire, explore également les choix comportementaux pertinents. Un algorithme du sujet ne se concentre pas exclusivement sur ce qui est prévisible et corrélé, mais s’intéresse aussi à ce qui est surprenant et paradoxal, et qui relève du « choix du sujet » ; l’algorithme du sujet s’intéresse à l’accident autant qu’il modélise les règles.

Comme le savent tous les marketeurs, il est plus facile de vendre une boule rouge à quelqu’un qui possède 10 boules rouges qu’il n’est facile de lui vendre une boule bleue, ou qu’il n’est facile d’en vendre une rouge à quelqu’un qui n’en possède aucune. Un algorithme du sujet consiste à penser qu’il est nécessaire de proposer un choix : même si c’est plus rare, un acheteur de boule rouge peut acheter une boule bleue. Mais surtout, la marque qui nous donne un choix est plus riche que la marque qui ne fait qu’exploiter notre propension comportementale. Il a été ainsi démontré par exemple, que même si in fine, les consommateurs tendent à choisir les mêmes variantes d’une gamme, par exemple un produit au goût « orange » ou « vanille, ils préfèrent l’acheter auprès d’une marque qui offre une large variété, plutôt qu’auprès de celles qui n’offrent que le « goût » qu’ils préfèrent.

De plus, un algorithme du sujet peut aller plus loin : il peut créer du lien entre les acheteurs de boules rouges et les acheteurs de boules bleues. Faire valoir d’autres choix, d’autres préférences, mettre en relation « les goûts et les couleurs », suggérer des expériences nouvelles, proposer le point de vue des autres, d’autres usages, d’autres comportements. Un algorithme du sujet peut aussi créer de l’inter-subjectivité, permettre un partage d’expérience à une époque où tous déplorent la raréfaction des liens et des interactions, et l’enfermement de chaque « monade » dans sa bulle solipsiste.

In fine, dans des sociétés qui se fragmentent, les marques, plutôt que de contribuer à la fragmentation, ont le pouvoir à la fois d’enrichir leur contenu et de créer du lien. Elles ne doivent pas sous-estimer la valeur qui résulte de cette capacité, et la puissance qu’il y a à parler à des sujets plutôt qu’à des individus. Gageons que sujet et inter-subjectivité sont appelés à devenir les nouveaux horizons de l’algorithme.

Christophe Abensour

Facebook
Twitter
LinkedIn