wtorek, 9 stycznia 2024

AI, primitive accumulation of technical intelligence, and collective counter-intelligence / AI, pierwotna akumulacja inteligencji technicznej i kolektywna kontr-inteligencja

AI, primitive accumulation of technical intelligence, and collective counter-intelligence

"What is AI? A dominant view describes it as the quest ‘to solve intelligence’ – a solution supposedly to be found in the secret logic of the mind or in the deep physiology of the brain, such as in its complex neural networks. In this book I argue, to the contrary, that the inner code of AI is constituted not by the imitation of biological intelligence but by the intelligence of labour and social relations. Today, it should be evident that AI is a project to capture the knowledge expressed through individual and collective behaviours and encode it into algorithmic models to automate the most diverse tasks: from image recognition and object manipulation to language translation and decision-making. As in a typical effect of ideology, the ‘solution’ to the enigma of AI is in front of our eyes, but nobody can see it – nor does anybody want to.

Let us return to the contested project of the self-driving car. What kind of work does a driver perform? And to what extent can AI automate such an activity? With a considerable degree of approximation and hazard, a self-driving vehicle is designed to imitate all the micro-decisions that a driver makes on a busy road. Its artificial neural networks ‘learn’ the correlations between the visual perception of the environment and the mechanical control of the vehicle (steering, accelerating, braking) together with ethical decisions to be taken in a few milliseconds in case of danger. Driving requires high cognitive skills that cannot be left to improvisation, but also rapid problem-solving that is possible only thanks to habit and training that are not completely conscious. Driving remains essentially a social and cooperative activity, which follows both codified rules (with legal constraints) and spontaneous ones, including a tacit cultural code which is different in each locality. It is deemed difficult to encode such a complex activity, and even the entrepreneur Elon Musk has admitted, after not a few fatal accidents of Tesla cars, that ‘generalized self-driving is a hard problem’. In all its problematic aspects, however, the industrial project of self-driving vehicles has made clear that the task of driving is not merely ‘mechanical’. If the skill of driving can be translated into an algorithmic model to begin with, it is because driving is a logical activity – because, ultimately, all labour is logic.

What, then, is the relationship between labour, rules, and automation, i.e., the invention of new technologies? This entanglement is the core problem of AI which this book seeks to explore. But this is not a completely new perspective for framing AI. The historian of science Lorraine Daston, for example, has already illustrated this problem in the great calculation projects of the Enlightenment that preceded automatic computation. In the late eighteenth century, in order to produce the lengthy logarithmic tables necessary for the modernisation of revolutionary France, the mathematician Gaspard de Prony had the idea to apply the industrial method of the division of labour (canonised by Adam Smith in The Wealth of Nations) to hand calculation. For this purpose, de Prony arranged a social algorithm – a hierarchical organisation of three groups of clerks which divided the toil and each performed one part of the long calculation, eventually composing the final results. A few years later, in industrial England, Charles Babbage adopted the intuition of the division of labour as the internal principle of the Difference Engine, designing in this way the first prototype of the modern computer. Babbage, importantly, understood that the division of labour was not only a principle to design machines but also to compute the costs of production (what has been known since then as the ‘Babbage principle’).

In the industrial age, the supervision of the division of labour used to be the task of the factory’s master. The eye of the master, in workshops and also in camps and plantations, had long supervised and disciplined workers, drawing the plans of assembly lines as well as the shifts of forced labour. Before industrial machines were invented, urban sweatshops and colonial estates were already ‘mechanical’ in their regime of body discipline and visuality. As the philosopher Michel Foucault illustrated, the imposition of such disciplinary techniques – based on the segmentation of time, space, and relations – prepared the terrain for the capitalist regime of labour exploitation. In parallel, the rationalist view of the world helped to further describe the movement of the human body in detail and draft its mechanisation. Historian Sigfried Giedion detailed this process in his famous volume Mechanisation Takes Command. According to Giedion, mechanisation begins ‘with the concept of Movement’, then it replaces handicraft, and, finally, its full development is ‘the assembly line, wherein the entire factory is consolidated into a synchronous organism’.

This mechanical mentality culminated in Taylorism – a system of ‘scientific management’ that sought to economize workers’ movements down to the finest detail. Indeed, as the political economist Harry Braverman once noted, ‘Taylor understood the Babbage principle better than anyone of his time, and it was always uppermost in his calculations.’ In order to surveil the worker’s smallest gesture, the Taylorist system even acquired cinematographic eyes: the factory’s master became a sort of movie director who filmed workers in order to measure and optimize their productivity, somehow realising that media scholar Jon Beller has termed the ‘cinematic mode of production’. Taylorism prompted the discipline of ‘time and motion study’ which was pursued, in the same years, by both the Soviet revolutionary Aleksei Gastev and the US engineers Frank and Lillian Gilbreth, who introduced similar photographic techniques such as, respectively, the cyclogram, and chronocyclegraph. This book follows these analytical studies of the labour process through the industrial age up to the rise of AI, aiming to show how the ‘intelligence’ of technological innovation has often originated from the imitation of these abstract diagrams of human praxis and collective behaviours.

When industrial machines such as looms and lathes were invented, in fact, it was not thanks to the solitary genius of an engineer but through the imitation of the collective diagram of labour: by capturing the patterns of hand movements and tools, the subdued creativity of workers’ know-how, and turning them into mechanical artefacts. Following this theory of invention, which was already shared by Smith, Babbage, and Marx in the nineteenth century, this book argues that the most sophisticated ‘intelligent’ machines have also emerged by imitating the outline of the collective division of labour. In the course of this book, this theory of technological development is renamed the labour theory of automation, or labour theory of the machine, which I then extend to the study of contemporary AI and generalise into a labour theory of machine intelligence.

Already for Marx, the master was no longer an individual but (...) an integrated power made up of ‘the science, the gigantic natural forces, and the mass of the social labour embodied in the system of machinery’. After the expansion of ‘the division of labour in society’, as Émile Durkheim recorded at the end of the nineteenth century, the eye of the master evolved as well into new technologies of control such as statistics and the global ‘operations of capital’ (to use Sandro Mezzadra and Brett Neilson’s apt phrase). Since the end of the twentieth century, then, the management of labour has turned all of society into a ‘digital factory’ and has taken the form of the software of search engines, online maps, messaging apps, social networks, gig-economy platforms, mobility services, and ultimately AI algorithms, which have been increasingly used to automate all the abovementioned services. It is not difficult to see AI nowadays as a further centralisation of digital society and the orchestration of the division of labour throughout society.

(...) The distinction of head and hand, of mental and manual labour, is not only typical of modern industrial societies; it has been part of Western culture at least since the Aristotelian opposition of episteme (‘knowledge’) and techne (‘art’ or ‘craft’) in ancient Greece, which later became functional for defining social hierarchies across the West. Historians of mathematics such as Peter Damerow actually predate the social separation of mental and manual labour to the dawn of civilisations due to the need to count populations, plan agriculture, and administer resources. The control of abstract symbols would later develop into the domain of letters and spirit and a long-lasting class segmentation of society, as historians of science Lissa Roberts and Simon Schaffer record:

'Self-appointed mental workers, such as philosophers, scientists, policy-makers and bureaucrats, then as now, claimed and constructed the dominion of their ‘understanding’ over hand-workers and their crafts. They relied on the mutual reinforcement of coercive rhetoric and brutal deed. The easy acceptance of their categories has left us with a historical map shaped by oppositional and hierarchically ordered pairs: scholar / artisan, science / technology, pure / applied and theory / practice.'

It could therefore be argued that the first division of labour in the modern sense is the separation of head from hand that gradually emerged out of the workshops of the Renaissance to be fully severed precisely in the industrial factories as the division of mental and manual labour. For instance, Edgar Zilsel, a historian of science, documented how even the ‘heroes’ of the so-called Scientific Revolution, such as Galileo Galilei, learned more in clandestine workshops, hidden libraries, and nomadic classrooms than at universities. Roberts and Schaffer, for their part, have proposed the elegant image of the ‘mindful hand’ as a way to recognize and recompose the ingenuity of manual labour, mechanical experiments, and scientific workshops throughout modernity, without romanticising craftsmanship as conservative discourse so often does. Rather than cultivating the provincial ‘heroism’ of craftsmen in a reactionary way, the image of the ‘mindful hand’ stresses the convivial dimension of experimental life and its inventions.

Industrial modernity has established itself on the capture of this collective knowledge by state and economic apparatuses, by institutions of knowledge and technologies of knowledge, which eventually turned mental labour into a Geist, to use the ambivalent German term – a ghost, more than an intellectual spirit, that political theory still struggles to grasp. Extorted from workers and social cooperation, mental labour assumed the nature of a half-visible demon: a political issue to be exorcised, for opposite reasons, by the workers’ movement as much as by corporate interests.

(...) Industrial capitalism was not only an energetic intensification of labour and production; it was also a transformation of the division of labour and social relations, to the point of becoming the matrix of a new kind of knowledge production – not only mathematics, mechanics, and physics, but knowledge of the most diverse kinds. In the early nineteenth century, Ricardian socialists such as Thompson and Hodgskin were already discussing the social potentialities and psychic implications of ‘mental labour’ claiming that knowledge is the first source of labour. Other political economists, such as Marx, agreed but argued that both mental and manual labour, without distinction, were the source of collective knowledge. It was close to the workshops of the industrial age that modern computation, eventually, was born as the project to mechanise the division of mental labour, as Babbage experimented with his calculating engines.

(...) During the industrial age, knowledge and intelligence comprised the true hidden transaction between labour and capital. (...) All labour, without distinction, was and still is cognitive and knowledge-producing. The most important component of labour is not energy and motion (which are easy to automate and replace) but knowledge and intelligence (which are far from being completely automated in the age of AI). The industrial age was also the moment of the originary accumulation of technical intelligence as the dispossession of knowledge from labour. AI is today the continuation of the same process: it is a systematic mechanisation and capitalisation of collective knowledge into new apparatuses, into the datasets, algorithms, and statistical models of machine learning, among other techniques. Ultimately, it is not difficult to imagine AI as a late avatar of the collective worker, the Gesamtarbeiter that was for Marx the main actor of industrial production.

(...) While Marx read Thompson, Hodgskin, and Babbage, he never employed the notion of mental labour, probably in order to avoid supporting a labour aristocracy of skilled artisans as a political subject separate from the working class. For Marx, labour is always collective: there is no individual labour that is more prestigious than others, and, therefore, mental labour is always general; the mind is by definition social. Rather than a knowledge theory of labour that grants primacy to conscious activity, like the one in Thompson and Hodgskin, Marx maintains a labour theory of knowledge that recognises the cognitive import of forms of labour that are social, distributed, spontaneous, and unconscious. Intelligence emerges from the abstract assemblage of workers’ simple gestures and microdecisions, even and especially those which are unconscious. In the general intellect studies and the history of technology, these are the in-between worlds of collective intelligence and unconscious cooperation, but also those of ‘mechanised knowledge’ and ‘mindful mechanics’. It ends up being Babbage who provides Marx with an operative paradigm to overcome Hegel’s Geist and imbricate knowledge, science, and the general intellect into production.

As already stressed, the distinction between manual and mental labour disappears in Marxism because, from the abstract point of view of capital, all waged labour, without distinction, produces surplus value; all labour is abstract labour. However, the abstract eye of capital that regulates the labour theory of value employs a specific instrument to measure labour: the clock. In this way, what looks like a universal law has to deal with the metrics of a very mundane technology; after all, clocks are not universal. Machines can impose a metrics of labour other than time, as has recently happened with social data analytics. As much as new instruments define new domains of science, likewise they define new domains of labour after being invented by labour itself. Any new machine is a new configuration of space, time, and social relations, and it projects new metrics of such diagrams. In the Victorian age, a metrology of mental labour existed only in an embryonic state. A rudimentary econometrics of knowledge begins to emerge only in the twentieth century with the first theory of information. The thesis of this chapter is that Marx’s labour theory of value did not resolve the metrics for the domains of knowledge and intelligence, which had to be explored in the articulation of the machine design and in the Babbage principle.

Following Braverman and Schaffer, one could add that Babbage provided not just a labour theory of the machine but a labour theory of machine intelligence. Indeed, Babbage’s calculating engines (‘intelligent machines’ of their age) were an implementation of the analytical eye of the factory’s master. Cousins of Jeremy Bentham’s panopticon, they were instruments, simultaneously, of surveillance and measurement of labour. It is this idea that we should consider and apply to the age of artificial intelligence and its political critique, although reversing its polarisation, in order to declare computing infrastructures a concretion of labour in common.

(...) The historian James Beniger argues that between the late nineteenth and mid-twentieth centuries, information technologies emerged because of the economic boom of Western countries and the need to govern industrial production and distribution. In other words, it was the economic acceleration which prompted the transformation of analogue media into numerical information. The genesis of the paradigms of cybernetics and information theory responded to a ‘crisis of control’ of Western capitalism that had to manage a commodity surplus and new large infrastructures of distribution. Rather than information revolution, as it is often styled, Beniger termed this development as the oxymoronic control revolution (which is a fitting description also of the historical drive of cybernetics for political equilibrium). In order to govern a growing economy, a more abstract definition of information (that is measurable, computable, and transmissible knowledge) had to be introduced.

This historical process can be framed, once again, not just from the point of view of commodity circulation but the organisation of labour. Pace Beniger, Marxist accounts of the post-industrial age have stressed the role of labour conflicts and social struggles, rather than economic surplus, in prompting technological development. They have also contested the political neutrality of the technical notion of information, as the Italian sociologist Romano Alquati did, for instance, in his inquiry into labour conditions at the Olivetti computer factory in the early 1960s.

Olivetti was a pioneering company famous for producing typewriters, electronic calculators, and mainframe computers from the 1950s. In 1959, Olivetti launched, for instance, the Elea 9003, the first transistor-based commercial computer, whose futuristic graphical user interface was designed by Ettore Sottsass. It was at the Olivetti factory in Ivrea that Alquati applied for the first time the method of workers’ inquiry (or, conricerca) to the organisation of labour in cybernetics. Workers’ inquiry was a sort of participatory action research, albeit more militant, and was based in the active involvement of workers, also with the extensive use of individual and group interviews.

Alquati discovered, then, that the cybernetic apparatus of the Olivetti factory first was an extension of its internal bureaucracy, which monitored workers at the assembly line and the production process in general by the means of ‘control information’. It was via the circuits of cybernetics that bureaucracy was finally able to descend into the bodies of the workers and watch their activities closely. Although Alquati viewed cybernetics as an extension of bureaucracy, he reversed the top–down perspective that is implicit in the idea of control information. In addition to ‘control information’, he coined the term ‘valorising information’ to describe the flow of information that is generated by the workers and that, running upstream, feeds the circuits of the factory, and gives form to the final products. In this view, information is continuously produced by workers, absorbed by machinery, and eventually condensed into commodities:

'Information is essential to labour-force, it is what the worker – by the means of constant capital – transmits to the means of production on the basis of evaluations, measurements, and elaborations in order to operate on the object of work all those modifications of its form that give it the requested use value'.

With Alquati, numerical information enters, probably for the first time, the definition of labour. Alquati noticed that the most important part of labour is made by the series of creative acts, measurements, and decisions that workers constantly have to perform in front of the machine and in the assembly line. He called information precisely all the innovative ‘micro-decisions’ that workers take along the production process, that give form to the product, but also regulate the machinic apparatus itself:

'The productive labour is defined by the quality of information elaborated and transmitted by the worker to the means of production via the mediation of constant capital, in a way that is tendentially indirect, but completely socialised'.

According to Alquati, it is specifically the numerical dimension of cybernetics that can encode workers’ knowledge into digital bits and, consequently, transform digital bits into numbers for economic planning (...).

Alquati saw an extended structure merging bureaucracy, management, cybernetic machinery, and the division of labour: this was a new system taking the place of the old factory’s master. Cybernetics unveiled the machinic nature of bureaucracy and, conversely, the bureaucratic role of machines – that is, how they both work as feedback apparatuses to control and capture workers’ know-how. The findings of Alquati’s research can be summarised as follows: (1) labour is the source of information of the industrial cybernetic apparatus, indeed the most valuable part of labour is information; (2) information operates the cybernetic apparatus, gradually improves its design and adds value to the final products; (3) the numeric dimension of cybernetics allows us to translate labour into knowledge, knowledge into information, information into numbers, and so, numbers into economic planning; (4) the cybernetic apparatus of the factory grows and improves thanks to the contribution of workers’ socialised intelligence. For the first time in a distinct way, the cybernetic or automated factory made visible the transformation of labour into measurable knowledge – that is, information.

In the early 1960s, Alquati and Italian operaismo started to register the transformation of Fordism and its more and more ‘abstract’ division of labour across society. This was clearly prefigured also by political philosopher Mario Tronti’s image of the social factory. In 1962, Tronti wrote that ‘at the highest level of capitalist development … the whole of society becomes an articulation of production, the whole society lives in function of the factory and the factory extends its exclusive dominion over the whole society’. Information technologies were the material infrastructure that innervated the regime of industrial capitalism into society. Although Italian operaismo always had a secondary interest in science and technology, Alquati gave a key contribution on this matter. He maintained that any technological innovation, including cybernetics, always embodies the power relations and class antagonism of a given historical moment and that for this reason it should be the focus of study:

'Capital is always accumulated social labour, the machine is always incorporated social labour. Obviously. Every ‘new machine’, every innovation expresses the general level and quality of the power relations between classes at that moment'.

In the end, it is not difficult to see the rise of information technologies as part of the long evolution of the spatio-temporal abstractions that have been disciplining labour power in the past century. Information came to measure the intelligence, knowledge, and skills needed to master the production process and social relations at large. Coincidentally, this meaning is not far removed from the origin of the term ‘information’ that was introduced to replace ‘intelligence’ in the early days of information theory. In 1928, the US engineer Ralph Hartley of the Bell Telephone Labs proposed to revise the act of ‘intelligence’ or ‘interpretation of a signal’, which were at that time expressions commonly used in telegraphy, with a notion devoid of any reference to human faculties and, essentially, measurable. This originary role of human intelligence in communication technologies can be taken as further evidence of information theory’s interest in the automation and deskilling of mental labour, but also as a confirmation of a trajectory that significantly has unfolded, after a long technological cycle, into the project of artificial intelligence. Nowadays, the ‘intelligence’ that AI algorithms encode and measure extends to an increasingly wide social field, as this book has attempted to show. This type of intelligence belongs to both manual and mental labour, to explicit and tacit knowledge, but above all to the capacity of cooperation and self-organisation, which is quintessentially a political craft. Going beyond the horizon of electromechanical engineering, what information comes ultimately to measure and mediate is the antagonism between workers and capital – the ‘signals’ that are exchanged between these two noisy camps of the social order.

(...) Nowadays, companies such as Google, Amazon, Facebook, and Twitter, for example, collect data that define an extensive manifold of dimensions about their users, such as location, age, gender, nationality, language, education, job, number of contacts, along with political orientation, cultural interests, and so on. The variety of social dimensions that these platform companies can analyse is vertiginous, exceeding the imagination of any well-trained statistician. The rise of machine learning algorithms is, then, also the response to the dimensionality explosion of social data rather than simply to an issue of information overload.

Eventually, in the past decade, machine learning has grown into an extensive algorithmic modelling of collective knowledge, a ‘social calculus’ that aims to encode individual behaviours, community life, and cultural heritage under the form of vast architectures of statistical correlations. This has helped establish a monopolistic regime of knowledge extractivism on a global scale and new techniques for the automation of labour and management. As with only a few other artefacts of our epoch, AI has come to exemplify a unique concentration of power as knowledge.

(...) Given their legacy in the statistical tools of nineteenth-century biometrics, it is also not surprising that deep artificial neural networks have recently unfolded into advanced techniques of surveillance, such as facial recognition and pattern-of-life analysis. Critical AI scholars such as Ruha Benjamin and Wendy Chun, among others, have exposed the racist origins of these techniques of identification and profiling that, like psychometrics, almost represent technical proof of the social bias of AI. They have rightly identified the power of discrimination at the core of machine learning, and how this aligns it with the apparatuses of normativity of the modern age, including the questionable taxonomies of medicine, psychiatry, and criminal law.

The metrology of intelligence pioneered in the late nineteenth century, with its implicit and explicit agenda of social and racial segregation, still operates at the core of AI to discipline labour and replicate productive hierarchies of knowledge. The rationale of AI is therefore not only the automation of labour but the reinforcement of these social hierarchies in an indirect way. By implicitly declaring what can be automated and what cannot, AI has imposed a new metrics of intelligence at each stage of its development. But to compare human and machine intelligence implies also a judgement about which human behaviour or social group is more intelligent than another, which workers can be replaced and which cannot. Ultimately, AI is not only a tool for automating labour but also for imposing standards of mechanical intelligence that propagate, more or less invisibly, social hierarchies of knowledge and skill. As with any previous form of automation, AI does not simply replace workers but displaces and restructures them into a new social order.

(...) Given the growing size of datasets, the training costs of large models, and the monopoly of the cloud infrastructure that is necessary to host such models by a few companies such as Amazon, Google, and Microsoft (and their Asian counterparts Alibaba and Tencent), it has become evident to everyone that the sovereignty of AI remains a tough affair of geopolitical scale. Moreover, the confluence of different apparatuses of governance (climate science, global logistics, and even health care) towards the same hardware (cloud computing) and software (machine learning) signals an even stronger trend to monopolisation. Aside from the notorious issue of power accumulation, the rise of data monopolies points at a phenomenon of technical convergence that is key to this book: the means of labour have become the same ones of its measurement, and, likewise, the means of management and logistics have become the same ones of economic planning.

This became evident also during the recent COVID-19 pandemic, when a large infrastructure for tracking, measuring, and forecasting social behaviours was established. This infrastructure, unprecedented in the history of health care and biopolitics, however, was not created ex nihilo but built upon existing digital platforms that orchestrate most of our social relations. Particularly during the lockdowns, the same digital medium was used for working, shopping, communicating with family and friends, and eventually health care. Digital metrics of the social body such as geolocation and other metadata were key for the predictive models of the global contagion, but they have been long in use for tracking labour, logistics, commerce, and education. Philosophers such as Giorgio Agamben have claimed that this infrastructure extended the state of emergency of the pandemic, while in fact its deployment to health care and biopolitics continues decades of monitoring the economic productivity of the social body which passed unnoticed to many.

The technical convergence of data infrastructures reveals also that contemporary automation is not just about the automation of an individual worker, as in the stereotypical image of the humanoid robot, but about the automation of the factory’s masters and managers, as happens in the gig economy platforms. From the giants of logistics (Amazon, Alibaba, DHL, UPS, etc.) and mobility (Uber, Share Now, Foodora, Deliveroo) to social media (Facebook, TikTok, Twitter) – platform capitalism is a form of automation that in reality does not replace workers but multiplies and governs them anew. It is not so much about the automation of labour this time as it is about the automation of management. Under this new form of algorithmic management, we are all rendered as dividual workers of a vast automaton comprised of global users, ‘turkers’, carers, drivers, and riders of many sorts. The debate on the fear that AI fully replaces jobs is misguided: in the so-called platform economy, in reality, algorithms replace management and multiply precarious jobs. Although the revenues of the gig economy remain minoritarian in relation to traditional local sectors, by using the same infrastructure worldwide these platforms have established monopoly positions. In conclusion, the power of the new ‘master’ is not about the automation of individual tasks but the management of the social division of labour. Against Alan Turing’s prediction, it was the master, not the worker, that the robot came to replace first.

(...) What is at the core of the labour theory of automation is, ultimately, a practice of social autonomy. Technologies can be judged, contested, reappropriated, and reinvented only by moving into the matrix of the social relations that originally constituted them. Alternative technologies should be situated in these social relations, in a way not dissimilar to what cooperative movements have done in the past centuries. But building alternative algorithms does not mean to make them more ethical. For instance, the proposal to hard-code ethical rules into AI and robots appears highly insufficient and incomplete because it does not directly address the broad political function of automation at their core.

What is needed is neither techno-solutionism nor techno-pauperism, but instead a culture of invention, design and planning which cares for communities and the collective, and never entirely relinquishes agency and intelligence to automation. The first step of technopolitics is not technological but political. It is about emancipating and decolonising, when not abolishing as a whole, the organisation of labour and social relations on which complex technical systems, industrial robots, and social algorithms are based – specifically their inbuilt wage system, property rights, and identity politics. New technologies for labour and society can only be based on this political transformation. It is clear that this process unfolds also by developing not only technical but also political knowledge. One of the problematic effects of AI on society is its epistemic influence – the way in which it renders intelligence as machine intelligence and implicitly fosters knowledge as procedural knowledge. The project of a political epistemology to transcend AI, however, will have to transmute the historical forms of abstract thinking (mathematical, mechanical, algorithmic, and statistical) and integrate them as part of the toolbox of critical thinking itself. In confronting the epistemology of AI and its regime of knowledge extractivism, a different technical mentality, a collective ‘counter-intelligence’, has to be learned".

M. Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, London and New York 2023.


AI, pierwotna akumulacja inteligencji technicznej i kolektywna kontr-inteligencja

"Czym jest sztuczna inteligencja (AI)? Dominujący pogląd opisuje ją jako misję mającą na celu 'rozwiązania zagadki inteligencji' – rozwiązania, które rzekomo można znaleźć w sekretnej logice umysłu lub w głębokiej fizjologii mózgu, na przykład w jego złożonych sieciach neuronowych. W tej książce dowodzę czegoś przeciwnego: że wewnętrzny kod sztucznej inteligencji składa się nie z imitacji inteligencji biologicznej, ale z inteligencji stosunków pracy i stosunków społecznych. Dziś powinno być oczywiste, że sztuczna inteligencja to projekt mający na celu przechwycenie wiedzy wyrażanej poprzez zachowania indywidualne i zbiorowe i zakodowanie jej w modelach algorytmicznych w celu automatyzacji najróżniejszych zadań: od rozpoznawania obrazu i manipulacji obiektami po tłumaczenia językowe i podejmowanie decyzji. Zupełnie jak w typowym oddziaływaniu ideologii, 'rozwiązanie' zagadki sztucznej inteligencji jest przed naszymi oczami, ale nikt go nie widzi – ani nikt nie chce go zobaczyć.

Wróćmy do kontrowersyjnego projektu autonomicznego samochodu. Jaką pracę wykonuje kierowca? I w jakim stopniu AI może zautomatyzować takie działanie? Przy pewnym stopniu zbliżania się do tego celu i z pewnymi zagrożeniami, pojazd autonomiczny ma za zadanie imitować wszystkie mikrodecyzje podejmowane przez kierowcę na ruchliwej drodze. Jego sztuczne sieci neuronowe 'uczą się' korelacji między wizualną percepcją otoczenia a mechanicznym sterowaniem pojazdem (kierowanie, przyspieszanie, hamowanie) wraz z podejmowaniem decyzji etycznych, które w przypadku zagrożenia należy podjąć w ciągu kilku milisekund. Prowadzenie samochodu wymaga wysokich umiejętności poznawczych, których nie można pozostawić na pastwę improwizacji, ale także szybkiego rozwiązywania problemów, które jest możliwe tylko dzięki przyzwyczajeniom i treningom, których charakter nie jest do końca świadomy. Prowadzenie pojazdów pozostaje zasadniczo działalnością społeczną i kooperacyjną, która opiera się zarówno na skodyfikowanych zasadach (z ograniczeniami prawnymi), jak i na zasadach spontanicznych, obejmujących milczący kod kulturowy, inny w każdym otoczeniu. Zakodowanie tak złożonego działania jest uważane za trudne i nawet przedsiębiorca Elon Musk po kilku śmiertelnych wypadkach z udziałem samochodów Tesli przyznał, że 'uogólnione autonomiczne prowadzenie pojazdu to trudny problem'. Jednakże przy wszystkich swoich problematycznych aspektach, projekt przemysłowy pojazdów autonomicznych pokazał jasno, że zadanie prowadzenia pojazdu nie jest jedynie 'mechaniczne'. Jeśli umiejętność prowadzenia pojazdu można na początek przełożyć na model algorytmiczny, dzieje się tak dlatego, że prowadzenie pojazdu jest czynnością logiczną – ponieważ ostatecznie wszelka praca ma logikę.

Jaki jest zatem związek między pracą, regułami i automatyzacją, czyli wynalezieniem nowych technologii? To splątanie jest głównym problemem sztucznej inteligencji, który stara się eksplorować niniejsza książka. Nie jest to jednak zupełnie nowa perspektywa na kształtowanie się sztucznej inteligencji. Na przykład historyczka nauki Lorraine Daston zilustrowała już ten problem w wielkich projektach obliczeniowych Oświecenia, które poprzedzały obliczenia automatyczne. Pod koniec XVIII wieku, aby stworzyć obszerne tablice logarytmiczne niezbędne do modernizacji rewolucyjnej Francji, matematyk Gaspard de Prony wpadł na pomysł zastosowania przemysłowej metody podziału pracy (kanonizowanej przez Adama Smitha w Badaniach nad naturą i przyczynami bogactwa narodów) do obliczeń ręcznych. W tym celu de Prony zaaranżował algorytm społeczny – hierarchiczną organizację trzech grup urzędników, którzy dzielili pracę i z których każda wykonywała jedną część długich obliczeń, finalnie uzyskując końcowe wyniki. Kilka lat później, w uprzemysłowionej Anglii, Charles Babbage podążył za intuicją wykorzystania podziału pracy jako wewnętrznej zasady dla Maszyny Różnicowej, projektując w ten sposób pierwszy prototyp współczesnego komputera. Co ważne, Babbage rozumiał, że podział pracy to nie tylko zasada projektowania maszyn, ale także metoda obliczania kosztów produkcji (co jest znane od tego czasu jako 'zasada Babbage’a' [głosi ona: "jeśli podzieli się proces pracy na większą liczbę robotników, koszty pracy uda się zredukować poprzez przypisanie wysoko wykwalifikowanym robotnikom tylko wysoko wykwalifikowanych zadań i ograniczenie zadań wymagających niskich kwalifikacji do nisko wykwalifikowanych robotników]).

W epoce przemysłowej nadzór nad podziałem pracy był zadaniem nadzorczego spojrzenia właściciela fabryki. Oko pana, zarówno w warsztatach, jak i w obozach i na plantacjach, od dawna nadzorowało i dyscyplinowało robotników, rysując plany linii montażowych i zmian pracy przymusowej. Zanim wynaleziono maszyny przemysłowe, miejskie zakłady produkcyjne i osiedla kolonialne miały już 'mechaniczny' reżim dyscypliny ciała i wizualności. Jak pokazał filozof Michel Foucault, narzucenie takich technik dyscyplinarnych – opartych na segmentacji czasu, przestrzeni i relacji społecznych – przygotowało grunt dla kapitalistycznego reżimu wyzysku pracy. Równolegle racjonalistyczny pogląd na świat pomógł w dalszym szczegółowym opisie ruchu ludzkiego ciała i nakreśleniu kierunku jego mechanizacji. Historyk Sigfried Giedion szczegółowo opisał ten proces w swoim słynnym tomie Mechanizacja przejmuje kontrolę. Według Giediona mechanizacja zaczyna się 'od koncepcji ruchu', następnie zastępuje rękodzieło, a w końcu jej pełnym rozwinięciem staje się 'linia montażowa, dzięki której cała fabryka scala się w synchroniczny organizm'.

Kulminacją tej mechanicznej mentalności był tayloryzm – system 'naukowego zarządzania', który starał się ekonomizować ruchy pracowników w najdrobniejszych szczegółach. Rzeczywiście, jak zauważył kiedyś ekonomista polityczny Harry Braverman, 'Taylor rozumiał zasadę Babbage’a lepiej niż ktokolwiek w jego czasach i zawsze zajmowała ona pierwsze miejsce w jego obliczeniach'. Aby uchwycić najmniejszy gest robotnika, system tayloryzmu zyskał nawet kinematograficzne oczy: pan fabryki stał się kimś w rodzaju reżysera filmowego, który filmował pracowników, aby mierzyć i optymalizować ich produktywność, z czego w jakiś sposób zdawał sobie sprawę badacz mediów Jon Beller, mówiąc o 'kinowym sposobie produkcji'. Tayloryzm zapoczątkował dyscyplinę 'studium czasu i ruchu', którą w tych samych latach uprawiali zarówno radziecki rewolucjonista Aleksiej Gastev, jak i amerykańscy inżynierowie Frank i Lillian Gilbreth, którzy wprowadzili zbliżone techniki fotograficzne, takie jak odpowiednio cyklogram i chronocyklograf. Niniejsza książka śledzi analityczne badania procesu pracy od epoki przemysłowej aż do powstania sztucznej inteligencji, mając na celu ukazanie, w jaki sposób 'inteligencja' innowacji technologicznych często wywodzi się z naśladowania abstrakcyjnych diagramów ludzkiej praktyki i zachowań zbiorowych.

Tak naprawdę wynalezienie maszyn przemysłowych, takich jak krosna i tokarki, nie nastąpiło dzięki samotnemu geniuszowi inżyniera, ale dzięki naśladowaniu zbiorowego diagramu pracy: poprzez uchwycenie wzorców ruchów rąk i narzędzi, przechwycenie kreatywnego know-how pracowników i przekształcanie go w mechaniczne artefakty. Podążając za tą teorią wynalazczości, podzielaną już przez Smitha, Babbage’a i Marksa w XIX wieku, w tej książce dowodzę, że najbardziej wyrafinowane 'inteligentne' maszyny pojawiły się również dzięki naśladowaniu zarysu kolektywnego podziału pracy. W tej książce tę teorię rozwoju technologicznego nazywam  laborystyczną teorią automatyzacji lub laborystyczną teorią maszyny, którą następnie rozszerzam na badanie współczesnej sztucznej inteligencji i uogólniam na laborystyczną teorię inteligencji maszynowej.

Już dla Marksa pan fabryczny nie był jednostką, lecz (...) zintegrowaną władzą złożoną z 'nauki, gigantycznych sił przyrody i masy pracy społecznej ucieleśnionej w systemie maszyn'. Po rozszerzeniu się 'podziału pracy w społeczeństwie', jak odnotował Émile Durkheim pod koniec XIX wieku, oko pana ewoluowało także w stronę nowych technologii kontroli, takich jak statystyka i globalne 'operacje kapitału' (by użyć trafnego określenia Sandro Mezzadry i Bretta Neilsona). Zatem od końca XX wieku zarządzanie pracą przekształciło całe społeczeństwo w 'cyfrową fabrykę' i przyjęło formę oprogramowania wyszukiwarek, map internetowych, komunikatorów, sieci społecznościowych, platform gig economy, usług mobilnych, a docelowo algorytmów AI, które coraz częściej wykorzystywane są do automatyzacji wszystkich wyżej wymienionych usług. Nietrudno obecnie postrzegać sztuczną inteligencję jako dalszą centralizację społeczeństwa cyfrowego i orkiestrację podziału pracy w całym społeczeństwie.

(...) Rozróżnienie na głowę i rękę, pracę umysłową i fizyczną jest typowe nie tylko dla nowoczesnych społeczeństw przemysłowych; jest ono częścią kultury zachodniej przynajmniej od czasu arystotelesowskiej opozycji episteme ('wiedzy') i techne ('sztuki' lub 'rzemiosła') w starożytnej Grecji, która później stała się użyteczna przy definiowaniu hierarchii społecznych na całym Zachodzie. Historycy matematyki, tacy jak Peter Damerow, lokują społeczne oddzielenie pracy umysłowej od fizycznej aż w początkach cywilizacji - dokonało się ono ze względu na potrzebę liczenia populacji, planowania rolnictwa i zarządzania zasobami. Kontrola abstrakcyjnych symboli rozwinęła się później w domenę liter i ducha oraz długotrwałą klasową segmentację społeczeństwa, jak odnotowują to historycy nauki Lissa Roberts i Simon Schaffer:

'Samozwańczy pracownicy umysłowi, tacy jak filozofowie, naukowcy, decydenci i biurokraci, zarówno wtedy, jak i teraz, twierdzili i budowali panowanie swojego 'rozumienia' nad robotnikami ręcznymi i ich rzemiosłem. Opierali się oni na wzajemnie umacniającym się działaniu retoryki przymusu i brutalnego czynu. Łatwa akceptacja ich kategorii pozostawiła nam mapę historyczną ukształtowaną przez opozycyjne i hierarchicznie uporządkowane pary: uczony/rzemieślnik, nauka/technologia, czysta/stosowana i teoria/praktyka'.

Można zatem argumentować, że pierwszym podziałem pracy we współczesnym znaczeniu jest oddzielenie głowy od ręki, które stopniowo wyłaniało się z warsztatów renesansowych i zostało całkowicie dokończone właśnie w fabrykach przemysłowych jako podział pracy umysłowej i fizycznej. Na przykład Edgar Zilsel, historyk nauki, udokumentował, jak nawet 'bohaterowie' tak zwanej rewolucji naukowej, tacy jak Galileo Galilei, nauczyli się więcej w tajnych warsztatach, ukrytych bibliotekach i nomadycznych klasach niż na uniwersytetach. Ze swojej strony Roberts i Schaffer zaproponowali eleganckie ujęcie 'uważnej ręki' jako sposobu na rozpoznanie i ponowne skomponowanie pomysłowości pracy fizycznej, eksperymentów mechanicznych i warsztatów naukowych w całej nowożytności, bez romantyzowania rzemiosła, jak to często ma w zwyczaju dyskurs konserwatywny . Zamiast w reakcyjny sposób kultywować prowincjonalne 'bohaterstwo' rzemieślników, obraz 'uważnej ręki' podkreśla biesiadny wymiar eksperymentalnego życia i jego wynalazków.

Nowoczesność przemysłowa ugruntowała swoją pozycję dzięki przechwytywaniu tej kolektywnej wiedzy przez aparaty państwowe i gospodarcze, przez instytucje wiedzy i technologie wiedzy, które ostatecznie zamieniły pracę umysłową w Geist, używając tu ambiwalentnego niemieckiego określenia – ducha, więcej niż intelektualną duszą, która ciągle pozostaje trudna do pojęcia dla teorii politycznej. Wyciśnięta z robotników i kooperacja społecznej praca umysłowa przybrała charakter na wpół widzialnego demona: kwestii politycznej, którą z przeciwstawnych powodów należy egzorcyzmować zarówno przez ruch robotniczy, jak i interesy korporacyjne.

(...) Kapitalizm przemysłowy to nie tylko energetyczna intensyfikacja pracy i produkcji; była to także transformacja podziału pracy i stosunków społecznych do tego stopnia, że stała się ona matrycą nowego rodzaju produkcji wiedzy – nie tylko matematyki, mechaniki i fizyki, ale wiedzy najróżniejszej. Jeszcze na początku XIX wieku ricardiańscy socjaliści, tacy jak [William] Thompson i [Thomas] Hodgskin,  dyskutowali o społecznej potencjalności i psychicznych implikacjach 'pracy umysłowej', twierdząc, że wiedza jest pierwszorzędnym czynnikiem pracy. Inni ekonomiści polityczni, tacy jak Marks, zgadzali się z tym argumentem, ale uważali, że źródłem wiedzy zbiorowej jest - bez rozróżnienia - zarówno praca umysłowa, jak i praca fizyczna. Blisko stąd do warsztatów ery przemysłowej, które w końcu narodziły się jako projekt mający na celu zmechanizowanie podziału pracy umysłowej, tak jak miało tu miejsce w przypadku Babbage'a, eksperymentującego ze swoimi silnikami kalkulacyjnymi.

(...) W epoce przemysłowej wiedza i inteligencja stanowiły prawdziwie ukrytą transakcję pomiędzy pracą a kapitałem. (…) Wszelka praca, bez różnicy, była i nadal jest poznawcza i wytwarzająca wiedzę. Najważniejszym składnikiem pracy nie jest energia i ruch (które można łatwo zautomatyzować i zastąpić), ale wiedza i inteligencja (które w dobie sztucznej inteligencji dalekie są od całkowitej automatyzacji). Epoka przemysłowa była także momentem pierwotnej akumulacji inteligencji technicznej w drodze wywłaszczenia wiedzy z pracy. Sztuczna inteligencja stanowi dziś kontynuację tego samego procesu: jest systematyczną mechanizacją i kapitalizacją zbiorowej wiedzy w nowych aparatach, między innymi w zbiorach danych, algorytmach i modelach statystycznych uczenia maszynowego. Ostatecznie nietrudno wyobrazić sobie sztuczną inteligencję jako późnego awatara kolektywnego robotnika, Gesamtarbeitera, który był dla Marksa głównym aktorem produkcji przemysłowej.

(...) Marks czytając Thompsona, Hodgskina i Babbage'a, nigdy nie posługiwał się pojęciem pracy umysłowej, prawdopodobnie po to, aby uniknąć wspierania arystokracji robotniczej złożonej z wykwalifikowanych rzemieślników jako podmiotu politycznego odrębnego od klasy robotniczej. Dla Marksa praca jest zawsze kolektywna: nie ma pracy indywidualnej, która byłaby bardziej prestiżowa od innych, dlatego też praca umysłowa jest zawsze powszechna; umysł jest z definicji społeczny. Zamiast teorii pracy opartej na wiedzy, która przyznawałaby prymat świadomej działalności, jak ta obecna u Thompsona i Hodgskina, Marks utrzymuje laborystyczną teorię wiedzy, która uznaje poznawcze znaczenie wszystkich form pracy, które są społeczne, rozproszone, spontaniczne i nieuświadomione. Inteligencja wyłania się z abstrakcyjnego zbioru prostych gestów i mikrodecyzji pracowników, nawet i zwłaszcza tych, które są nieświadome. W badaniach nad intelektem powszechnym i w historii technologii są to światy pośrednie pomiędzy inteligencją zbiorową i nieuświadomioną współpracą, ale także światy 'wiedzy zmechanizowanej' i 'mechaniki uważności'. Ostatecznie to Babbage dostarcza Marksowi operatywnego paradygmatu umożliwiającego przezwyciężenie Heglowskiego Geista i włączenie wiedzy, nauki i intelektu powszechnego w obszar produkcji.

Jak już podkreślono, w marksizmie zanika rozróżnienie między pracą fizyczną a pracą umysłową, ponieważ z abstrakcyjnego punktu widzenia kapitału wszelka praca najemna, bez rozróżnienia, wytwarza wartość dodatkową; wszelka praca jest pracą abstrakcyjną. Jednakże abstrakcyjne oko kapitału, które reguluje laborystyczną teorię wartości, posługuje się specyficznym instrumentem do pomiaru pracy: zegarem. W ten sposób to, co wydaje się pełnić rolę prawa uniwersalnego, musi uwzględniać wskaźniki bardzo przyziemnej technologii; w końcu zegary nie są uniwersalne. Jednak maszyny mogą narzucać inne wskaźniki pracy niż czas, jak to ostatnio miało miejsce w przypadku analityki danych społecznościowych. Tak jak nowe instrumenty definiują nowe dziedziny nauki, tak samo definiują one nowe dziedziny pracy po ich wynalezieniu przez samą pracę. Każda nowa maszyna stanowi nową konfigurację przestrzeni, czasu i relacji społecznych i projektuje nowe metryki dla takich diagramów. W epoce wiktoriańskiej metrologia pracy umysłowej istniała jedynie w stanie embrionalnym. Podstawowa ekonometria wiedzy zaczyna się kształtować dopiero w XX wieku wraz z pierwszą teorią informacji. Teza zawarta w tym rozdziale jest następująca: laborystyczna teoria wartości Marksa nie rozwiązała kwestii metrycznej w dziedzinach wiedzy i inteligencji, które należało dopiero zbadać przy formułowaniu designów maszyn i realizacji zasady Babbage'a.

W ślad za Bravermanem i Schafferem można dodać, że Babbage stworzył nie tylko laborystyczną teorię maszyny, ale i laborystyczną teorię inteligencji maszynowej. Rzeczywiście, maszyny liczące Babbage’a ('inteligentne maszyny' w jego epoce) były realizacją analitycznego oka pana fabrycznego. Jako kuzyni panoptykonu Jeremy’ego Benthama, były one jednocześnie instrumentami nadzoru i pomiaru pracy. To właśnie tę ideę powinniśmy rozważyć i zastosować w epoce sztucznej inteligencji i jej krytyce politycznej, chociaż odwracając należałoby odwrócić relację między nimi - tak aby zadekretować, że to infrastruktury komputerowe są ukonkretnieniem wspólnej pracy, a nie odwrót.

(...) Historyk James Beniger argumentuje, że technologie informacyjne pojawiły się na przełomie XIX i XX wieku w związku z rozkwitem gospodarczym krajów zachodnich oraz koniecznością regulowania produkcji i dystrybucji przemysłowej. Inaczej mówiąc, to przyspieszenie gospodarcze spowodowało transformację mediów analogowych w informację numeryczną. Geneza paradygmatów cybernetyki i teorii informacji była odpowiedzią na 'kryzys kontroli' zachodniego kapitalizmu, który musiał zarządzać nadwyżką towarów i nową, dużą infrastrukturą dystrybucji. Zamiast rewolucji informacyjnej, jak się ją często nazywa, Beniger nazwał ten rozwój oksymoroniczną rewolucją kontroli (co jest trafnym opisem także dla ogólnodziejowego dążenia cybernetyki do osiągnięcia równowagi politycznej). Aby zarządzać rozwijającą się gospodarką, należało wprowadzić bardziej abstrakcyjną definicję informacji (czyli wiedzy mierzalnej, obliczeniowej i możliwej do przekazania).

Ten historyczny proces można ponownie ująć w ramy nie tylko z punktu widzenia obrotu towarowego, ale także z perspektywy organizacji pracy. Pace Beniger, marksistowskie opisy epoki postindustrialnej podkreślały rolę konfliktów pracowniczych i walk społecznych, a nie nadwyżki ekonomicznej, w pobudzaniu rozwoju technologicznego. Kwestionowały one także polityczną neutralność technicznego pojęcia informacji, jak uczynił to na przykład włoski socjolog Romano Alquati w swoim badaniu warunków pracy w fabryce komputerów Olivetti na początku lat sześćdziesiątych.

Olivetti była pionierską firmą słynącą z produkcji maszyn do pisania, kalkulatorów elektronicznych i komputerów typu mainframe z lat pięćdziesiątych XX wieku. W 1959 roku Olivetti wypuściła na rynek na przykład Elea 9003, pierwszy komercyjny komputer oparty na tranzystorach, którego futurystyczny graficzny interfejs użytkownika został zaprojektowany przez Ettore Sottsassa. To właśnie w fabryce Olivetti w Ivrea Alquati po raz pierwszy zastosował metodę współbadania robotniczego (conricerca) do problemu organizacji pracy w cybernetyce. Współbadanie robotnicze było rodzajem badania w działaniu partycypacyjnym, choć bardziej bojowym, i polegało na aktywnym zaangażowaniu pracowników, także przy szerokim wykorzystaniu wywiadów indywidualnych i grupowych.

Tak oto Alquati ustalił, że aparat cybernetyczny fabryki Olivetti był wpierw przedłużeniem jej wewnętrznej biurokracji, która monitorowała pracowników na linii montażowej i ogólny proces produkcyjny za pomocą 'informacji kontrolnych'. To dzięki obwodom cybernetycznych biurokracja mogła w końcu zejść do ciał robotników i uważnie obserwować ich działanie. Chociaż Alquati postrzegał cybernetykę jako przedłużenie biurokracji, to odwrócił perspektywę odgórną, która jest zawarta w idei informacji kontrolnej. Oprócz 'informacji kontrolnej' ukuł on termin 'waloryzacja informacji', aby opisać przepływ informacji generowany przez pracowników, który płynąc w górę łańcucha dostaw, zasilał obwody fabryki i nadawał formę produktom końcowym. Z tego punktu widzenia informacja jest stale wytwarzana przez pracowników, wchłaniana przez maszyny i ostatecznie przekształcana w towary:

'Informacja jest niezbędna sile roboczej, jest ona tym, co robotnik za pomocą kapitału stałego przekazuje środkom produkcji na podstawie ocen, pomiarów i opracowań, aby móc zastosować w przedmiocie pracy wszystkie modyfikacje jego formy, które nadają mu żądaną wartość użytkową'.

U Alquatiego informacja liczbowa pojawia się, prawdopodobnie po raz pierwszy, w definicji pracy. Alquati zauważył, że najważniejszą część pracy stanowi seria czynności twórczych, pomiarów i decyzji, które pracownicy muszą stale wykonywać przed maszyną i na linii montażowej. Informacją nazwał właśnie wszystkie te innowacyjne 'mikrodecyzje', które pracownicy podejmują w procesie produkcyjnym i które nadają formę produktowi, ale także regulują sam aparat maszynowy:

'Pracę produkcyjną definiuje się poprzez jakość informacji opracowanej i przekazanej przez robotnika środkom produkcji za pośrednictwem kapitału stałego, w sposób zazwyczaj pośredni, ale całkowicie uspołeczniony'.

Według Alquatiego to właśnie numeryczny wymiar cybernetyki może kodować wiedzę pracowników na bity cyfrowe i w konsekwencji przekształcać bity cyfrowe na liczby, na potrzeby planowania gospodarczego (...).

Alquati dostrzegł rozbudowaną strukturę łączącą biurokrację, zarządzanie, maszynerię cybernetyczną i podział pracy: był to nowy system, który zajął miejsce starego pana fabrycznego. Cybernetyka odsłoniła maszynową naturę biurokracji i, odwrotnie, biurokratyczną rolę maszyn – to znaczy sposób, w jaki obie działają jako aparaty sprzężenia zwrotnego, mające na celu kontrolowanie i przechwytywanie know-how pracowników. Wyniki badań Alquatiego można podsumować w następujący sposób: (1) praca jest źródłem informacji dla przemysłowego aparatu cybernetycznego, w istocie najcenniejszą częścią pracy jest informacja; (2) informacja obsługuje aparat cybernetyczny, stopniowo ulepsza jego konstrukcję i dodaje wartość produktom końcowym; (3) numeryczny wymiar cybernetyki pozwala przełożyć pracę na wiedzę, wiedzę na informację, informację na liczby, a co za tym idzie, liczby na planowanie gospodarcze; (4) aparat cybernetyczny fabryki rośnie i doskonali się dzięki wkładowi uspołecznionej inteligencji pracowników. Po raz pierwszy w tak wyraźny sposób cybernetyczna, czy też zautomatyzowana fabryka uwidoczniła przemianę pracy w mierzalną wiedzę, czyli informację.

Na początku lat 60. Alquati i włoski operaizm zaczęli odnotowywać transformację fordyzmu i coraz bardziej 'abstrakcyjny' podział pracy w społeczeństwie. Wyraźnie zapowiadał to także obraz fabryki społecznej odmalowany przez filozofa polityki Mario Trontiego. W 1962 roku Tronti napisał, że 'na najwyższym poziomie rozwoju kapitalistycznego […] całe społeczeństwo staje się artykulacją produkcji, całe społeczeństwo żyje w funkcji fabryki, a fabryka rozszerza swoją wyłączną władzę na całe społeczeństwo'. Technologie informacyjne były tą infrastrukturą materialną, która unerwiła reżim kapitalizmu przemysłowego w społeczeństwie. Chociaż włoski operaizm zawsze interesował się nauką i technologią jako czymś drugorzędnym, Alquati wniósł kluczowy wkład w tę kwestię. Utrzymywał, że wszelka innowacja technologiczna, w tym cybernetyka, zawsze ucieleśnia stosunki władzy i antagonizm klasowy danego momentu historycznego i dlatego powinna być przedmiotem badań:

'Kapitał jest zawsze zakumulowaną pracą społeczną, maszyna jest zawsze wcieloną pracą społeczną. Oczywiście. Każda >>nowa maszyna<<, każda innowacja wyraża ogólny poziom i jakość stosunków władzy między klasami w danym momencie'.

Ostatecznie nietrudno dostrzec w rozwoju technologii informacyjnych fragment długiej ewolucji abstrakcji czasoprzestrzennych, które dyscyplinowały siłę roboczą w ubiegłym stuleciu. Informacje mierzyły inteligencję, wiedzę i umiejętności potrzebne do opanowania procesu produkcyjnego i ogólniejszych stosunków społecznych. Tak się składa, że znaczenie to nie jest dalekie od pochodzenia terminu 'informacja', który został wprowadzony w celu zastąpienia słowa 'inteligencja' w początkach teorii informacji. W 1928 roku amerykański inżynier Ralph Hartley z Bell Telephone Labs zaproponował zrewidowanie aktu 'inteligencji' lub 'interpretacji sygnału', które były wówczas wyrażeniami powszechnie używanymi w telegrafii, za pomocą pojęcia pozbawionego jakiegokolwiek odniesienia do zdolności ludzkich i istotowo mierzalnego. Tę pierwotną rolę ludzkiej inteligencji w technologiach komunikacyjnych można uznać za kolejny dowód zainteresowania teorii informacji automatyzacją i deskillingiem pracy umysłowej, ale także za potwierdzenie trajektorii, która po długim cyklu technologicznym w znaczący sposób rozwinęła się w projekt sztucznej inteligencji. Obecnie 'inteligencja', którą kodują i mierzą algorytmy sztucznej inteligencji, rozciąga się na coraz szersze pole społeczne, jak próbuję to pokazać w tej książce. Ten rodzaj inteligencji należy zarówno do pracy fizycznej, jak i umysłowej, do wiedzy jawnej i ukrytej, ale przede wszystkim do zdolności kooperacji i samoorganizacji, która jest kwintesencją rzemiosła politycznego. Wykraczając poza horyzont inżynierii elektromechanicznej, informacja ostatecznie mierzy i pośredniczy w antagonizmie między pracownikami a kapitałem – w 'sygnałach' wymienianych między tymi dwoma hałaśliwymi obozami porządku społecznego.

(...) Obecnie firmy takie jak Google, Amazon, Facebook i Twitter gromadzą dane, które definiują szeroką gamę wymiarów dotyczących ich użytkowników, takich jak lokalizacja, wiek, płeć, narodowość, język, wykształcenie, zawód, liczba zawieranych kontaktów, a także orientacja polityczna, zainteresowania kulturalne i tak dalej. Różnorodność wymiarów społecznych, które te platformy mogą analizować, przyprawia o zawrót głowy i przekracza wyobraźnię każdego dobrze wyszkolonego statystyka. Rozwój algorytmów uczenia maszynowego jest zatem także odpowiedzią na eksplozję wymiarowości danych społecznościowych, a nie po prostu na problem przeciążenia informacyjnego.

Ostatecznie w ciągu ostatniej dekady uczenie maszynowe przekształciło się w rozległe algorytmiczne modelowanie wiedzy zbiorowej, w'„rachunek społeczny', którego celem jest kodowanie indywidualnych zachowań, życia społeczności i dziedzictwa kulturowego w postaci rozległych architektur korelacji statystycznych. Pomogło to w ustanowieniu monopolistycznego reżimu ekstrakcji wiedzy na skalę globalną oraz nowych technik automatyzacji pracy i zarządzania. Podobnie jak w przypadku kilku innych artefaktów naszej epoki, sztuczna inteligencja stała się przykładem wyjątkowej koncentracji władzy jako wiedzy.

(...) Biorąc pod uwagę ich dziedzictwo w postaci narzędzi statystycznych dziewiętnastowiecznej biometrii, nie jest zaskakujące, że głębokie sztuczne sieci neuronowe rozwinęły się ostatnio w zaawansowane techniki nadzoru, takie jak rozpoznawanie twarzy i analiza wzorców życia. Krytyczni badacze sztucznej inteligencji, tacy jak między innymi Ruha Benjamin i Wendy Chun, ujawnili rasistowskie pochodzenie tych technik identyfikacji i profilowania, które podobnie jak psychometria stanowią niemal techniczny dowód na społeczne uprzedzenia wpisane w sztuczną inteligencję. Słusznie zidentyfikowali władzę dyskryminowania leżącą u podstaw uczenia maszynowego i sposób, w jaki dostosowuje się ona do aparatów normatywnych współczesności, w tym do wątpliwych taksonomii z zakresu medycyny, psychiatrii i prawa karnego.

Metrologia inteligencji, zapoczątkowana pod koniec XIX wieku, z jej ukrytym i wyraźnym programem segregacji społecznej i rasowej, nadal stanowi rdzeń sztucznej inteligencji, aby dyscyplinować pracę i replikować produktywne hierarchie wiedzy. Racją bytu AI jest zatem nie tylko automatyzacja pracy, ale wzmocnienie tych hierarchii społecznych w sposób pośredni. Deklarując w sposób dorozumiany, co można zautomatyzować, a czego nie, sztuczna inteligencja narzuciła nowe mierniki inteligencji na każdym etapie jej rozwoju. Jednak porównanie inteligencji ludzkiej i maszynowej oznacza także ocenę, które zachowanie ludzkie lub grupa społeczna są inteligentniejsze od innych, których pracowników można zastąpić, a których nie. Ostatecznie sztuczna inteligencja jest nie tylko narzędziem do automatyzacji pracy, ale także do narzucania standardów mechanicznej inteligencji, które propagują, mniej lub bardziej niewidocznie, społeczne hierarchie wiedzy i umiejętności. Podobnie jak w przypadku każdej poprzedniej formy automatyzacji, sztuczna inteligencja nie zastępuje po prostu pracowników, ale wypiera ich i restrukturyzuje w celu uzyskania nowego porządku społecznego.

(...) Biorąc pod uwagę rosnącą wielkość zbiorów danych, koszty szkolenia wielkich modeli oraz monopol na infrastrukturę chmurową niezbędną do hostowania takich modeli przez kilka firm, takich jak Amazon, Google i Microsoft (oraz ich azjatyckie odpowiedniki Alibaba i Tencent), dla wszystkich stało się oczywiste, że suwerenność sztucznej inteligencji pozostaje trudną sprawą na skalę geopolityczną. Co więcej, połączenie różnych aparatów zarządzania (nauki o klimacie, logistyki globalnej, a nawet opieki zdrowotnej) w ramach tej samej infrastruktury (przetwarzanie w chmurze) i oprogramowania (uczenie maszynowe) sygnalizuje jeszcze silniejszą tendencję do monopolizacji. Oprócz głośnej kwestii akumulacji władzy, wzrost monopoli na dane wskazuje na kluczowe dla tej książki zjawisko technicznej konwergencji: środki pracy stały się samymi środkami jej pomiaru, podobnie jak środki zarządzania i logistyka stały się tym samym, co planowanie gospodarcze.

Stało się to widoczne także podczas niedawnej pandemii COVID-19, kiedy stworzono dużą infrastrukturę do śledzenia, pomiaru i prognozowania zachowań społecznych. Ta infrastruktura, bezprecedensowa w historii opieki zdrowotnej i biopolityki, nie powstała jednak ex nihilo, ale zbudowana została na istniejących platformach cyfrowych, które koordynują większość naszych relacji społecznych. Szczególnie podczas lockdownów tego samego medium cyfrowego używano do pracy, zakupów, komunikowania się z rodziną i przyjaciółmi, a ostatecznie do opieki zdrowotnej. Cyfrowe mierniki ciała społecznego, takie jak geolokalizacja i inne metadane, były kluczowe dla modeli predykcyjnych globalnej infekcji, ale już od dawna są one używane do śledzenia pracy, logistyki, handlu i edukacji. Filozofowie tacy jak Giorgio Agamben twierdzili, że infrastruktura tego rodzaju stanowi przedłużenie pandemicznego stanu wyjątkowego, podczas gdy w rzeczywistości jej zastosowanie w służbie zdrowia i biopolityce stanowi kontynuację dziesięcioleci monitorowania produktywności ekonomicznej organizmu społecznego, co dla wielu przeszło niezauważone.

Techniczna konwergencja infrastruktur danych ujawnia również, że współczesna automatyzacja nie polega tylko na automatyzacji pojedynczego pracownika, jak w stereotypowym obrazie humanoidalnego robota, ale na automatyzacji panów i menedżerów fabrycznych, jak ma to miejsce w platformach ekonomii gig. Od gigantów logistyki (Amazon, Alibaba, DHL, UPS itp.) i mobilności (Uber, Share Now, Foodora, Deliveroo) po media społecznościowe (Facebook, TikTok, Twitter) – kapitalizm platformowy to forma automatyzacji, która w rzeczywistości nie zastępuje pracowników, ale pomnaża ich i rządzi nimi na nowo. Tym razem nie chodzi tyle o automatyzację pracy, ile o automatyzację zarządzania. W ramach tej nowej formy zarządzania algorytmicznego wszyscy jesteśmy postrzegani jako indywidualni pracownicy ogromnego automatu składającego się z globalnych użytkowników, 'turkerów', opiekunów, kierowców i różnego rodzaju jeźdźców. Debata na temat obaw, że sztuczna inteligencja w pełni zastąpi miejsca pracy, jest źle sformułowana: w tak zwanej gospodarce platformowej w rzeczywistości algorytmy zastępują zarządzanie i pomnażają sprekaryzowane miejsca pracy. Choć przychody z gospodarki gig pozostają mniejsze w stosunku do tradycyjnych sektorów zlokalizowanych, to korzystając z tej samej infrastruktury na całym świecie, platformy te ugruntowały sobie pozycję monopolistyczną. Podsumowując, władza nowego 'pana' nie polega na automatyzacji poszczególnych zadań, ale na zarządzaniu społecznym podziałem pracy. Wbrew przewidywaniom Alana Turinga to pan, a nie pracownik, został zastąpiony przez robota jako pierwszy.

(...) U podstaw laborystycznej teorii automatyzacji leży ostatecznie praktyka autonomii społecznej. Technologie można oceniać, kwestionować, przywłaszczać sobie i wymyślać na nowo jedynie poprzez skoncentrowanie się na matrycy relacji społecznych, które je wyjściowo utworzyły. W tych stosunkach społecznych należy umiejscowić alternatywne technologie, w sposób nie odbiegający od tego, co uczyniły ruchy kooperatywistyczne w minionych stuleciach. Jednak budowanie alternatywnych algorytmów nie oznacza uczynienia ich bardziej etycznymi. Na przykład propozycja zapisania zasad etycznych na stałe w sztucznej inteligencji i robotach wydaje się wysoce niewystarczająca i niekompletna, ponieważ nie odnosi się bezpośrednio do szerokiej politycznej funkcji automatyzacji, która leży u jej podstaw.

Potrzebny nie jest ani technosolucjonizm, ani technopauperyzm, ale zamiast tego kultura inwencji, projektowania i planowania, która dba o społeczności i kolektywność i nigdy nie rezygnuje całkowicie ze swej sprawczości i inteligencji na rzecz automatyzacji. Pierwszy krok technopolityki nie jest technologiczny, ale polityczny. Chodzi o emancypację i dekolonizację, jeśli nie o całkowite zniesienie, organizacji pracy i stosunków społecznych, na których opierają się złożone systemy techniczne, roboty przemysłowe i algorytmy społeczne – w szczególności wbudowany w nie system płac, prawa własności i polityka tożsamości. Nowe technologie dla pracy i społeczeństwa mogą opierać się jedynie na tej transformacji politycznej. Jest oczywiste, że proces ten przebiega także poprzez rozwój nie tylko wiedzy technicznej, ale także politycznej. Jednym z problematycznych skutków sztucznej inteligencji na społeczeństwo jest jej wpływ epistemiczny – sposób, w jaki przedstawia ona inteligencję jako inteligencję maszynową i pośrednio wspiera wiedzę jako wiedzę proceduralną. Projekt epistemologii politycznej mający za zadanie wyjść poza sztuczną inteligencję będzie musiał jednak przekształcić historyczne formy myślenia abstrakcyjnego (matematyczne, mechaniczne, algorytmiczne i statystyczne) i zintegrować je jako część zestawu narzędzi samego krytycznego myślenia. Konfrontując się z epistemologią sztucznej inteligencji i jej reżimem ekstrakcji wiedzy, należy nauczyć się innej mentalności technicznej: kolektywnej >>kontr-inteligencji<<".

M. Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence, London and New York 2023.

Brak komentarzy:

Prześlij komentarz