« Éthiques en action » Collection dirigée par Céline Kermisch
Transcription
« Éthiques en action » Collection dirigée par Céline Kermisch
Seediscussions,stats,andauthorprofilesforthispublicationat: http://www.researchgate.net/publication/255696876 «Éthiquesenaction»Collection dirigéeparCélineKermisch PosthumanismeMylenebotbol baum DATASET·JANUARY2010 DOWNLOADS VIEWS 624 44 1AUTHOR: Mylenebotbolbaum CatholicUniversityofLouvain 12PUBLICATIONS5CITATIONS SEEPROFILE Availablefrom:Mylenebotbolbaum Retrievedon:24June2015 « Éthiques en action » Collection dirigée par Céline Kermisch Adresser les commandes à votre libraire ou directement à : Pour la Belgique : E.M.E. & InterCommunications s.p.r.l. 40, rue de Hanret BE - 5380 Fernelmont Tél. : 00[32]81.83 42 63 et 00[32]473.93 46 57 Fax : 00[32]81.83 52 63 Courriel : [email protected] Site : www.intercommunications.be Pour la France et la Suisse : C.E.I. Collectif des Éditeurs Indépendants 37 rue de Moscou F - 75008 Paris Tél : 01 45 41 14 38 Fax : 01 45 41 16 74 [email protected] Dans la même collection : Le commerce équitable Entre expansion économique et valeurs éthiques Laetitia Poppe E1045853 14,00 € © E.M.E. & InterCommunications, sprl, 2012, (B) - 1040 - Bruxelles - 5380 - Fernelmont. Céline Kermisch et Marie-Geneviève Pinsart (éds.) Les nanotechnologies : vers un changement d’échelle éthique ? Nanotechnologies : towards a shi in the scale of ethics ? E.M.E. Remerciements Cet ouvrage rassemble les textes des conférences prononcées lors du colloque « Les nanotechnologies : vers un changement d’échelle éthique ? », organisé les 4 et 5 avril 2011 à l’Université Libre de Bruxelles (Belgique). Nous tenons à remercier Madame Isabelle Stengers et Monsieur Pierre Daled pour leur précieuse contribution lors de ce colloque. Que soient également remerciés Madame Delphine Defosse pour son aide dans l’organisation et la promotion du colloque et Monsieur Michaël Manalis, pour son e cace collaboration en matière de graphisme. Notre gratitude va aussi à la Faculté de Philosophie et Le res de l’Université Libre de Bruxelles, au Groupe de contact FNRS « Philosophie et bioéthique », et au Fonds de la Recherche Scientifique pour leur soutien financier et logistique, ainsi qu’aux éditions EME. 5 6 Avant-propos L’objet de cet ouvrage est de partager les réflexions qui ont été menées sur les relations entre l’éthique et les nanotechnologies lors d’un colloque tenu les 4 et 5 avril 2011, à l’Université Libre de Bruxelles (Belgique), intitulé « Les nanotechnologies : vers un changement d’échelle éthique ? » Quinze spécialistes d’horizons disciplinaires et professionnels di érents ont apporté des éléments de réponse à ce e question. Il nous est apparu important de jeter un pont entre les recherches exposées dans les li ératures francophone et anglophone en privilégiant une édition bilingue, dans la mesure où les nanotechnologies sont de nature internationale dans leurs projets, leurs conceptions, leurs réalisations, leurs applications, et leurs conséquences sur chacun d’entre nous comme sur toute forme de vie, présente ou à venir. Foreword The objective of this book is to share the reflections on the relationships between ethics and nanotechnology proceeding from the conference “Nanotechnologies: towards a shi in the scale of ethics?” held at the Université Libre de Bruxelles (Belgium) on the 4th and the 5th of April 2011. Fi een experts from various disciplines have contributed to answer this question. In order to bridge the gap between the reflections led in the French and in the Anglo-Saxon literatures, we decided to favour a bilingual edition, insofar as nanotechnologies are international in their projects, in their conceptions, in their realisations, in their applications, and in their impacts on everyone of us and on every current or future life form. 7 Introduction Une spécificité de la réflexion éthique liée aux nanotechnologies est qu’elle repose à la fois sur quelque chose qui existe, qui est déjà commercialisé (dans les cosmétiques, par exemple) ou secrètement mis en œuvre (dans les recherches militaires), et sur quelque chose de spéculatif, relevant du futur, et qui est hypothétique, voire fantaisiste. Ce e indétermination des nanotechnologies s’accompagne d’une di culté à les définir, ce qui ne va pas sans poser de problèmes. De manière générale, on peut d’abord se demander si l’élaboration d’une définition pour les nanotechnologies constitue nécessairement un préalable à toute réflexion éthique (voir Pinsart). Sur le plan particulier de la nanomédecine (voir Baum), on peut aussi s’interroger sur les implications de ce e absence de définition consensuelle sur la validité du consentement d’un patient : peut-on consentir à quelque chose que l’on conçoit mal ? La di culté à s’entendre sur une définition des nanotechnologies et donc sur l’ampleur et le type de risques qui leur sont associés ne permet pas de délimiter facilement le domaine d’application d’une norme juridique et provoque une inflation de règlements et de textes, notamment sur le plan européen (voir Gallus). La question de la définition invite dès lors à s’a acher aux objets nanotechnologiques, à interroger les intentions qui président à leurs conceptions et à évaluer à partir de leur réalité la persistance d’anciennes ruptures épistémologiques et ontologiques comme celle distinguant l’objet naturel de l’artefact technique (voir Kroes). La disparition de l’opposition entre matière vivante et matière inerte dont témoignent certains objets nanotechnologiques les rend hétérogènes, ce qui n’est pas sans e ets sur la construction interdisciplinaire des savoirs et sur la place réservée à l’éthique (voir Pinsart). Par ailleurs, c’est le statut même du vivant qui est a ecté par la convergence NBIC (nanotechnologie, biotechnologique, informatique, sciences cognitives), laquelle réduit l’être vivant à un composé de molécules nanométriques, faisant ainsi fi des enseignements de la biologie et de la toxicologie actuelles sur l’individuation du vivant, c’est-à-dire sur la capacité de chaque système vivant à devenir une unité autonome et 9 ouverte aux modifications (voir Mwape). La nanotoxicité illustre aussi la di culté de cerner le risque qu’encourt un être vivant qui évolue et interagit constamment avec son milieu (voir Mwape). C’est d’ailleurs en matière de risques que les nanotechnologies posent de nombreux problèmes majeurs. Ainsi, l’indétermination liée aux nanotechnologies va de pair avec la di culté de gérer leurs risques ou, plus exactement, leurs incertitudes. Les risques, leurs descriptions, et leurs évaluations sont traditionnellement au centre d’une approche procédurale fondée sur le rapport entre les risques et les bénéfices qui ne permet pas de prendre en compte les incertitudes de manière adéquate (voir Kermisch). Notons aussi que la place privilégiée accordée à la notion de risque dans les discours éthiques peut occulter d’autres dimensions de la réflexion sur les nanotechnologies (voir Hermerén), notamment celle de leur gouvernance (voir von Schomberg), et relève à certains égards d’une stratégie de contrôle bénéficiant à certains acteurs. L’indétermination du contenu sémantique du terme « nanotechnologie », des savoirs, des pratiques et des e ets qui lui sont associés agit comme le plateau d’une balance en quête d’équilibre à travers des déterminations diversement voulues et caractérisées. Une de ces déterminations est de nature idéologique et est portée par le mouvement transhumaniste majoritairement anglo-saxon (voir Baum, Bourg). L’évaluation a priori du bien – la bonne vie, les bonnes capacités physiques, psychologiques, comportementales, émotionnelles, les bonnes relations sociales, etc. – constitue un postulat destiné à justifier le développement des nanotechnologies en vue d’une maîtrise de la matière et de l’être humain, certes au nom de la liberté, mais peut-être aussi au prix de celle-ci. Dans ce e perspective, les nanotechnologies relèvent des anthropotechniques, ces techniques qui visent à modifier la condition humaine par une intervention sur le substrat biologique humain. Le nombre d’êtres humains qui seraient a ectés par ce e modification – ou, pris sous un autre angle, qui en bénéficieraient – soulève la question de l’accentuation des inégalités ou même de l’apparition de nouvelles formes d’inégalité non seulement entre les êtres humains, mais aussi entre ceux-ci et d’autres êtres existants ou possibles (voir Bourg). Par ailleurs, l’usage du terme « nanoéthique » pour qualifier des réseaux d’échanges, des programmes de recherches, une revue, une 10 li érature, etc. témoigne bien de l’existence d’une préoccupation éthique. Mais si la nécessité de mener une réflexion éthique sur la manière dont un savoir est construit et conçu, surtout s’il est lié à une intervention sur le vivant, est désormais un truisme, il reste en revanche à s’interroger sur la nécessité d’une autre manière de réfléchir et d’agir éthiquement en matière de nanotechnologies (voir Peterson et de Vries). En outre, la dissolution de l’éthique dans une pluralité de considérations n’entraîne pas nécessairement une modification substantielle, sur le plan éthique, du fonctionnement des sciences et des techniques, et de leur rapport à la société. La convergence des technologies NBIC peut cependant apparaître comme le signe d’un changement de paradigme épistémologique et éthique (voir Busquin). Les pistes éthiques tracées par les auteurs sont nombreuses et, bien qu’elles relèvent de géographies conceptuelles di érentes, elles peuvent former des intersections intéressantes : l’évaluation normative continue, l’évaluation au cas par cas, l’évaluation des risques, l’application du principe de précaution, la démocratisation du savoir… Chacune de ces pistes met en scène une fonction possible de l’éthique par rapport aux nanotechnologies. Le plus souvent, la li érature évoque les fonctions d’accompagnement ou de ra rapage de la dynamique de la recherche et du développement inscrite dans une vision progressiste des sciences et des techniques. Mais il faut tenir compte aussi des fonctions de l’éthique liées à son intervention en amont : communiquer avec le public, favoriser sa participation – sans toutefois le préparer à ce que d’aucuns voudraient lui imposer (voir Bensaude-Vincent) – et susciter un dialogue généralisé plutôt que généralisant ; développer une stratégie d’évaluation des conséquences des processus et des produits nanotechnologiques qui rende la recherche et l’innovation responsables (voir von Schomberg) ; déterminer la spécificité de l’objet nanotechnologique pour en vérifier la brevetabilité (voir Kroes) ; redéfinir et approfondir les principes éthiques traditionnels pour leur conférer une fécondité analytique à l’égard des situations nouvelles créées par les nanotechnologies (voir Peterson et de Vries) ; élaborer des régulations éthiques plus ou moins contraignantes sur le plan national ou international, à l’instar des initiatives prises par l’UNESCO et l’Union européenne (voir Busquin, Gallus) que certains pourraient cependant accuser d’anesthésier la volonté d’agir à l’égard des nanotechnologies. 11 Les nanotechnologies sont aussi associées à des discours qui véhiculent une rhétorique plurielle à l’image de la diversité des intentions qui les animent. Ces discours font feu d’une rhétorique nourrie d’oxymores comme celui d’« innovation responsable » (voir Thoreau) et minutieusement mise en place par les acteurs mêmes du développement des nanotechnologies (voir Dratwa). On y découvre aussi une autre rhétorique, celle de groupes d’activistes hissant le pavillon néo-luddite du rejet de la modernité technologique et cherchant avant tout à déstabiliser et à éveiller le soupçon (voir Go ). Il ne faut pas oublier non plus que la relation de l’éthique aux nanotechnologies s’inscrit dans un contexte marqué par des expériences antérieures, notamment celles des biotechnologies et des organismes génétiquement modifiés (voir Hermerén, Kermisch). Il n’est donc pas étonnant que les promoteurs des nanotechnologies aient voulu anticiper les conséquences de leurs applications et de leur di usion en termes de conflits de valeurs, par la mise en œuvre d’une réflexion pluridisciplinaire sur leurs impacts éthiques, légaux et sociétaux – ELSI – (voir Bensaude-Vincent) ou sur leurs aspects éthiques, légaux et sociétaux – ELSA. Dans le débat sur les relations entre éthique et nanotechnologies, l’Union européenne, à travers ses instances de réflexion et de décision, occupe une position distincte de celle des États-Unis. Née de l’engagement libre d’un certain nombre d’États, l’Union européenne o re l’opportunité de penser l’éthique à partir d’une de ses dimensions fondatrices, l’engagement (voir Dratwa). Quels sont les di érents engagements – éthiques, sociaux, citoyens – possibles pour le futur ? A quel niveau (international, national,…) et selon quelle répartition des tâches les engagements doivent-ils être tenus ? Les nanotechnologies interpellent directement les stratégies développées aussi bien par les politiques publiques de l’Union européenne que par celles des EtatsUnis d’ailleurs (voir Thoreau). Se pose la question entre autres de savoir comment se décline la responsabilité associée à la promotion d’une recherche et d’applications innovantes dans les projets et les déclarations de politique publique. Les contributions de cet ouvrage soulignent qu’une réflexion élaborée à partir de clivages se fige souvent en clichés (voir Go ) et que les nanotechnologies o rent l’opportunité de penser autrement nos 12 priorités et nos limites. Ainsi, plutôt que d’opposer transhumanisme et humanisme, n’est-il pas plus fécond et utile de s’interroger sur les rapports que nos représentations du bien ou du meilleur entretiennent avec le réel, réel que nous façonnons et qualifions de « bon » ou de « meilleur » ? Plutôt que d’opposer diverses expressions de la liberté (expressions humaniste, transhumaniste, scientifique, citoyenne, etc.) que cristallisent les nanotechnologies, n’est-il pas plus juste de réfléchir aux manières de garantir l’existence de ces diverses expressions de la liberté – aussi bien sur le plan individuel que collectif, humain que non humain –, de sorte qu’elle demeure toujours possible dans le futur ? L’éthique éveillée par les nanotechnologies est-elle encore et toujours une a aire d’échelle, de succession d’échelons distinguant des espaces d’acceptation et de rejet ? La nanoéthique n’est-elle pas aussi – et ce de manière non exclusive –, une invitation à imaginer de nouvelles modalités de mise en commun de réflexions et d’actions ? Céline Kermisch et Marie-Geneviève Pinsart 13 Introduction One specificity of the ethical reflection associated with nanotechnology is that it is both about something that currently exists, something that is already commercialized (in cosmetics for example) or secretly implemented (in military research), and about something speculative, future-oriented, hypothetic, or even fanciful. This indetermination of nanotechnologies goes with the di culty to elaborate a commonly accepted definition of these, which raises many issues. We may first wonder if the elaboration of a definition for nanotechnology constitutes necessarily a prerequisite to any ethical reflection about it (see Pinsart). In the particular case of nanomedicine (see Baum), we may also question the impacts of this lack of consensual definition on the validity of a patient’s consent: is it possible to consent to something that we cannot easily conceive? The di culty to agree on a definition, and hence on the magnitude and on the type of risks associated with these, does not allow an easy delimitation of the scope of a legal standard. This causes, in turn, an increase of texts and regulations, for example at the European level (see Gallus). The problem of nanotechnology definition leads thus to study nanotechnological objects, to question the intentions at the origin of their design, and to assess the relevance and the persistence of previous epistemological and ontological distinctions such as the distinction between natural objects and technical artefacts (see Kroes). The blurring of the opposition between the living and the lifeless, as is the case for some nanotechnological objects, makes them heterogeneous, which impacts the interdisciplinary construction of knowledge and the space of ethics (see Pinsart). Furthermore, the status of the living is a ected by the NBIC convergence (nanotechnology, biotechnology, information technology and cognitive science), which reduces the living being to an aggregate of nanometrical molecules, thereby neglecting the lessons of current biology and toxicology on the individuation of the living, i. e. on the capacity of each living system to become an autonomous unity, which is open to modifications (see Mwape). Nanotoxicity also illustrates the di culty to define the risk 15 to which a living being – constantly evolving and interacting with its environment – is exposed (see Mwape). Nanotechnologies are associated with many risk issues as well. The indetermination of nanotechnologies goes with the di culty to manage their risks or, more exactly, their uncertainties. The risks, their descriptions and their assessments are at the core of a traditional procedural approach based on the ratio between risks and benefits, which is unable to take uncertainties into account properly (see Kermisch). Furthermore, the focus on the notion of risk in ethical discourses can possibly hide other aspects of reflection on nanotechnologies (see Hermerén), notably the ones associated with their governance (see von Schomberg) and this focus may correspond to some extent to a control strategy, which benefits some agents. The indetermination of the semantical content of the term “nanotechnology”, of the knowledge, of the practices and of the impacts associated with it, are scales seeking for balance through diversely featured determinations. One of these determinations is ideological in its nature and is coming from the transhumanist movement, which is mainly Anglo-Saxon (see Baum, Bourg). The a priori evaluation of the good – the good life, the good physical, psychological, behavioural and emotional capacities, the good social relationships, etc. – is an assumption, which intends to justify the development of nanotechnologies in order to control ma er and human beings, possibly in the name of freedom but also maybe at the price of it. In this perspective, nanotechnologies are part of the anthropotechnics, which intends to modify the human condition by intervening on the human biological substratum. The number of human beings who would be a ected by these modifications – or, from another point of view, who would benefit from it – leads to the question of the increase of inequalities or even to the rise of new types of inequalities not only between human beings, but also between them and other existing or possible beings (see Bourg). Besides, the use of the term “nanoethics” in order to qualify networks, research programs, a journal, literature, etc. proves the existence of an ethical concern. Of course, the necessity to conduct an ethical reflection on the manner in which knowledge is conceived and constructed is trivial – especially if it is associated with an intervention on the living. However, when it comes to nanotechnologies, we still 16 have to question the necessity to seek for another way of thinking and acting ethically (see Peterson and de Vries). Moreover, the dissolution of ethics into a plurality of considerations does not necessarily lead to a substantial modification, at the ethical level, of the functioning of science and technology, and their connection to society. The NBIC convergence can nevertheless be thought as the expression of a change of epistemological and ethical paradigm (see Busquin). The ethical leads highlighted by the authors are numerous. Even though they are proceeding from various conceptual frameworks, their intersections are promising: continuous normative evaluation, case-bycase evaluation, risk assessment, the application of the precautionary principle, the democratisation of knowledge… Each of these leads proposes a possible role for ethics in the case of nanotechnology. Most o en, literature addresses the role of accompaniment or taking up of the R&D dynamics, along with a progressive conception of science and technology. But we also have to take into account the roles of ethics associated with its upstream intervention: communicating with the public, encouraging its participation – without preparing it to accept what some may be willing to impose (see Bensaude-Vincent) – and creating a generalized dialogue rather than a generalizing dialogue; developing a strategy of evaluation of the consequences of the nanotechnological processes and products contributing to a responsible research and innovation (see von Schomberg); determining the specificity of nanotechnological objects in order to verify their patentability (see Kroes); redefining and refining the traditional ethical principles and concepts in order to adapt these to new situations created by nanotechnologies (see Peterson and de Vries); elaborating ethical regulations at the national or international levels such as the initiatives of the UNESCO and the European Union (see Busquin, Gallus) that some may accuse to anaesthetise the will to act towards nanotechnologies. Nanotechnologies are also associated with discourses based on a plural rhetoric, reflecting the diversity of their authors’ intentions. These discourses are based on a rhetoric enriched with oxymora such as “responsible innovation” (see Thoreau) and they are meticulously implemented by the actors of the development of nanotechnology themselves (see Dratwa). But another rhetoric can also be found, the one advocated by neo-luddite activist groups, rejecting technological modernity and searching mainly destabilization and suspicion (see 17 Go ). We should not forget that the relationship between ethics and nanotechnology is occurring in a context influenced by previous experiences, in particular, biotechnology and GMOs (see Hermerén, Kermisch). It is thus not surprising that nanotechnology promoters have been willing to anticipate the consequences of their applications and their di usion in terms of conflicts of values, by implementing a multidisciplinary reflection on the ethical, legal and societal impacts – ELSI (see Bensaude-Vincent) – or on the ethical, legal and societal aspects – ELSA. In the debate on the relationship between ethics and nanotechnology, the European Union is adopting a di erent position than the one advocated by the United States. Proceeding from the free commitment of a certain number of states, the European Union gives the opportunity to think ethics from one of its founding dimensions, the commitment (see Dratwa). What are the possible commitments – ethical, societal, or at the citizen level – for the future? At what level (national, international,…) and according to which a ribution of tasks should these commitments be held? Furthermore, nanotechnology questions directly strategies developed by the public policies of the European Union, as well as the ones of the United States (see Thoreau). Hence the question is, amongst others, how to define responsibility associated with the promotion of innovative research in projects and in public policies. The contributions of this book put the emphasis on the fact that a reflection proceeding from oppositions is o en fixed into stereotypes (see Go ) and that nanotechnologies give the opportunity to think our priorities and our limits di erently. Hence, rather than opposing transhumanism and humanism, wouldn’t it be more fruitful to question the relationships that our representations of the good or of the best have with the real, real that we are constructing and that we are qualifying as “good” and “best”? Rather than opposing di erent expressions of freedom (humanist expression, transhumanist, scientific, at the citizen level, etc.) crystallized by nanotechnologies, wouldn’t it be more just to think of ways to secure the existence of these di erent expressions of freedom – at the individual, collective, 18 human and non-human levels – in order for it to be possible in the future? Is ethics in the light of nanotechnology still a ma er of scale, of sequence of steps, delimiting acceptance or rejection spaces? Or is it also – and not exclusively – an invitation to imagine new modalities of pooling reflections and actions? Céline Kermisch et Marie-Geneviève Pinsart 19 Résumés Quelle éthique pour les nanotechnologies ? Bilan des programmes en cours et perspectives Bernade e Bensaude-Vincent Dans un grand nombre de pays, les programmes de recherche en nanotechnologies comportent un volet « Ethical, Legal and Societal Issues » (ELSI). L’intégration de la réflexion sur les aspects éthiques et sociaux des innovations en amont constitue indéniablement un progrès par rapport aux démarchages aveugles d’antan (justifiées par l’adage « on n’arrête pas le progrès ! »). Toutefois elle demeure insu sante pour plusieurs raisons que l’on tentera d’exposer. Nanoéthique et posthumanisme Mylène Botbol-Baum Si le devenir technoscientifique suppose l’indétermination, les nanomedecines semblent bien se développer sans possible préalable ce qui s’oppose à la notion de consentement. Elles sont néanmoins présentes en clinique alors que la majorité des patients sont incapables de définir le terme. La nanomédecine ranime donc le débat épistémologique qui divise sur la pertinence des technosciences à nous libérer ou à nous aliéner, et en tout cas à perturber les rythmes biologiques du vivant dans un but mélioriste et/ou thérapeutique. Ce débat nous amène à repenser les représentations mécanistes classiques des craintes que suscitent l’altération des « lois de la nature » comme si celle-ci n’était pas suje e à une constante ré-organisation ou auto-organisation d’où émergent de nouveaux possibles biopolitiques ou thanathopolitiques, sans possible préexistant qui articule risque et liberté. Le concept d’auto-organisation est trop associé souvent à une forme de liberté irresponsable ou d’orgueil mélioriste de contrôle de la matière. Nous confronterons l’épistémologie mécaniste classique à celle de l’auto-organisation pour dessiner, non une éthique posthumaniste justifiant la nanomédecine mais un discours qui répondrait 21 à l’interpellation que les nanotechnologies opèrent sur la dichotomie entre le vivant et la matière organique non-vivante, à l’échelle nano. En termes d’oscillations perturbées des rythmes du vivant d’où peuvent émerger des représentations post-humanistes qui ne seraient pas opposées aux valeurs humanistes, mais interrogeraient leurs limites, voire leurs échecs à articuler le réel à ses représentations. Cela nous perme ra de questionner l’inférence selon laquelle le terme de technoscience et l’idée de perte d’altérité sont inéluctablement liés, afin de suggérer qu’elle puisse aussi être l’outil d’élaboration d’un sens à-venir, fondé sur un arpentage moins dualiste entre vivant et non vivant, réel ou connaissance du réel et surtout sur son impact sur nos capacités d’évaluation éthique du méliorisme. Nanotechnologies, convergence NBIC et inégalités Dominique Bourg Je n’aborderai pas les nanotechnologies en général, mais sous l’angle de leur apport aux anthropotechniques. J’entends par anthropotechniques l’ensemble des techniques ayant pour dessein la transformation durable du fonctionnement propre au corps humain. Le projet le plus ambitieux prêté à ces techniques est une modification du substrat biologique de la condition humaine, en vue de métamorphoser ladite condition. Je chercherai à montrer les di cultés que ne manquerait pas de rencontrer un tel projet, et tout particulièrement en termes d’universalité. Je ne sais jusqu’où on peut parvenir à bousculer la condition humaine, mais je crains qu’il ne puisse résulter d’un tel dessein autre chose qu’un accroissement des inégalités au sein du genre humain. Les nanotechnologies et l’éthique. Politiques et stratégies Philippe Busquin La commission mondiale d’éthique des connaissances scientifiques et des technologies de l’UNESCO a publié en 2008 un premier rapport sur « Éthique et Politique des Nanotechnologies » dont j’ai explicité les objectifs. Cet organisme indépendant constitué de membres décideurs ou scientifiques de tous les continents va réactualiser ce document car les nanotechnologies se développent rapidement, partout dans le monde (plus de 1.000 produits déjà commercialisés). 22 Ce changement de paradigme interpelle par ses potentialités mais aussi ses inconnues. Des débats sont nécessaires, l’Union Européenne est à l’initiative de nombreux colloques mais aussi à la recherche de codes de conduite si possible mondialement acceptables. Les enjeux éthiques sont fondamentaux : transparence et responsabilité face au public, évaluation des risques, coopération internationale,… De plus les technologies convergentes (nano, biologie, informatique, sciences cognitives) induisent une autre dimension : le risque de « transhumanisme » et interpellent sur le sens des valeurs de l’humanité. En outre, je me permets d’évoquer « le trou noir » que représentent les recherches militaires et de sécurité dans ces domaines. Europe’s collective experiment with nanotechnologies as a construction of possible futures : political and ethical stakes Jim Dratwa Imaginez le monde dans quelques décennies. Comment aimeriezvous qu’il soit ? Cet article interroge les façons dont les futurs sont conçus – et dont ils sont amenés à se réaliser. Il sonde le rôle de l’engagement – l’engagement de l’éthique et des sciences sociales ainsi que du public – dans le façonnage du futur avec les nanosciences et nanotechnologies. Premièrement, il délinée les relations de l’Union européenne avec les futurs – avec l’entreprise même de construction des futurs. Deuxièmement, il examine la place des sciences et technologies dans ce e entreprise. Troisièmement, sur le terrain des institutions européennes, il analyse les narrations contrastées portant (sur) les nanosciences et nanotechnologies. Dans une dernière partie, il apporte une appréciation critique – ainsi qu’une vigueur renouvelée – quant à l’engagement dans les expérimentations collectives (qui sont autant d’expérimentations du collectif) avec les nanosciences et nanotechnologies. 23 La réglementation européenne des nanotechnologies : l’éthique entre la recherche et le développement industriel Nicole Gallus Le droit européen des nanotechnologies confronte le juriste à une inflation de textes, ce e sur-réglementation étant le reflet des di cultés générées par les incertitudes entourant la connaissance des spécificités des nanomatériaux et de leurs risques, ainsi que par les contraintes d’application du principe de précaution face à ces incertitudes et aux motivations di érentes des parties concernées : scientifiques, industriels, consommateurs, régulateurs. La contribution consacrée à la réglementation européenne vue sous l’angle de l’éthique tend à dépasser ce e complexité normative en axant l’analyse du droit sur trois questions qui paraissent constituer la base de réflexion nécessaire. La première s’a ache à la recherche d’une définition des nanomatériaux et nanotechnologies, susceptible de préciser le champ d’application de la norme. La deuxième vise à préciser l’objectif de la norme en termes de recherche, développement industriel, protection des personnes et de l’environnement et éthique. La troisième enfin porte sur le contenu de la norme avec, plus particulièrement, une interrogation sur l’opportunité d’une réglementation spécifique ou d’une simple adaptation de la réglementation générale existante. Nanotechnologies, nano-luddisme, néo-luddisme. Jean-Yves Go Certains estiment que l’opposition entre technophobes et technophiles est dépassée. Cela n’empêche pas que les débats ou les a rontements qui se développent à propos des nanotechnologies me ent en scène des partisans ou des opposants que l’on a du mal à considérer autrement que comme des amis ou des ennemis de la technologie - même s’ils se (dis) qualifient mutuellement de néoluddites ou de futuristes. 24 On s’a achera à examiner quelques écrits émanant d’activistes grenoblois proches du groupe radical PMO (pièces et main d’œuvre) afin de comprendre ce que sont, en action, leurs « arguments ». On s’abstiendra d’évaluer la validité de ces « arguments », au sens propre du terme ; il semble, en e et, que leurs auteurs ne se préoccupent pas réellement d’établir de façon concluante que, des prémisses étant posées, une conclusion s’ensuit nécessairement. Bien plutôt, il s’agit de produire un e et de trouble auprès du lecteur ; ce e dimension rhétorique du propos explique que l’on parle d’« arguments » et non d’arguments. Cela n’empêche pas que de tels écrits soient e caces, à leur façon : ils suscitent suspicion et interrogations, ce qui est probablement le but recherché. On suggérera que ces « arguments » sont, en fait, plus dirigés contre la modernité techno-libérale que contre les nanotechnologies comme telles. On insistera sur le fait que ce e contestation radicale ne se fait ni au nom du passé, ni au nom du présent, ni au nom du futur : elle ne promet rien et s’installe dans une posture de négation pure. En ce sens, elle débouche sur une guérilla infinie, qui pourra me re en évidence le caractère honteux des pratiques de leurs adversaires, sans les empêcher d’a eindre leurs objectifs. Petites particules, grandes questions. Nanotechnologies et éthique. Göran Hermerén Il existe de nombreuses nanotechnologies et de multiples applications de ces technologies ; et elles soulèvent, en partie, des problèmes di érents. Des publications récentes témoignent des progrès spectaculaires réalisés dans de nombreux domaines. Ces technologies sont utilisées dans l’industrie automobile, dans l’industrie aéronautique, dans l’industrie chimique, dans l’industrie pharmaceutique, en médecine et en biotechnologie, dans les technologies de l’information et de la communication, ainsi que dans les industries alimentaire et cosmétique. Toutefois, ces progrès spectaculaires ne signifient pas que tous les problèmes éthiques soient résolus. Les questions de sécurité sont évidemment importantes. Il semble que certains types de nanotubes de carbone engendrent des e ets pathogènes similaires à ceux de l’amiante, en relation avec leur structure et leur longueur. Des études 25 menées sur les rats ont montré que les nanoparticules peuvent être absorbées par inhalation et transportées dans le cerveau où elles s’accumulent. Mais jusqu’à quel point cela provoque des risques pour la santé est une question qui doit encore être étudiée de façon plus détaillée. On n’en sait pas beaucoup plus au sujet des e ets des cosmétiques contenant des nanoparticules sur la santé. Néanmoins, ne s’intéresser qu’aux seules normes de sûreté constitue un autre danger. Une analyse éthique de chaque technologie émergente doit aller au-delà de l’évaluation des risques. En fait, a acher une a ention excessive à l’évaluation des risques peut constituer une manière de d’éviter d’accorder à d’autres questions éthiques l’a ention qu’elles méritent. Ces questions peuvent aller de problèmes anthropologiques à ceux relatifs à la liberté du consommateur, à l’a ribution de brevets, à l’accessibilité et à la justice globale. Plusieurs points de départ éthiques peuvent constituer une base de discussion à ce sujet. Il s’agit des éthiques utilitaristes, ainsi que celles fondées sur les droits de l’homme et sur la dignité humaine. Heureusement, nous ne devons pas inventer la roue. En ce qui concerne les débats sur les politiques à adopter vis-à-vis des problèmes soulevés par les technologies émergentes, telles que la biologie synthétique, les nanotechnologies, ou les technologies de l’information et de la communication, les valeurs véhiculées par un grand nombre de documents internationaux des Nations Unies, de l’Union européenne et du Conseil de l’Europe peuvent servir de base de discussion. Ces documents présentent l’avantage d’avoir fait l’objet d’un débat public et sont parvenus à obtenir un soutien politique. Leur inconvénient est qu’ils sont relativement vagues et restent ouverts à des interprétations multiples. Toutefois, l’aspect positif de ce manque de précision est qu’il facilite le débat sur le sens et les implications des articles de ce type de document. Nous avons besoin de communication, et pas seulement d’information. Perception, epistemics, and ethics: a triple on the specificity of nanotechnologies and their risks perspective Céline Kermisch Cet article propose une analyse de la spécificité des nanotechnologies et des risques qui leur sont associés, en privilégiant 26 plus particulièrement la première génération de nanotechnologies. Il montre qu’elle se manifeste selon trois niveaux : la perception, l’épistémologie et l’éthique. L’étude des a itudes vis-à-vis des nanotechnologies et l’analyse de la perception de leurs risques perme ent de dégager deux caractéristiques essentielles : le manque d’opinion au sujet des nanotechnologies et de leurs risques, et le fait que, au contraire des autres technologies, les experts leur associent des risques plus élevés en matière de santé et d’environnement que le grand public. Du point de vue épistémique, la di culté de définir les nanotechnologies en tant que substances distinctes de leur équivalent non-nanotechnologique est mise en évidence. En outre, l’accent est mis sur les incertitudes considérables qui entourent les nanotechnologies et sur les limites de notre compréhension des processus susceptibles de causer des dommages. En matière d’éthique, nous relevons un certain nombre de particularités, parmi lesquelles la spécificité du débat public aussi bien que les di cultés d’assurer un accompagnement symbolique des nanotechnologies, du recours à la labellisation, de l’application du principe de précaution ou encore de la réalisation d’analyses risques/ coûts/bénéfices. Les nano-artefacts et la distinction entre le naturel et l’artificiel Peter Kroes L’objectif principal de cet article est de vérifier si la distinction entre objets naturels et artefacts techniques peut être transposée du niveau macro au niveau nano. Premièrement, je me propose de fournir une analyse des artefacts techniques de dimension macro, compris comme des objets fabriqués par l’homme et dotés d’une fonction technique. Ensuite, je caractériserai la création ou la fabrication d’un artefact technique au niveau macro comme l’exécution, réussie dans une large mesure, d’un design de cet artefact technique. Une conséquence de ce e conception des artefacts techniques et de leur fabrication est que les artefacts techniques sont des objets tributaires de l’intention. Que l’objet créé par l’homme soit un artefact technique ou non dépend de son histoire intentionnelle. Une analyse de di érentes sortes de nano-objets fabriqués par l’homme (atomes, molécules et autres nano-constructions) montre qu’une telle caractérisation des artefacts techniques et de leur fabrication peut être étendue au domaine nano. 27 Dès lors, il n’est pas nécessaire de revoir la distinction entre naturel et technique quand on passe des objets à ‘échelle macro aux objets à l’échelle nano. Je soutiens également qu’il peut être plus di cile, au niveau nano qu’au niveau macro, de s’assurer qu’un objet fabriqué par l’homme possède l’histoire intentionnelle requise afin de le qualifier en tant qu’objet technique. Ceci constitue toutefois une di érence épistémologique et non ontologique, ce qui peut susciter des problèmes spécifiques, notamment en ce qui concerne l’a ribution de brevets relatifs aux nano-objets. Que sait-on des e ets des nanotechnologies sur l’individuation du vivant ? Yannick Mwape À l’aube du 21ème siècle, les nanotechnologies constituent un pôle de développement majeur dans la recherche scientifique. Leur expansion croise de plus en plus l’approfondissement des connaissances toujours plus précises des mécanismes moléculaires à la base de l’organisation du vivant ainsi que les voies de régulations neuronales des activités cérébrales. C’est pourquoi on parle d’une convergence Nano-BioInfo-Cogno (NBIC) dans laquelle les nanotechnologies deviendraient l’interface de la biologie moléculaire, de l’informatique, des sciences cognitives et des neurosciences. Cela n’est pas sans poser quelques questions à propos de la façon dont les nanotechnologies nous convient à considérer les êtres vivants… Peut-on, en e et, se satisfaire, comme le suggère l’imaginaire accompagnant le discours de promotion des nanotechnologies, d’une vision du vivant comme une collection d’objets réductibles en leurs composants moléculaires (d’ordre nanométrique) ? Aujourd’hui, pourtant, la biologie nous dévoile une tout autre image. La biologie moléculaire, la biologie du développement, l’écologie ou la cytologie parlent de systèmes, fruit de processus complexes d’organisation qui tendent à faire émerger des unités autonomes jamais totalement achevées. Dans notre article, nous proposons de voir de quelle façon la toxicologie est sans doute l’une des disciplines où ce changement de paradigme ne peut pas être négligé. Elle nous interpelle d’autant plus qu’elle nous rend directement compte de la réalité des interactions entre l’organisme et ces nouveaux objets nanométriques dont on 28 a end tant de retombées. Et nous verrons de quelle façon ce e prise en considération de la question de la toxicité nous éloigne de tout présupposé simplificateur qui ferait l’économie de la dimension complexe des êtres vivants. Les nouvelles technologies soulèvent-elles de nouvelles questions éthiques ? Quelques réflexions sur les nanotechnologies. Martin Peterson et Marc de Vries Ce texte poursuit deux objectifs. Le premier est d’apporter une réponse à la question contenue dans le titre : « y a-t-il quelque chose de spécifique ou de nouveau dans le domaine de l’éthique des nanotechnologies ? » Nous montrons que la réponse est positive, mais que ce point de vue n’est pas si banal que l’on pourrait le croire. Le simple fait qu’une nouvelle technologie entraîne d’énormes conséquences sur la société, ou qu’elle provoque des e ets inédits n’implique pas que les aspects éthiques de la technologie en question soient réellement nouveaux. Dans bien des cas, on peut avoir recours aux principes et aux concepts éthiques traditionnels pour analyser les nouvelles technologies. Le second objectif de cet article est plus spécifique : l’analyse des risques liés à certains types de nanotechnologies permet de clarifier les aspects éthiques de ces nouvelles technologies et par là d’illustrer l’idée que, dans certains cas, les nouvelles technologies soulèvent e ectivement de nouveaux problèmes éthiques. Nous défendons l’idée que certaines situations nouvelles en matière de choix moral engendrées par les nouvelles technologies ne peuvent pas – au sens fort – être analysées correctement en se référant à des principes et des concepts moraux traditionnels. Il ne faut pas chercher l’explication dans le fait qu’une analyse correcte de ces nouvelles situations de choix exigerait des principes ou des concepts fondamentalement di érents. La raison en est plutôt que certaines nouvelles technologies rendent impossible, au sens propre du terme, l’application de concepts et de principes traditionnels. Il faut (donc ?) redéfinir et approfondir nos principes et nos concepts déjà en vigueur. Nous utilisons l’expression « limites éthiques floues » en référence aux cas où l’introduction d’une nouvelle technologie rend inapplicables certains principes ou concepts éthiques traditionnels. Dans de telles situations, il n’y a pas de réponse déterminée à la question de savoir comment un principe ou concept éthique devrait 29 être appliqué, pas même pour un agent qui aurait accès à tous les faits empiriques pertinents. L’hétérogénéité des objets nanos : deux nouvelles méthodes pour activer une éthique générique Marie-Geneviève Pinsart Cet article réfléchit sur un type particulier d’objets nanos, ceux formés par un mixte de machine et d’organisme vivant. Il met en question les conceptions épistémologiques et éthiques qui envisagent l’existence des objets nanos et des valeurs/principes éthiques comme des données fournies par des domaines particuliers (celui des sciences et celui de l’éthique), comme des données ontologiquement et épistémologiquement séparées, et comme des données préalables à la tenue d’un débat collectif sur les nanos et leurs enjeux éthiques. Nous avançons deux hypothèses : la première soutient que le savoir des objets nanos (machine-organisme vivant nano) est un savoir générique portant sur des objets hétérogènes ; la seconde qu’un savoir générique exige une éthique générique. Un objet hétérogène ne permet plus une synthèse intuitive car il est indéterminé et se construit selon les intentions des disciplines et des acteurs qui le me ent en œuvre. L’éthique doit alors être conçue comme une dimension non définie a priori et dépendant elle aussi de la rencontre des intentions et des acteurs construisant l’objet nano. Nous proposons deux méthodes de mise en œuvre de l’éthique générique adaptée à l’hétérogénéité des objets nanos : 1. une méthode dite du « sans » qui procède en me ant entre parenthèses un élément de la réflexion pour évaluer son impact sur les autres aspects problématiques ou pour le reconstituer à partir de matériaux nouveaux ; 2. une méthode fondée sur une adaptation de la matrice éthique de Ben Mepham dans laquelle les valeurs éthiques ne sont pas déterminées à l’avance. Ce e réflexion prolonge dans le domaine des nanotechnologies les résultats d’un travail collectif mené au cours d’un projet de recherche financé par l’ANR de 2007 à 2010 et portant sur les OGMs aquatiques. 30 Nanotechnologies et « innovation responsable » : sur la gouvernementalité d’un concept François Thoreau Les nanotechnologies sont l’occasion du déploiement d’un discours de politique publique autour de l’idée d’une « innovation responsable ». Ce développement a été constaté à de nombreuses reprises et il est aujourd’hui acquis qu’il est incontournable, pour qui s’intéresse aux enjeux politiques des nanotechnologies. Toutefois, peu d’études systématiques ont pris la peine de décortiquer ce concept, ses significations conflictuelles et, finalement, l’ordre du politique qu’il produit. Notre contribution identifie une tension fondatrice sousjacente à ce concept « d’innovation responsable », qu’elle approfondit dans le but de mieux cerner sa gouvernementalité, c’est-à-dire le mode d’exercice du pouvoir qui s’incarne dans des instruments de politique publique. Pour ce faire, ce chapitre se penche tout d’abord sur l’incidence du choix du terme de « responsable » sur un plan théorique, tel que ce dernier a profondément été reconfiguré par les sciences sociales. Après avoir émis une série d’hypothèses à ce sujet, il entreprend de confronter « l’innovation responsable » à la pratique des instruments de politique publique, de manière à mieux comprendre quel ordre du politique ce concept est en train de stabiliser. Ainsi sont notamment examinés les grands plans stratégiques adoptés respectivement aux États-Unis et dans l’Union européenne, et certaines de leurs déclinaisons opérationnelles. En fin de compte, quelle réponse « l’innovation responsable » apporte-t-elle à la tension fondatrice qui l’anime ? À la recherche des « justes » impacts de la science et des technologies. Vers un cadre pour la recherche et l’innovation responsables. René von Schomberg Nous proposons une stratégie pour une recherche et une innovation responsables, qui soit plus particulièrement d’application dans le domaine des nanosciences et des nanotechnologies. Nous discuterons des caractéristiques d’une telle stratégie, qui concerne aussi bien la dimension « produit » que la dimension « processus » de la recherche et de l’innovation. En ce qui concerne la dimension « produit », une stratégie de recherche et d’innovation responsables exige de prendre en compte un certain nombre d‘évaluations (prévoyance, technology 31 assessment, etc.) et d’appliquer le principe de précaution. En matière de processus, ce type de stratégie s’appuie sur des éléments essentiels, à savoir inclure les acteurs sociaux dans le processus d’innovation, déployer des mécanismes de so law, conférer aux principes éthiques un rôle moteur dans l’innovation, et promouvoir le débat public. Une telle stratégie suppose de me re davantage l’accent sur la gouvernance de l’« innovation » des technologies émergentes que sur la gouvernance de leurs risques. 32 Abstracts Which ethics for nanotechnology? Assessment of the current programs and perspectives Bernade e Bensaude-Vincent In a large number of countries, the research programs in nanotechnology include a section “Ethical, legal and societal issues” (ELSI). The integration of an upstream reflection on ethical and societal aspects of innovations undeniably constitutes a progress comparing to the blind approaches of the past (justified by the saying “You can’t stop progress!”). However, it remains insu cient for several reasons that we will try to put forward. Nanoethics and posthumanism Mylène Botbol-Baum If the technoscientific advancements suppose indetermination, nanomedicine seems to develop without preliminary debate, which goes against the notion of consent. However, nanomedicine is used in hospitals, even though the majority of the patients are unable to define it. Nanomedicine revives thus the dividing epistemological debate on the ability of technoscience to free ourselves or to alienate ourselves and to – at least – disturb the biological rhythms of the living with an enhancement and/or therapeutic purpose. This debate leads us to rethink the classical mechanistic representations of the fears coming from the alteration of the “laws of nature”, as if these were not subject to a permanent re-organisation or self-organisation, from which new biopolicies possibilities or thanatopolicies are emerging – without preliminary articulation of risk and freedom. The concept of self-organisation is too o en associated with some kind of irresponsible freedom or pride of the control of ma er. We will confront the classical mechanistic epistemology and the epistemology of self-organisation in order to sketch – rather than a posthumanist 33 ethics justifying nanomedicine – a discourse, which would respond to the questioning that nanotechnology operates on the dichotomy between the living and the lifeless at the nanoscale in terms of disturbed oscillations of the rhythms of the living, from which posthumanist representations can emerge, which would not be opposed to humanist values, but which would question their limits, or even their failures to articulate the real to its representations. This will allow us to question the inference whereby the notion of technoscience and the idea of otherness loss are ineluctably associated, in order to suggest that it could also contribute to elaborate a forthcoming meaning, based on a less dualistic surveying between the living and the lifeless, between the real and the knowledge of the real, but also based on the impact on our capacity to assess enhancement ethically. Inequalities and anthropotechnics Dominique Bourg I will not address the issue of nanotechnology in general, but rather in their contribution to anthropotechnics. I understand anthropotechnics as the set of techniques aiming at the permanent alteration of the functioning of the human body. The most ambitious project a ributed to these techniques is an alteration of the biological substratum of the human condition, in order to transform this condition. I intend to show the di culties of such a project, and more specifically in terms of universality. I do not know to what extent it is possible to alter the human condition, but I fear that such a purpose will only result in increasing inequalities within mankind. Nanotechnology and ethics. Policies and strategies Philippe Busquin The UNESCO World Commission on the Ethics of Scientific Knowledge and Technology has published a first report, Nanotechnologies and ethics: policies and actions in 2008. This independent organism constituted by decision-makers and scientists from every continent is going to update this document, because nanotechnologies are being developed rapidly, everywhere in the world (more than 1000 products already commercialized). This shi of 34 paradigm questions by its potentialities, but also by its uncertainties. Debates are necessary. The European Union is at the origin of numerous conferences, and also researching codes of conduct – if possible acceptable at a global level. The ethical stakes are fundamental: transparency and responsibility in front of the public, risk assessment, international cooperation, … Moreover, converging technologies lead to another dimension, which is the risk of “transhumanism”; and they question the meaning of human values. Finally, I have to mention the “black hole” constituted by military research and the security issues in these domains. Europe’s collective experiment with nanotechnologies as a construction of possible futures : political and ethical stakes Jim Dratwa Imagine the world a few decades from now. How would you like it to be? This paper scrutinizes the ways in which futures are made – and made to come to pass. It probes the role of ethics and social sciences engagement as well as public engagement in shaping the future with nanosciences and nanotechnologies. Firstly, it explores the relations of the European Union (EU) with the future – with the very endeavour of constructing futures. Secondly it examines the import of sciences and technologies in this endeavour. Thirdly it analyses, on the terrain of the EU institutions, contrasting narratives of – and calls for – nanosciences and nanotechnologies. Finally, it provides a critical appraisal of – and renewed vigour to – the engagement in the collective experiment with nanosciences and nanotechnologies. The European regulatory framework of nanotechnologies: ethics between research and industrial development Nicole Gallus The jurist has to face an ever-increasing number of texts when it comes to European law about nanotechnologies. This over-regulation reflects the di culties generated by the uncertainties surrounding nanomaterials and their risks, as well as by the application constraints of the precautionary principle in front of these uncertainties and of the motivations of the di erent stakeholders: scientists, industrialists, consumers, regulators. 35 This contribution dedicated to European law viewed from an ethical perspective goes beyond this normative complexity, focusing the analysis of the law on three questions, which seem to constitute the base for a necessary reflection. The first tries to find a definition of nanomaterials and nanotechnologies, susceptible to specify the scope of application of the standard. The second question intends to specify the aim of the standard in terms of research, industrial development, protection of individuals and the environment, an in terms of ethics. Finally, the third question is about the content of the standard with, more specifically, the questioning of the opportunity for a specific new regulation or of a simple adaptation of the existing regulation. Nanotechnology, nano-luddism, neo-luddism Jean-Yves Go Some think that the opposition between technophiles and technophobes is obsolete. Nevertheless, in the debates and confrontations about nanotechnologies, it is di cult not to consider the pros and the cons as friends and enemies of technology – even though they (dis)qualify each other as futurists or as neo-luddites. We will examine several wri en documents from activists from Grenoble, who are close to the radical group PMO (pièces et main d’oeuvre) in order to understand their “arguments” as they are put into action. We will abstain from assessing the validity of these “arguments” in the literal sense. Indeed, it seems that their authors do not really care about establishing, in a conclusive way, that when the premises are laid out, a conclusion necessarily follows. Rather, it is about troubling the reader; this rhetoric dimension explains why we are speaking of “arguments” instead of arguments without quotation marks. This does not prevent these wri en documents from being e cient in their own way: they create suspicion and interrogation, which is probably their purpose. 36 We will suggest that these “arguments” are in fact more directed against the techno-liberal modernity than against nanotechnology as such. We will insist on the fact that this radical opposition is not led in the name of the past, nor in the name of the present, nor in the name of the future: it does not promise anything, it is a posture of pure negation. In that sense, it leads to an infinite guerrilla warfare, which will emphasize the shameful practices of their opponents, without preventing them from reaching their aims. Small particles, big issues. Nanotechnologies and ethics Göran Hermerén There are several nanotechnologies and many applications of these technologies; and they raise partly di erent problems. According to recent publications spectacular progress is made in many areas. These technologies are used in the car industry, in aerospace industry, in the chemical industry, in the pharmaceutical industry, in medicine and biotechnology, in information and communication technologies, as well as in the cosmetics and food industries. But the spectacular progress does not mean that all ethical issues are solved. Safety issues are obviously important. There are indications that certain types of carbon nanotubes give rise to asbestos-like pathogenic e ects related to their structure and length. Studies on rats have shown that nanoparticles can be absorbed by inhalation and then transported to the brain where they accumulate. But the extent to which this gives rise to health hazards remains to be studied in more detail. Li le is also known about the health impact of cosmetics containing nanoparticles. However, there is also a danger in focussing only on standards of safety. An ethical analysis of any emerging technology needs to go beyond risk assessment. In fact, excessive focus on risk assessment can be a way of preventing other ethical issues from ge ing the a ention they deserve. These issues range from anthropological issues to consumer freedom, patenting, access and global justice. There are several well-established ethical points of departure for the discussion of such issues, including utilitarian ones, as well as those based on human rights and human dignity. Fortunately, we do not have to invent the wheel. For the policy debates on problems 37 raised by new and emerging technologies, like synthetic biology, nanotechnologies, information and communication technologies, a starting point can be found in the values enshrined in a number of international documents from the UN, the EU and the Council of Europe. These documents have the advantage that they have been discussed publicly and have managed to get political support. The disadvantage is that they are somewhat vague, and are open to several interpretations. But the positive side of this vagueness is that it facilitates a living debate on the meaning and implications of the articles in these documents. Communication, not just information, is needed. Perception, epistemics, and ethics : a triple perspective on the specificity of nanotechnologies and their risks Céline Kermisch This paper analyses the specificities of nanotechnologies and their risks, focusing mainly on the first generation of nanotechnologies. It shows that specificities can be found at three levels: at the perception level, at the epistemic and at the ethical levels. When analysing the a itudes towards nanotechnologies and the perception of their risks, two specificities stand out: the absence of opinion about nanotechnologies and their risks and the fact that, to the contrary of other technologies, scientists perceive higher risks than the general public in the field of health and environment. At the epistemic level, the di culties to define nanotechnologies as substances, which are di erent from their non-nano-equivalent, are shown. Moreover, the considerable uncertainties, associated with the fact that the understanding of the processes potentially leading to damage is very limited, are highlighted. At the ethical level, we stress several particularities, among which the specificities of the public debate as well as the di culties to frame nanotechnologies symbolically, to require labelling and the application of the precautionary principle, or to perform risk/cost/benefit analysis. 38 Nano-artefacts and the distinction between the natural and the artificial Peter Kroes The main aim of this paper is to enquire whether the distinction between natural objects and technical artefacts may be extended from the macro-level to the nano-level. I start with an analysis of macrosized technical artefacts as human-made objects with a technical function. Furthermore I will characterize the creation or making of a technical artefact at the macro-level as the largely successful execution of a design of that technical artefact. A consequence of this conception of technical artefacts and their making is that technical artefacts are mind-dependent objects. Whether or not a human-made object is a technical artefact or not depends on its intentional history. An analysis of various kinds of human-made nano-objects (atoms, molecules and other nano-constructions) shows that this characterization of technical artefacts and their making may be extended to the nano-domain. So, there is no need to revise the distinction between the natural and the technical when going from macro-objects to nano-objects. I also argue that it may be more di cult to ascertain whether a human-made object has the requisite intentional history to qualify as a technical artefact at the nano-level than at the macro-level. But this is an epistemological di erence, not an ontological one, that may create specific problems with regard to, for instance, the patenting of nano-objects. Questioning toxicity of nanotechnology. “What do we know about the impacts of nanotechnology on the individuation of the living?” Yannick Mwape In the early 21st century, nanotechnology constitutes a major development pole in scientific research. Its expansion comes increasingly across the deepening of ever more precise knowledge of the molecular mechanisms at the base of the organisation of the living as well as the neuronal regulation ways of cerebral activity. Therefore, we speak about a NBIC convergence, in which nanotechnology would become the interface between molecular biology, information technology, cognitive science and neuroscience. This leads to several questions about the way nanotechnology invites us to consider living beings… 39 Indeed, can we be satisfied with a conception of the living as a collection of objects, which can be reduced to their molecular components (at the nanometer scale), as suggested by the imaginary world which goes with the discourse of nanotechnology promoters? Today, however, biology reveals a whole other image. Molecular biology, development biology, ecology or cytology are about systems resulting from complex organisational processes, which lead to the emergence of autonomous units never totally completed. In this paper, we propose to examine how toxicology is probably one of the disciplines where this shi of paradigm cannot be neglected. It is all the more questioning that toxicology reflects directly the reality of interactions between an organism and these new nanoobjects from which we expect so many a ermaths. We will see how taking the question of toxicity into consideration keeps us away from all the simplifying presuppositions, which would neglect the complex dimension of living beings. Do new technologies give rise to new ethical issues? Some reflections on nanotechnology Martin Peterson and Marc J. de Vries This paper has two aims. The first is to answer the question stated in the title: Is there anything special or novel about the ethics of nanotechnology? We argue that the answer is yes, but claim that this thesis is not as trivial as one may think. The mere fact that a novel technology has a huge impact on society, or has e ects that were previously unheard of, does not entail that the ethical aspects of the technology in question are novel. In many cases, old ethical principles and concepts can be used for analysing novel technologies. The second aim of the paper is more specific: By analysing the risks of certain types of nanotechnology, we bring more clarity to the ethical aspects of these novel technologies and thereby exemplify our claim that in some cases novel technologies do actually give rise to novel ethical issues. Our point is that some novel moral choice situations brought about by novel technologies cannot, in a strong sense, be properly analysed by applying old moral principles and old moral concepts. This is not because a proper analysis of these novel choice situations would require some fundamentally di erent principles or concepts. The reason is that some novel technologies make it impossible, in a strong 40 sense, to apply the old moral principles and concepts we are familiar with. Our existing principles and concepts need to be refined and developed further. We use the expression “blurred ethical boundary” for referring to cases in which the introduction of a novel technology makes some traditional ethical principle or concept inapplicable. In such situations, there is no determinate answer available, not even for an agent who has access to all relevant empirical facts, to how an ethical principle or concept should be applied. The heterogeneity of nano-objects : two new methods for a generic ethics Marie-Geneviève Pinsart This paper focuses on a particular type of nano-objects, the ones composed of artificial device and living organism. It challenges the epistemological and ethical conceptions, which considers the nanoobject and the ethical principles/values as pre-existing facts discovered or constructed by specific disciplines (sciences or ethics), as separate ontological and epistemological facts, and as facts needed for a public debate on the ethical aspects of nano-objects. We are making two hypotheses: first that the knowledge about nano-objects (mixing artificial device and living organism) is a generic knowledge about heterogeneous objects, and second that a generic knowledge requires a generic ethics. It is impossible to make an intuitive synthesis of a heterogeneous object because it is unspecified and its construction depends on intentions and on people involved. This has important consequences for ethics, as it becomes a generic ethics that has an unspecified dimension and that depends also on intentions and on people involved. We suggest two methods for implementing this kind of ethics adapted to heterogeneous nano-objects: 1. a method pu ing in brackets one element of the reflection in order to evaluate its impact on the other aspects of the problem or to try to find its specificity in a new manner; 2. a method adapting the ethical matrix of Ben Mepham where ethical values are not determined in advance. This paper intends to extend in the nano area the results of a research conducted in 2007-2010 by the ANR (France) on the aquatic’s GMOs. 41 Nanotechnologies and “responsible innovation” : on the governmentality of a concept François Thoreau Nanotechnologies set the stage for the rise of an important discourse in public policies around the idea of a “responsible innovation”. This development has already been documented in numerous ways and it is today recognized that this idea do ma er to whom has an interest in the politics of nanotechnologies. However, few extensive studies so far are a empting to come to grasp with this concept, its contested meanings and, eventually, which political order it suggests. Our contribution identifies a deep tension that underpins the concept of “responsible innovation”, which it undertakes in order to be er understand its governementality, i.e. the way it intends to exert power relations through public policy instrumentation. For this purpose, this chapter deals first with the implications of the choice to use the term “responsibility”, on a theoretical level, as this term significantly evolved through social sciences. From these, it o ers a set of hypothesis, which it then confronts to the practices of “responsible innovation” in public policies instrumentation, in order to be er understand which political order this concept is currently stabilizing. In particular, broad strategic plans are addressed, both from US and EU and more specifically some of their practical implementations. By the end, our chapter a empts to unfold the answers through which “responsible innovation” deals with its own fundamental tension. The quest for the “right” impacts of science and technology. An outlook towards a framework for responsible research and innovation René von Schomberg A strategy towards responsible research and innovation is proposed, which is in particular applicable to the area of Nanosciences and Nanotechnologies research and innovation. The features of such a strategy, which addresses both the «product» and «process» side of research and innovation will be discussed. At the product side, a responsible research and innovation strategy needs to take into account various assessments (foresight, technology assessment, etc.) and applying the precautionary principle. At the process side, 42 including societal actors into the innovation process, deploying so law mechanisms such as codes of conducts, making ethical principles a driving force for innovation and promoting public debate are essential elements for such a strategy. This strategy implies a shi of emphasis from «risk» governance to «innovation» governance of emerging technologies. 43 Première partie Enjeux philosophiques et éthiques Nano-artefacts and the distinction between the natural and the artificial Peter Kroes1 Introduction : the natural versus the artificial When we are dealing with macro-objects the distinction between the domain of natural and the domain of artificial things and processes plays an important role in human thinking and doing. For instance, in most countries patents may be obtained for a specific kind of artificial things, namely inventions, if these inventions satisfy certain criteria but patent laws forbid patents on natural things2. Roughly, the distinction between the two domains is still drawn in an Aristotelian way as the distinction between on the one hand objects and phenomena that have come about without human intervention, that is, have come about by their own nature or principle of motion/evolution, and on the other hand objects and phenomena created intentionally by human beings. For various reasons the distinction may be and has been put into question. First of all, the distinction raises fundamental issues about the place of human beings in relation to nature: Are human beings an integral part of nature and, if so, does that not imply that what humans make, even if they do so intentionally, is also an integral part of nature? Furthermore, it turns out to be di cult to draw a clear boundary line between the two domains. Is, e.g., a cultivated flower an artefact or a natural thing? I will not enter into a discussion of these issues. In my opinion they do not undermine the claim that, leaving issues about borderline cases aside, the distinction between the natural and the artificial may be made in a coherent way and that it plays a fruitful conceptual role in various contexts at the macro-level. The main problem to be addressed in this paper is whether the distinction between the natural and the artificial, more in particular 1 Del University of Technology For a discussion of the notion of invention from a legal point of view, see (Vaver 2003). 2 47 between the natural and the technical, can be extended from the macrodomain to the domain of nano-objects and nano-processes. Is it possible to distinguish between technical artefacts and natural things at the nano-level in the same way as at the macro-level? In order to explore this, I start with a characterization of the distinction between technical artefacts and natural things at the macroscopic level and with a brief discussion of what it means to make or create a technical artefact at the macro-level (section 2). Against this background I discuss whether various kinds of nano-objects produced by human beings, including atoms, molecules and other nano-constructions, may be characterized as technical artefacts (section 3). My overall conclusion (section 4) will be that the distinction between natural objects and technical artefacts makes sense at the nano-level but that issues about whether a humanmade object is a technical artefact or not may come up much more prominently at that level than at the macro-level. One of the reasons for this is that at the nano-level it is more di cult to ascertain whether a human-made object has the requisite intentional history. The natural and the artificial at the macro-level The world in which we life is to a large extent a world created by humans and therefore largely an artificial world. Here we will confine our a ention to a particular sub-domain of this artificial world, namely the technical world. The technical world is made up of technical artefacts such as screwdrivers, knifes, telephones, cars, staplers, computers, bricks, roads, et cetera (and technical processes). We live our life with and through them. In contrast to natural things, such as rocks or birds, these technical artefacts are objects with a function or a “for-ness”: they are means for doing things, that is, they are means to be used for realizing certain ends. So, technical artefacts may be characterized as human-made physical constructions that fulfil practical functions. Alternatively, they may be characterized as useful physical objects that are based on or embody intelligent human designs. On both, more or less equivalent, characterizations technical artefacts are the result of human mental and physical work. This conception of technical artefacts leaves lots of room for borderline cases, for one may rightly ask just how much human mental and physical work is necessary to turn, e.g., a piece of flint stone into an instance of the technical kind 48 knife. In my opinion we do not pass a “natural” neatly defined point beyond which objects become natural if we trace back the lineage of modern knifes to their flint stone predecessors. However, the fact that there is a continuous spectrum running from natural flint stones (that may be used as knifes) to modern day knifes does not invalidate the claim that the la er are paradigmatic examples of technical artefacts and the former of natural things3. At the macroscopic level paradigmatic examples of technical artefacts are therefore distinct from natural objects because (1) they are human-made and (2) have functional features. Both aspects are of crucial importance. Biological organs have functional features but are not human-made and thus not technical artefacts. Moreover, the functional features of biological organs (biological functions) are not related to human use in contrast to the functional features of technical artefacts; humans do not “use” their heart to pump blood.4 Likewise, a piece of flint stone used for practical purposes is not a technical artefact if it has not been cra ed by humans for that purpose (if it is to be considered something technical at all, it may be considered to be a technical object). Functional features also play a crucial role in being a technical artefact. A human-made physical object without functional features is not a technical artefact. Take an object like a screwdriver. The physical object corresponding to the screwdriver is human-made, but it is not a technical artefact. The reason is that that physical object lacks functional features. What makes the human-made physical object into a technical artefact are its functional features (the form of the tip of the screwdriver has a particular function, as has the handle and the sha et cetera). These functional features tie technical artefacts inherently to practices of human action. In order to further clarify this di erence between natural objects and technical artefacts is helpful to have a closer look at what it means to make or create a technical artefact at the macro-level. Unfortunately there is no standard “philosophy of creating or making” that may 3 Similar arguments can be made with regard to the smooth transitions between biological technical artefacts and natural organisms and between technical artefacts and social artefacts; see (Kroes forthcoming). 4 Human-made biological organs (for instance, grown from stem cells), if made for practical purposes (to replace malfunctioning human organs) are to be considered technical artefacts; they are used and thus related to practices of human action. 49 be of help in dealing with this problem. I will approach it from an ontological perspective. Creating a technical artefact then amounts to adding a new (kind of) object to the ontology of the world. Under what conditions does human mental and physical activity result in an object that enriches an ontology? The answer to this question depends heavily on assumptions about what kind of objects may be part of the ontological structure of the world. Suppose that the basic ontology of the world is taken to consist of elementary physical particles and that all other things are considered to be ontologically reducible to these particles. From such a physicalist position the creation of technical artefacts has no ontological significance. The creation of a (technical) artefact amounts to nothing more than rearranging some of the basic ontological constituents of the world, that is, rearranging elementary physical particles. From this perspective Michelangelo only rearranged elementary physical particles when he created the statue David. This statue itself is not part of the ontology of the world; it is nothing else then a bunch of particles arranged “David-wise” and so Michelangelo did not add anything to the ontology of the world. Similar arguments apply to the creation of technical artefacts. By inventing and making his gramophone Edison did not add anything to the ontology of the world, since a gramophone is nothing else than elementary particles arranged gramophone-wise. In the following I will assume that technical artefacts may be ontologically significant (real) in the sense that a world with technical artefacts such as cars, computers and cell-phones is ontologically di erent from a world without those artefacts. So, human creations such as technical artefacts and (physical) works of art may be genuine parts of the ontology of the world. But of course not any human creation that is claimed to be a technical artefact is ipso facto part of the ontology of the world. For instance, somebody may claim to have invented and made a new kind of cell phone but if it turns out that it does not work at all, then (s)he has not enriched the ontology of the world with a new kind of technical artefact. At most (s)he has added a piece of junk to the ontology of the world. So, what conditions have to be fulfilled in order for the outcome of human mental and physical work to be a genuine technical artefact and as such is an element of the ontology of the world? For an interesting way of dealing with this question I turn to the work of Amie Thomasson (Thomasson 2003, 2007). She has worked 50 out a theory about when an object is an instance of an artefact kind. According to this theory, and object x is an instance of an artefact kind K if and only if x is the result of a largely successful execution of a largely correct substantive idea of a K-er. So, the ontologically significant creation of an artefact involves mental and physical work : the mental work of forming a largely correct substantive idea of what kind of artefact is being created and the physical work of executing that idea, that is, of materially realizing that idea. Thomasson’s theory is a theory about artefact kinds in general. When applied to technical artefact kinds, the largely correct substantive idea amounts to a largely correct design and the largely correct execution to making a physical construction that satisfies the list of specifications which is part of the correct design. Thus, an object x is an instance of a technical artefact kind K if and only if x is the result of a largely successful realization of a largely correct design of a K-er (for more details, see (Kroes 2010)). A consequence of the above conception of technical artefacts is that they are mind-dependent entities. The intentions (mental states) of the maker are of critical importance for something to be a technical artefact. Somebody who makes a physically exact copy of an existing technical artefact, but who does not know what (s)he is making, is not making a technical artefact, but instead makes a human-made physical construction that lacks any functional features. Earlier I characterized technical artefacts as physical constructions with functional features. In contrast to the physical features of technical artefacts these functional features are, however, not intrinsic properties of technical artefacts. They are relational properties, since they are related to human intentions (human ends); it is only in relation to human intentions (ends) that technical artefacts have functional features. These functional features are also related to the physical properties of technical artefacts, since the physical construction has to realize the function. This means that technical artefacts have a dual nature; they are human-made objects with physical features and with functional (intentions-related) features. Both kinds of features are constitutive for being a technical artefact5. 5 For more information about the dual nature view of technical artefacts, see (Kroes 2006) 51 The natural and the artificial at the nano-level With this view on technical artefacts and on how they are made at the macro-level in mind, I will now turn to the nano-level. Can this view be extended to that level? In order to explore this, I will consider the making of various kinds of objects at the nano-level and discuss whether the human-made objects involved are to be considered artificial or natural objects and, if artificial, whether we are dealing with technical artefacts. The first human-made nano-objects that I will consider are atoms of the element Americium. It is one of the transuranic elements with atom number 95. This element has a very short lifetime in comparison to the age of the Earth and as a result atoms of Americium do not occur naturally in our environment. They have to be made “synthetically” or “artificially” in the laboratory6, usually with the help of particle accelerators or nuclear reactors. The first human-made specimen of the element Americium was produced by Seaborg in 1946. He applied for a patent on the element and some of its isotopes; it was granted in 1964 (United States Patent O ce, no. 3,156,523). This is rather surprising, for as I will argue Americium atoms, in spite of the fact that they are human-made, are not human inventions; they are natural objects and not artificial ones, and natural objects, not being human inventions, are not eligible for patents. In order to make clear why it is a natural thing it is instructive to compare an Americium atom with a macroscopic technical artefact, for instance a stapler (see Table 1). Both objects involve human-made physical constructions that do not occur naturally (by themselves or “from their own nature”) on Earth. However, whereas the Americium atom as such has no technical function, the stapler has. Without its functional features the physical object referred to as “stapler” is not a stapler, but just a human-made physical construction; as I noted before, functional features are constitutive for being a technical artefact. This di erence in functional features is related to the fact that the stapler is a physical object that is based on a human, intelligent design, whereas this is not true for the Americium atom. 6 See h p://www.scienceclarified.com/El-Ex/Element-Chemical.html 52 Americium Atom Stapler Human-made physical object Human-made physical object Not occurring naturally on Earth Not occurring naturally on Earth No technical function by itself Technical function by itself Not based on intelligent design Based on intelligent design Natural object Technical artefact Table 1 Comparison of Americium atom with a technical artefact The main reason why in my opinion the Americium atom, in spite of the fact that it is a human-made thing, is a natural object and not an artificial one is that none of its properties has been designed into it. None of the physical properties of an Americium atom is the outcome of a to some extent free human decision to make it that way, with that property and not otherwise; all physical properties it has, it has by itself or from its own nature. There are so to speak no degrees of freedom to shape an Americium atom7. Therefore, an Americium atom is not a human invention. In this respect there is no di erence between an Americium atom as a human-made object and any other naturally occurring atom, such as an Oxygen atom. I see no reason to classify one as an artefact and the other as a natural object. This is in line with Thomasson’s conception of what makes an object an artefact. A human-made Americium atom is not the outcome of a largely successful execution of a largely correct substantive idea of being an Americium atom, if it is assumed that that substantive idea involves properties determined by human decisions8. 7 This is also true if we take the isotopes of Americium into account. We are of course free to create Americium atoms with mass number 241 and 242 (in a similar vein as we are free to create Americium atoms in a certain exited state). However, the physical property of Americium atoms that it has these isotopes (or exited states) is not a humanly created property. It has these properties by “its own nature” and these properties are part of what it means to be an Americium atom. In other words, we are free to create Americium atoms in various forms, but all these forms are natural forms and not artificial ones, since we are not free to shape these forms themselves. 8 The assumption that the substantive idea of an object must involve properties based on human decisions is necessary because otherwise Thomasson’s conception of an artefact runs into di culties. Suppose that a physicist has a correct substantive idea of what a natural Americium atom is and correctly builds one (correct execution) from elementary particles. Is the resulting 53 Note that I am not claiming that specimens of Americium (objects made of Americium) are natural things. Specimens may be made with certain intended properties in mind (for instance, weight or form) and according to the above line of reasoning that would make them artefacts; they have “human-made” properties. Moreover, if these properties are related to technical functions then the specimens are technical artefacts, just as a specimen of iron shaped in a specific functional way is a technical artefact. So if Seaborg would have been granted a patent on a specific kind of useful specimen of Americium, this might not have been so problematic. However, he was granted a patent on the element itself. My claim is that (an atom of) the element Americium is a natural thing, not a human invention, and that therefore it should not be eligible for a patent. So, both the Americium atom and the stapler are human-made objects, nut nevertheless the former is a natural object and the la er a technical artefact. The reason for this di erence is related to an ambiguity in the notion of making or creating something. In order to unearth this ambiguity I briefly turn to Ian Hacking’s claim that physical phenomena are created (Hacking 1983)9. In his book Representing and Intervening he claims that in experiments phenomena are created by the scientist. He rejects the idea that experimental scientists discover phenomena in the world. “To experiment” in his own words (Hacking 1983, p. 230 and 222) “is to create, produce, refine and stabilize phenomena”, a phenomenon being “something public, regular, possibly law-like, but perhaps exceptional”. Discussing the example of the Hall e ect, he states that this e ect was not found by Hall simply because it did not exist before Hall succeeded in producing this e ect in the laboratory. It was literally created by him, because this e ect does not exist without the appropriate experimental setup. If science would have taken another historical path, the Hall e ect might never have been created. The most striking feature of Hacking’s view is that it suggests a Americium atom a natural object or an artefact? The object made is intended to be a copy of a natural object but satisfies Thomasson’s definition for being an artefact. So, is it a natural object or an artefact? From a physical point of view, there is no di erence between the natural and the human-made Americium atom and therefore from that point of view they may both be considered natural atoms. 9 For an extensive discussion and criticism of Hacking’s view of creating phenomena see (Kroes 2003). 54 rather strong parallel between experimental science and technology. The classic distinction between the two is related to the idea that the engineer creates (invents) whereas the scientist discovers. But according to Hacking not only the engineer creates things (technical artefacts), also the experimental scientists creates things (phenomena). But does this parallel imply that experimental phenomena are created in just the same sense as technical artefacts are? Are experimental phenomena therefore also artificial phenomena and may they be said to be human inventions? The answers to these questions depend on the interpretation of the claim that phenomena are created. This claim may be interpreted in a weak and strong sense. In the weak sense, creating phenomena means creating the occurrence of phenomena, i.e., creating the proper initial and boundary conditions for a phenomenon to take place. In the case of Americium atoms, creating an Americium atom means creating the conditions for an Americium atom to appear, not creating or shaping the properties of an Americium atom itself. If we interpret Hacking’s claim in this weak sense we end up with a position that is very close to the traditional one according to which experimentalist study natural phenomena. In the strong sense, creating phenomena means not only that the occurrence of a phenomenon is triggered by creating the appropriate conditions, but also that all or some of the properties of the phenomenon itself are created by the experimentalist. Although Hacking stresses that in his opinion phenomena are literally created, it is quite obvious that this expression should be taken in the weak sense. Otherwise, as Hacking remarks, we would be driven into “some sort of ultimate idealism in which we make the phenomena”, i.e., in which we invent the phenomena (Hacking 1983, p. 220). In my opinion, the creation of physical phenomena is not to be confused with the creation of technical artefacts. Much more is involved in creating a technical artefact than realising a specific set of boundary conditions that triggers the occurrence of certain physical phenomena. What happens when technical artefacts are created is that objects are made with physical and functional properties that are the result of human (design) decisions. So, the creation of a technical artefact is the creation of an object in the strong sense. Whereas the creation of an Americium atom is a weak form of creation, the creation of a stapler involves creation in the strong sense. This di erence is the reason why an Americium atom, in spite of the fact that it is human55 made, is nevertheless a natural object and that a stapler is a (technical) artefact. Let us move on to other kinds of nano-objects. Nothing much changes when instead of the making of Americium atoms that do not occur naturally on Earth we consider the making of atoms that do, for instance, Oxygen atoms. Also these can be made artificially, but still we are dealing with natural and not artificial objects. Now, what about the making of molecules, such as an acetylsalicylic acid molecule (ASA-molecule), which is the active component of an Aspirin pill? An Aspirin pill, as a macro-specimen of acetylsalicylic acid, is a humanmade object and has a practical/technical (medical) function and so is a technical artefact. But here we are interested in technical artefacts at the nano-level. What is an individual, human-made ASA-molecule: Is that a natural or an artificial object, and if the la er, is it a technical object? On the one hand, the same applies to an ASA-molecule as to an Americium atom. ASA-molecules do not occur naturally on Earth; they are human-made. However, none of the physico-chemical properties of an ASA-molecule is based on a human design decision. All its properties are determined by the atoms of which the molecule is composed, its structure and the laws of nature. There are no design parameters that have to be fixed in order to shape all the physicochemical properties of an ASA-molecule. According to this line of reasoning, an ASA-molecule is a natural object. On the other hand, from a brief look at the history of Aspirin a di erent picture emerges. The medical e ects of Aspirin are due to salicylic acid, a chemical compound that occurs naturally, in for instance, willows. The use of medicines made from willow bark extract dates back to Antiquity. From the beginning of the Nineteenth Century chemist have tried to artificially make the active component in this extract. In the course of time various chemical substances related to salicylic acid have been tried as a medicine but these had negative side e ects10. Finally, the artificially produced substance acetylsalicylic acid turned out to be the most e ective one and was produced and marketed as Aspirin. From this perspective it seems that ASA-molecules, as a medicine against fever, pain and inflammation, were more or less intentionally designed. The salicylic acid group is included because of its positive medicinal functions and the acetylgroup was deliberately added to the active component because it 10 56 See h p://en.wikipedia.org/wiki/History_of_aspirin. did not have the negative side e ects that other groups had. So, the structure of ASA-molecules appears to be the result of particular design decisions. From this perspective it seems that an ASA-molecule is a technical artefact at the nano-level. ASA-molecule Aspirin molecule t Human-made physical objec Human-made physical object Not occurring naturally on Earth Not occurring naturally on Earth No technical function by itself Technical function by itself Not based on intelligent design Based on intelligent design Natural object Technical artefact Table 2 Comparison of ASA-molecule with an Aspirin molecule Although it may sound paradoxical, both conclusions are right: an ASA-molecule as a chemical compound is a natural object and an ASA-molecule as a medicine against fever et cetera is a technical artefact. These claims do not contradict each other because they are claims about two di erent kinds of objects. In order to make this clear let me introduce the notion of an “Aspirin molecule”. An Aspirin molecule is defined as a human-made molecule for curing fever, pain and inflammation and of which the active component is salicylic acid. So, an Aspirin molecule has a certain function. This function may be realized by designing and making Aspirin molecules in di erent ways. Di erent chemical groups may be added to the active component resulting in Aspirin molecules with di erent chemical constitution and di erent medical e cacy. Aspirin molecules satisfy the criteria for being technical artefacts (see Table 2) : they are human-made objects that have a function and they are based on an intelligent design. If we abstract from this medical function, then what is le is simply an ASA-molecule, a physical (chemical) object. All of this is in line with my characterization of technical artefacts at the macro-level in section 2: if we abstract from the functional features of a technical artefact, then what is le is simply a (human-made) physical object. So, the intentional history ma ers when we are dealing with the question whether an ASA-molecule is a natural object or a technical artefact (an Aspirin molecule). In this respect there is no di erence between the macro- and the nano-level. However, there appears to be a significant di erence between both levels when it comes to recognizing whether a human-made object has the appropriate 57 intentional history for being a technical artefact. At the macro-level this is o en not problematic. More than two centuries ago, Paley remarked that when we examine a watch, what we see are (Paley 2006 [1802], p. 14): “contrivance, design; an end, a purpose; means for the end, adaptation to the purpose. And the question, which irresistibly presses upon our thoughts, is, whence this contrivance and design. The thing required is the intending mind, the adapting hand, the intelligence by which that hand was directed.” Indeed, for many macro-objects we do not need to know their actual history to ascertain that they have a certain purposefulness and that this purposefulness is directly related to and derived from their design which is linked to the intentionality of a human designer and therefore to ascertain that they have a relevant intentional history for being technical artefacts. At the nano-level this may be much more problematic. Without knowledge of the history of an ASA-molecule it may di cult if not impossible to tell whether that molecule has the relevant intentional history for being an Aspirin molecule. Assuming that these molecules do not occur in nature, all that may be concluded that it is an artefact (an artificial or synthesized molecule), but that does not mean it is a technical artefact. With regard to a synthesized molecule that also has a natural counterpart it is even impossible to tell whether we are dealing with a natural or an artificial molecule if we do not know its history. The same situation may occur with regard to macro-objects (e.g., with regard to natural and synthetic diamonds). These issues, however, are primarily of an epistemic nature and do not undermine our ontological view on the di erence between natural objects and technical artefacts at the nano-level. When we move on from Americium atoms and ASA-molecules to nano-constructions such as Carbon nanotubes the situation again changes. As far as their physical properties are concerned, Carbon nanotubes have, in contrast to Americium atoms and ASA-molecules, various degrees of freedom (for instance, the length or the diameter of the tubes)11. This opens up the opportunity to intentionally make Carbon nanotubes of a particular form for technical reasons, that is, to design and make Carbon nanotubes with functional features. Because of this, it may be easier to ascertain whether a particular Carbon nanotube is a technical artefact or not than in the case of an ASA-molecule, especially in cases where Carbon nanotubes are used 11 See h p://en.wikipedia.org/wiki/Carbon_nanotube. 58 in combination with other nano-objects, for instance, in the case of a single carbon nanotube GHz transistor12. With regard to such humanmade nano-objects there appears to be no di erence in comparison to human-made macro-objects when it comes to ascertaining whether or not we are dealing with technical artefacts or not. Summary and discussion I have characterised macro-sized technical artefacts as humanmade objects with a technical function. Moreover, inspired by Thomasson’s work on artefact kinds, I have analysed the creation or making of technical artefacts at the macro-level as the largely successful execution of a largely successful design of that technical artefact kind. A consequence of this conception of technical artefacts and their making is that technical artefacts are mind-dependent objects. Whether or not a human-made object is a technical artefact or not depends on its intentional history. An analysis of various kinds of human-made nano-objects shows that this characterization of technical artefacts and their making may be extended from the macro-domain to the nano-domain. So, there is no need to revise the distinction between the natural and the technical when going from macro-objects to nano-objects. I have also argued that it may be more di cult to ascertain whether a human-made object has the requisite intentional history to qualify as a technical artefact at the nano-level than at the macro-level. But this is an epistemological di erence, not an ontological one. Just as there is no sharp boundary line between natural and technical objects at the macro-level, there is no sharp boundary between the two domains at the nano-level. Controversies about how much physical and mental human work minimally has to be involved in making a technical artefact will remain. At the nano-level such controversies may be compounded with epistemological issues about ascertaining whether an object has the appropriate intentional history for being a technical artefact. Especially with regard to patens on nanoobjects this mind-dependency may lead to problems, since as Koepsell remarks: “According to the current legal ontology of patent, an object that is morphologically identical to another may yet be considered to 12 See h p://www.lpa.ens.fr/spip/spip.php?article296&lang=en. 59 be di erent in a legally significant way allowing the patent on one but not the other. All objects thus must have a structural quality, and a genetic quality, and if both are the result of some human intention, and meet the other criteria of patent (new, useful, and non-obvious), then they may be patentable” (Koepsell 2011, p. 54). According to Koepsell this situation will result “in an impossibly complex nanotech future in which each new nanotech component could become patented, and tracking the ownership rights of any useful nanotechbased artefact would become a pragmatic impossibility” (Koepsell 2011, p. 54). A discussion of whether this will be indeed the case and of what the implications are or ought to be for patent law falls outside the scope of this article. Su ce it here to remark that such a discussion may also involve moral issues about what kind of nano-objects are to be considered to belong to the “commons” of humankind and for what kinds of nano-objects private property rights may be granted by patent law. In closing, let me just point to a kind of Litmus test that may be of help in deciding whether a human-made nano-object is a technical artefact or not. Whenever it makes sense of a humanmade nano-object to claim that it malfunctions, then that is a sure sign that the object is a technical artefact. With regard to a human-made Americium atom or an ASA-molecule it simply does not make sense to say that it malfunctions. That is not true for an Aspirin molecule: an Aspirin molecule in which the salicylic acid group is combined with a another group that seriously diminishes the positive curative e ect of the salicylic group and/or has serious side-e ects malfunctions. Technical artefacts, whether at the macro- or the nano-level, are open to normative judgements in contrast to natural objects. For a discussion of how this normativity of technical artefacts is to be interpreted, I will have to refer to the relevant literature13. Références Franssen M., “The normativity of artefacts”, Studies in History and Philosophy of Science 37(1), 2006, pp. 42-57. Franssen M., “Artefacts and normativity”, in Me ers A. (ed.), Handbook of the philosophy of technology and the engineering sciences, Elsevier Science, 2009. 13 See (Franssen 2006, Franssen 2009). 60 Hacking I., Representing and intervening; introductory topics in the philosophy of natural science, Cambridge, Cambridge University Press, 1983. Koepsell D., Innovation and nanotechnology; converging technologies and the end of intellecutal property, London, Bloomsbury Academic, 2011. Kroes P., “Physics, experiments and the concept of nature”, in Radder H. (ed.), The philosophy of scientific experimentation, Pi sburgh, University of Pi sburgh Press, 2003, pp. 68-86. Kroes P., “Engineering and the dual nature of technical artefacts”, Cambridge journal of economics 34, 2010, pp. 51-62. Kroes P., Technical artefacts: creations of mind and ma er, Dordrecht, Springer (forthcoming). Kroes P. and Me ers A., “Special Issue on the Dual Nature of Technical Artefacts”, Studies in History and Philosophy of Science 37(1), 2006. Paley W., Natural theology: or, evidence of the existence and a ributes of the deity, collected from the appearances of nature. Oxford, Eddy M. and Knight D.M. (eds.), Oxford University Press, 2006 [1802]. Thomasson A. L., “Realism and human kinds”, Philosophy and Phenomenological Research 67(3), 2003, pp. 580-609. Thomasson A. L., “Artifacts and human concepts”, in Laurence S. and Margolis E. (eds.), Creations of the mind: essays on artifacts and their representations, Oxford, Oxford University Press, 2007, pp. 52-73. Vaver D., “Invention in patent law : a review and a modest proposal”, International journal of law and information technology 11(3), 2003, pp. 286-307. 61 L’hétérogénéité des objets nanos : deux nouvelles méthodes pour activer une éthique générique Marie-Geneviève Pinsart14 La réflexion que je voudrais partager avec vous s’est formée suite à ma participation à un projet de recherche nommé non sans humour DOGMATIS, c’est-à-dire « Défi des OGMs Aquatiques, Impacts et Stratégies »15. Ce projet financé par l’Agence Nationale de la Recherche dans le cadre du programme ANR-OGM a associé, de 2007 à 2010, des biologistes, philosophes, sociologues, économistes et juristes pour aborder les di érentes face es des poissons génétiquement modifiés, un sujet de réflexion encore peu évoqué. Depuis 20 ans, les techniques de transgénèse sont utilisées chez les poissons. Actuellement, des poissons d’aquarium modifiés pour devenir fluorescents sont commercialisés en dehors de l’Europe. Depuis quelques années, la firme Aquabounty tente d’obtenir aux USA une demande de mise sur le marché de lignées de saumon à croissance rapide. Les réflexions que je vais développer prolongent dans le domaine des nanotechnologies les résultats d’un travail collectif au sein du groupe des philosophes de Dogmatis, celui que j’ai mené avec AnneFrançoise Schmid (INSA, à Lyon) - à qui elles doivent beaucoup-, Lyne Létourneau (Université de Laval, à Québec) et Léo Coutellec (INSA, à Lyon)16. Je vais cibler mon intervention sur ce qui me semble être dans le projet Dogmatis le plus fécond pour penser la spécificité des 14 Université Libre de Bruxelles Actes du colloque Dogmatis, Paris, 22-23 novembre 2010 : projet ANR-OGM 2007-2010 organisé par l’ANR et sous la coordination de Muriel Mambrini-Doudet : h ps://colloque4.inra.fr/dogmatis/Les-actes-du-colloque 16 Léo Coutellec a soutenu une dissertation doctorale sur les Conditions et portées d’une intégrité épistémique et éthique des sciences. Eclairages à partir de la question des poissons génétiquement modifiés, le 8 décembre 2011, à l’INSA de Lyon. De plus amples informations sur les recherches et les publications de Léo Coutellec sont disponibles sur son blog : h p://leocoutellec.wordpress.com/ 15 63 objets nanotechnologies et leurs dimensions éthiques. Une précision de vocabulaire s’impose pour lever tout malentendu : lorsque je parle « d’objet nano », je restreins ce e appellation à un mixte de machine et de vie comme ce que fait, par exemple, l’ingénierie tissulaire qui crée des objets hybrides alliant des matériaux nanostructurés et des cellules vivantes pour remplacer des tissus défaillants. Je livre ici un premier exercice de pensée que je compte poursuivre en interrogeant d’autres types d’objets nanotechnologiques. Il serait intéressant, mais je ne m’y a arderai pas, d’analyser la manière dont la nébuleuse nano se positionne face à la nébuleuse OGM. Presque tous les discours sur les nanos me ent en garde contre le danger de répéter avec les nanos les erreurs commises avec les OGM17. Les erreurs en question portent presque exclusivement sur la communication au public des recherches et des applications des OGM. L’objectif de ce rappel dans les discours des scientifiques et des instances internationales est de faire accepter les nanos par le public. Notons au passage que dans l’étude Dogmatis, il est apparu clairement que les fameuses leçons à tirer des OGM végétaux ne l’avaient pas été pour les poissons génétiquement modifiés. Il semble que ce soit également et encore majoritairement le cas aujourd’hui avec les nanos. Nous n’allons pas creuser ce rapport entre OGM et nano. Notre objectif ici est d’aller au-delà des mises en garde et d’éme re des hypothèses de travail pour penser autrement et collectivement les objets nanos (tels que définis précédemment) et leurs dimensions éthiques. 17 « Toutes ces questions relèvent de la gouvernance d’une société et ne sont pas sans rappeler la saga des OGM : placée devant un fait accompli, la population a boyco é les produits génétiquement modifiés. Des leçons importantes ont été tirées de ce e expérience di cile. S’agissant des nanotechnologies, les promoteurs veulent à tout prix éviter qu’une situation semblable se produise et misent sur l’information de la population et sur l’instauration d’un dialogue qui perme ra d’assurer l’acceptabilité sociale de ces nouvelles technologies. Il importe cependant d’ajouter un élément souvent oublié au moment de comparer avec les OGM : il reste encore beaucoup de recherches à faire dans le domaine des nanotechnologies avant que la diversité d’applications nanotechnologiques que le secteur laisse entrevoir envahisse le marché. C’est d’ailleurs pourquoi les acteurs concernés s’entendent pour dire qu’il faut saisir ce e occasion pour déba re collectivement des choix sociaux qui doivent être faits au regard des nanotechnologies » (CEST 2006, p. 61). 64 Les nanos : une spécificité qui ne va pas de soi La question qui a initialement animé ce e réflexion portait sur la spécificité des nanotechnologies. Elle s’est imposée suite à la lecture de documents d’origine et de statuts divers qui présentaient des assertions parfois contradictoires quant à la spécificité des nanotechnologies et à leurs di érences à l’égard d’autres technologies et savoirs. Je prendrai deux exemples de ces documents aux intentions et aux contenus très di érents : l’avis « Éthique et nanotechnologies : se donner les moyens d’agir » publié en 2006 par la Commission de l’éthique de la science et de la technologie, de Québec, et le Rapport Converging technologies for improving human performance. Technology, biotechnology, information technology and cognitive science publié en 2003 sous la direction par Mihail C. Roco et William Sims Bainbridge (Dordrecht, Kluwer Academic Publishers). Selon les objectifs poursuivis par les di érents auteurs, tantôt la nouveauté radicale des nanos est accentuée, tantôt c’est leur insertion naturelle dans la réalité et dans les pratiques qui est mise à l’honneur ; ici on parle de nanotechnologies, de savoirs et de techniques perme ant une manipulation volontaire, maîtrisée et inédite des atomes et des molécules, là les nanos sont identifiées à un nanomonde naturellement existant, etc. La « révolution » est un des thèmes récurrents de la li érature nano. La Commission de l’éthique de la science et de la technique de Québec parle « d’une véritable révolution technologique » (CEST 2006, p. 5), accentuant, dans sa description, la capacité de création et de transformation des nanos. Roco et Bainbridge ne craignent pas d’en appeler à une nouvelle Renaissance comparable à celle des 15ème et 16ème siècles : « The new renaissance must be based on a holistic view of science and technology that envisions new technical possibilities and focuses on people » (Roco 2003, p. 2). L’estampille de la nouveauté marque le monde nano, les fondements de la réalité, la manière de construire le savoir à travers la convergence NBIC, la maîtrise du réel, etc. Comme le suggère le mot « renaissance », les nanos sont aussi une reprise sur un autre ton d’une mélodie bien connue. La nouveauté est relative et se naturalise en quelque sorte en s’inscrivant dans l’histoire des sciences comprise comme une succession de crises révolutionnaires. Certains auteurs reprennent 65 ce e intention rassurante que véhicule l’oxymoron de la « nouveauté familière » en allant jusqu’à ôter toute virulence à la nouveauté des nanos. Celles-ci sont alors des amplifications de problèmes déjà présents dans d’autres technologies émergentes ou des améliorations de technologies existantes. Les nanos sont qualifiées de technologies habilitantes ou facilitantes – enabling technology – c’est-à-dire « de nouveaux procédés et de nouvelles techniques qui perme ent à des technologies déjà existantes de s’améliorer » (CEST 2006, p. 82). Entrer dans la li érature nano, c’est ouvrir la porte d’une auberge espagnole dans laquelle chacun apporte ce qu’il considère être la spécificité des nanos : la possibilité de perfectionner l’être humain, une menace inédite et de très grande ampleur sur la santé humaine et l’environnement, une mainmise sur les droits fondamentaux des individus, etc. Chacune de ces particularités, prise séparément, n’est pas nouvelle. Cela ne signifie cependant pas que les nanos soient dépourvues de spécificité. Mais quelle est-elle ? Qu’est-ce que les nanos ? Et est-ce que ce e question même a un sens ? La question de la spécificité et donc de l’identité des nanos est majoritairement traitée en quelques lignes dans la li érature sur les nanos. Le plus souvent, la réflexion éthique part de quelque chose qu’elle considère comme étant donné (ou qu’elle espère être donné prochainement) grâce, par exemple, à un accord sur des critères de mesure des objets et dispositifs nanos. Selon l’avis québécois « Éthique et nanotechnologies » qui nous sert d’exemple, la question de l’identité du domaine nano et de ses objets devrait être réglée par un accord sur les normes et les procédures nanométriques. « La mise en commun de savoirs provenant de disciplines di érentes et l’arrivée de nouvelles connaissances soulèvent la question de l’harmonisation de la terminologie scientifique (c’est-à-dire : s’entendre sur la définition des termes utilisés) et de la nomenclature scientifique (c’est-à-dire : s’entendre sur les règles d’a ribution d’un nom à un ensemble d’objets jugés semblables) qui sont consacrées au monde des nanotechnologies » (CEST 2006, p. 41). La nécessité de prendre une décision quant à la mesure nanométrique choisie pour définir l’objet nano est justifiée pour diverses raisons : la reproduction des résultats scientifiques, le transfert des connaissances, la communication, la mise au point et la mise sur le marché de nouveaux produits de consommation, le développement d’une réglementation 66 en matière de santé et de sécurité, l’établissement d’un répertoire des articles publiés, etc. L’identité des nanos serait donc exclusivement l’a aire des sciences, notamment de la nanométrologie. L’avis québécois préserve la décision de l’identité des nanos de tout questionnement éthique pour n’agiter celui-ci qu’au sujet des produits du savoir et de la technologie nanos. L’établissement d’un vocabulaire commun est censé circonscrire de manière claire et durable l’identité de l’objet et du dispositif nanos. La prise de décision quant à la dimension et à la caractérisation de la matière à l’échelle nanométrique est une décision portant sur l’identification d’un domaine et de ses objets qui a des implications sur le surgissement de la question éthique et sur la nouveauté ou non de son objet. Le tracé de la frontière du domaine nano a une incidence sur l’approche éthique des nanos et en est même un ingrédient. Or, ce e question de l’identification de l’objet nano à travers des propriétés et des caractéristiques (taille, toxicité potentielle, mobilité, propriété de surface, etc.) est réduite dans l’avis québécois cité à une préoccupation uniquement scientifique. Comme nous le verrons, ce e réduction opérée a priori et confiée uniquement aux domaines scientifiques dresse un obstacle à la réflexion tant éthique qu’épistémologique. Demandons-nous s’il faut que l’objet nano soit défini précisément, voire de façon exhaustive, pour qu’on puisse tenir un discours éthique à son sujet, et ce que signifie ce e volonté de définition de l’objet nano préalable à toute réflexion commune sur ses dimensions éthiques. La question de la spécificité se pose dans les mêmes termes dans la li érature nano en ce qui concerne l’éthique. Sans l’ombre d’une hésitation, une très large part de ce e li érature fait l’impasse sur la définition de l’éthique et de ses objets, et les utilise comme des données allant de soi. Ainsi, dans l’avis québécois, des valeurs et des principes éthiques sont immédiatement énoncés comme formant une grille adéquate d’évaluation des nanos : « Outre la protection de la santé et de l’environnement, et l’importance du développement de l’économie dans les sociétés contemporaines, le respect de nombreuses valeurs qui doivent constituer les fondements d’un comportement responsable au regard des nanotechnologies a guidé la Commission dans son évaluation éthique des nanotechnologies ; ce sont, en autres, 67 la dignité, la liberté, l’intégrité et le respect de la personne, la qualité de vie, le respect de la vie privée, la justice et l’équité, la transparence, de même que la démocratie. » (CEST 2006, p. 2). Je voudrais dans la suite de ce e réflexion interroger les conceptions épistémologiques et éthiques qui envisagent l’existence des objets nanos et des valeurs/principes éthiques comme des données fournies par des domaines particuliers (celui des sciences et celui de l’éthique), comme des données ontologiquement et épistémologiquement séparées, et comme des données préalables à la tenue d’un débat collectif sur les nanos et leurs enjeux éthiques. Nous pensons que la spécificité des nanos nous invite à penser dans un même élan l’épistémologie et l’éthique. Ce lien n’est pas nouveau dans l’histoire de la philosophie et de l’éthique mais je voudrais le soume re à nouveau à la réflexion à partir de deux hypothèses : - la première soutient que le savoir des objets nanos (machineorganisme vivant nano dans notre propos) est un savoir générique portant sur des objets hétérogènes ; - la seconde hypothèse avance qu’un savoir générique exige une éthique générique. Le savoir des objets nanos (machine-organisme nano) est un savoir générique portant sur des objets hétérogènes Un savoir générique porte sur un objet hétérogène, un objet dont l’hétérogénéité « ne permet plus une synthèse intuitive » (Schmid 2010) et qui s’inscrit à la suite des types d’objets proposés aujourd’hui par le développement des sciences et des techniques : « On passe de l’objet donné (nébuleuse), à l’objet construit (galaxie), à l’objet complexe (qui suppose la combinaison de diverses disciplines), à l’objet conceptif (on part d’un concept impossible souhaitable pour le me re en rapport avec des séries de connaissances inhabituelles concernant ce type d’objet). Les objets contemporains, OGM, biologie synthétique, nanosciences, objets vivants construits, etc., ne sont pas des objets connus auxquels on ajouterait une nouvelle propriété. Enfin, 68 on passe à l’« objet intégratif », qui suppose l’intention du chercheur (individuel/collectif) projetée dans l’objet » (Schmid 2010). Les nanos présentent des traits d’hétérogénéité en ce qu’ils consistent en théories, en pratiques scientifiques et en discours divers (scientifiques et technologiques) ; politiques de la recherche scientifique (Commissions nationales et internationales) ; philosophiques et éthiques (le Rapport de Rocco et Bainbridge) ; des avis de comités d’éthique ; des écrits de science-fiction (Michael Crichton (La proie), Eric K. Drexler (Engins de création. L’avènement des nanotechnologies), etc. Le caractère hétérogène qui ne permet plus une synthèse intuitive apparaît clairement dans l’approche de construction « bo om-up » (de bas en haut) où l’on parle de « briques » élémentaires assemblées en une construction devant posséder des propriétés déterminées. L’objectif de la recherche n’est pas de trouver ou de créer un objet mais plutôt de rendre e ectives et disponibles des propriétés particulières comme la résistance, la légèreté, la malléabilité, l’ininflammabilité, la conductivité, etc. Un objet hétérogène est aussi un objet dont tous les aspects ou certains d’entre eux n’appartiennent pas exclusivement à une discipline. Prenons, par exemple, l’échelle du nanomètre : ce e échelle est tout autant celle de la biotechnologie qui travaille avec les molécules d’ADN et les virus. Comme nous le verrons, le rapport de l’objet hétérogène aux disciplines est conçu en des termes di érents de ceux de la convergence, de la juxtaposition (multidisciplinaire), de la combinaison (interdisciplinaire), de l’intégration (modèle disciplinaire), de la succession (hiérarchie disciplinaire), etc. Ce rapport de l’objet nano aux disciplines est un espace d’« indisciplinarité » qui est un lieu de dépôt des non-savoirs disciplinaires, un lieu d’émancipation disciplinaire et un lieu d’émergence de l’objet dans toutes ses dimensions, y compris celle éthique. Ayant ces quelques éléments à l’esprit concernant l’hétérogénéité de l’objet nano, il faut à présent se pencher sur ce qu’est un savoir générique d’un objet hétérogène. Un savoir générique est un savoir constitutif de son objet, un savoir qui décrit son objet dans le mouvement même où il le constitue dans un espace indisciplinaire. Avant de préciser davantage comment 69 s’élabore ce savoir et ce qu’il produit, je voudrais indiquer tout ce qu’il n’est pas ou tout ce à quoi il ne se réduit pas. Un savoir générique n’est pas issu de la convergence des technologies. Une belle illustration de ce e conception de la convergence des technologies est donnée par le Rapport Converging technologies for improving humain performance de Rocco et Bainbridge. Ce Rapport développe autour de la convergence une idéologie de type transhumaniste dont nous allons analyser un exemple à partir du schéma ci-dessous fourni par les auteurs. Il s’agit d’une sorte d’arbre du savoir cartésien revisité où les racines métaphysiques sont occupées par les quatre domaines des NBIC présentés comme étant exhaustifs et convergents. « If the Cognitive scientists can think it the Nano people can build it the Bio people can implement it, and the IT people can monitor and control it » (Roco 2003, p.11). La métaphore végétale de l’arbre cartésien a disparu, remplacée par celle du cerveau. 70 « It is hard to find the right metaphor to see a century into the future, but it may be that humanity would become like a single distributed and interconnected « brain » based in new core pathways of society » (Roco 2003, p. 6). Ce cerveau est associé dans le Rapport à l’intelligence humaine et à l’informatique, ce qui en fait un mixte de vie et de machine. Les quatre domaines NBIC se logent dans ses sillons et ses circonvolutions. Le tronc de l’arbre cartésien est absent car la surface du cerveau est occupée par des êtres humains. Ceux-ci sont représentés de manière générique, sans individualisation parce que la finalité du « cerveau » n’est pas l’être humain en tant que tel mais ses performances. La représentation de l’être humain est donc la représentation d’un moyen destiné à a eindre l’objectif des performances. Le cerveau est devenu une nouvelle terre, un nouveau monde à la surface duquel vivent des êtres humains. Les branches de l’arbre du savoir cartésien indiquant le déploiement des diverses disciplines à partir du tronc constitué par la physique ont elles aussi disparu ou plutôt les branches ont été absorbées par les racines et transformées en sillons et circonvolutions. Les êtres humains semblent nourris par les chemins des NBIC comme un fœtus l’est par les substances maternelles véhiculées dans le cordon ombilical. Ce « cerveau » est donc une mère nourricière qui reprend l’image de la terre-mère dans la tradition de Gaïa. Nature et culture convergent elles aussi. C’est la raison pour laquelle le Rapport envisage un nouveau modèle éducatif fondé sur l’acquisition d’un curriculum unifié reposant sur un paradigme intellectuel vaste, hiérarchique et destiné à faire comprendre l’architecture du monde physique de l’échelle nano jusqu’à l’échelle cosmique. La convergence est, pour les auteurs du Rapport, une première étape vers une unification plus large. Pour eux, l’unification de la science est fondée sur l’unité présente dans la nature et sur une recherche à visée holistique qui tend à la convergence technologique et à une structure sociale plus unitaire et e cace dans l’a einte des buts humains. La science est inscrite dans un processus d’unification tandis que les technologies convergent. Roco et Bainbridge prévoient que toutes deux formeront une unité fondée sur : l’unité matérielle à l’échelle nano et la technologie d’intégration à partir de ce e échelle ; les outils de transformation NBIC, la compréhension de la nature et de la connaissance en termes de systèmes hiérarchiques complexes ; l’amélioration de la performance humaine. De ce e transformation 71 du savoir découle la nécessité d’élaborer di éremment le travail des scientifiques, de développer un nouveau langage scientifique pour communiquer aisément, de donner à la culture une forme holiste, etc. L’éthique est elle aussi profondément transformée par l’application de nouveaux principes adaptés à l’état du savoir et des pratiques issus de la convergence : l’acceptation d’implants dans le cerveau, le rôle des robots dans la société humaine, etc. Les auteurs signalent qu’il restera toutefois des traces des vieilles habitudes et de la vieille éthique dans certains domaines de la vie humaine mais qu’il est di cile de prédire lesquels. Je n’entre pas davantage dans le détail de ce Rapport défendant la convergence comme paradigme du futur de l’humanité. Le savoir générique des objets hétérogènes qui nous occupe est aux antipodes de ce e spéculation. L’imposition d’une manière de penser disciplinaire, que l’on parle d’une seule discipline ou de plusieurs comme les NBIC, est étrangère au savoir générique qui occupe un « lieu sans injonction »18, sans injonction même disciplinaire. Le savoir générique n’est pas produit par le recouvrement des perspectives disciplinaires Ce e possibilité supposerait que l’objet nano possède un nombre déterminé de face es disciplinaires et qu’il apparaîtrait dans sa réalité, c’est-à-dire dans son épaisseur et dans sa substance, grâce au recouvrement des disciplines. L’interdisciplinarité fonctionnerait alors comme un processus phénoménologique d’apparition de l’objet et non comme un processus d’élaboration d’un objet absent en tant que tel, c’est-à-dire nécessairement absent en tant qu’objet hétérogène. Il est bien évident qu’un objet nano existe pour le scientifique, qu’un autre objet nano existe pour le décideur politique, etc. mais l’objet nano dans son hétérogénéité ne peut être circonscrit par aucune discipline particulière : il a besoin d’autre chose que du recouvrement disciplinaire pour émerger dans sa spécificité. 18 Ce e expression est celle utilisée par Muriel Mambrini, directrice de l’INRA de Jouy-en Josas, lors des discussions dans le cadre du projet Dogmatis. 72 Le savoir générique des objets hétérogènes ne supprime pas les disciplines. Il part des disciplines et y revient mais sous un mode di érent que celui du savoir positif disciplinaire. « (…) ce qui change radicalement, c’est qu’on ne combine plus au premier temps les connaissances de chacune des disciplines, mais on commence par rassembler ce qu’on ne sait pas, the state of the nonart, en quoi la discipline ne saurait donner de réponse aux problèmes que pose l’objet que l’on cherche à connaître et à construire. Chaque discipline cherche en quoi l’objet ne peut être traité par ses concepts et sa logique. Cela interroge au plus profond la pratique scientifique, parce que ces non-savoirs obligent à voir l’interdisciplinarité autrement que comme une procédure de somme. Elle obéit à une logique de soustraction (sans manque) qui conduit chaque discipline à être réinterprétée par les autres. La maîtrise n’est plus au centre. Le non-savoir n’est plus à la marge, mais au centre du processus » (Schmid 2010). L’incertitude marque une zone d’hétérogénéité. Et ceci nous invite à envisager à nouveaux frais les démarches qui tendent à réduire voire à supprimer l’incertitude19. Le savoir générique est un savoir qui prend au sérieux l’incertitude et l’inconnu comme étant des paramètres constitutifs de l’objet nano : l’objet nano est une inconnue, un « X « constitué par des hypothèses portées par chaque discipline et par des faisceaux disciplinaires. Ces hypothèses sont formulées pour comprendre en quoi l’objet nano échappe à la prise en charge des théories traditionnelles, en quoi il peut constituer une di culté ou une exception aux règles généralement admises au sein des disciplines concernées. L’objet nano se constitue 19 Il serait utile de réévaluer l’usage du principe de précaution et l’usage de « l’approche » de précaution à l’égard des objets nanos. Selon l’avis « Ethique et nanotechnologies : se donner les moyens d’agir » (CEST 2006), l’approche de précaution est utilisée pour éviter la confusion autour du sens exact du principe de précaution et donc de son utilisation. L’approche de précaution o re plus de souplesse que le recours à un principe formel. Selon la COMEST (Commission mondiale d’éthique des connaissances scientifiques et des technologies, le principe de précaution se réfère à la base philosophique de la précaution tandis que l’approche vise son application pratique (COMEST 2005). 73 dans et grâce à un espace de projection de propriétés et d’intentions. Cet espace est une unité mobile, un tenir-ensemble dépendant des projections disciplinaires, des intentions des chercheurs, des orientations des institutions et des politiques, etc. Le savoir générique de l’objet nano rompt avec l’opposition du sujet et de l’objet : l’objet de connaissance n’est pas posé face à un sujet connaissant, l’objet n’est pas la concrétisation d’une subjectivité, mais le résultat non stabilisé d’intentions collectives et le révélateur d’intentions parfois inconscientes et a priori incapables de s’autosaisir complètement. L’objet hétérogène mêle des fragments de savoir et d’intention, il identifie la science et la subjectivité. L’espace « X « qui manifeste l’hétérogénéité propre à l’objet nano est donc au centre épistémologique, les disciplines étant à la périphérie en tant que dimensions des objets nano20. Comment déterminer si une dimension ou une propriété de l’objet nano peut être généralisée ? Le critère d’une généralisation à partir de l’espace « X » constitutif de l’objet serait que celle-ci soit à la fois compatible avec le savoir fondamental exprimé à travers chaque projection disciplinaire dessinant cet espace et qu’elle soit présente en continu dans cet espace. C’est donc un critère qui n’est pas « scientifique », c’est-à-dire relevant uniquement de disciplines qualifiées de « scientifiques » mais un critère générique, à la fois extérieur et lié aux disciplines. L’espace « X » est ainsi un lieu de réduction possible mais d’une manière très di érente de celle produite par des décisions qui gomment l’hétérogénéité en fixant a priori et de manière stable une nomenclature et des propriétés nanos. Un savoir générique exige une éthique générique Comme pour le point précédent concernant le savoir générique des objets hétérogènes, nous allons tout d’abord procéder négativement en indiquant tout ce que l’éthique générique n’est pas ou n’est pas seulement (car ces éléments peuvent participer, le cas échéant, à la mise en œuvre de l’éthique générique). L’objectif est ici d’a irer l’a ention 20 Remarque de Anne-Françoise Schmid lors du Colloque Dogmatis. 74 sur le fait que les manières suivantes de concevoir et d’utiliser l’éthique se révèlent insu santes pour penser éthiquement l’objet hétérogène nano lorsqu’elles sont prises séparément et exclusivement. L’éthique générique n’adopte pas une approche plongeante (top-down). L’application à l’objet nano de théories ou de notions éthiques préalablement élaborées est souvent inféconde parce qu’elle se révèle incapable de prendre en considération l’hétérogénéité caractéristique de l’objet nano. En e et, l’application immédiate à l’objet nano de notions telles que celles de « risque » ou « d’impact environnemental » repose sur le présupposé que cet objet nano existe comme une entité déterminée et universellement reconnue en ce e spécificité. Or, comme nous l’avons montré précédemment, ce n’est pas le cas : l’objet nano du sociologue n’est pas celui du philosophe ni celui de l’ingénieur, par exemple. La démarche de l’éthique générique n’est pas celle d’une purification. Il ne s’agit pas de s’emparer des cristallisations problématiques propres aux disciplines et aux intentions pour les laver de leur gangue d’origine de sorte que le résultat ne oyé puisse être reconnu comme relevant de l’éthique. Ce domaine que l’on circonscrit traditionnellement avec le mot « éthique » et qui peut, par exemple, constituer une branche de la réflexion philosophique, n’est pas un étalon de comparaison, ni une source d’authentification, mais un matériau qui sera diversement sollicité lors de l’élaboration de la réflexion éthique collective. L’éthique générique n’est pas une éthique de type conséquentialiste. L’éthique générique ne traque pas les impacts et les e ets de l’objet nano en termes de coût/bénéfice ou d’impact de risque. 75 L’éthique générique n’est pas une démarche de circonscription de domaines soulevant des problèmes d’ordre éthique. C’est façon de procéder est celle de la Commission de l’éthique de la science et de la technologie de Québec qui liste les questions éthiques en quatre domaines : nanomatériaux, nanométrologie, nanoélectronique, nanobiotechnologie. Ordonner et clarifier les champs hérissés d’obstacles éthiques est un moment utile dans la réflexion. Mais transformer ce moment de bilan en un arrière-fond désormais nécessaire à toute réflexion éthique sur les nanos revient à enfermer la réflexion dans ce qui peut facilement devenir une geôle intellectuelle. L’éthique générique n’est pas une approche d’accompagnement éthique du développement des nanos. Car le travail du chercheur se réduit alors à essayer d’arrimer l’éthique à quelque chose d’étranger et qui se développe selon ses lois propres. La réflexion éthique est de ce fait réduite à être une réflexion sur les moyens à me re en œuvre pour « ra raper », comme on dit, le développement des nanos. L’éthique générique n’est pas une mise en amont de la discipline éthique. Elle n’est en tout cas pas une mise en amont dans le sens fréquemment repris dans la li érature au sujet des nanos, comme dans l’avis québecois : « C’est aussi un domaine en émergence, et donc qui o re la possibilité de travailler en amont des problèmes que pourrait éventuellement poser l’innovation technologique, de façon à contrer ou à réduire au minimum certains e ets indésirables. (…) il serait cependant souhaitable que ses travaux puissent se poursuivre pour en accompagner l’évolution » (CEST 2006, p. 1). L’éthique générique ne se réduit pas à un déplacement chronologique de la discipline éthique dans le processus d’évaluation de l’objet nano en le faisant glisser de l’aval vers l’amont, opérant sur le plan temporel 76 une « déchronologisation » analogue à la délocalisation sur le plan spatial. L’éthique générique est indisciplinaire, elle ne laisse pas intactes les disciplines et rend l’éthique opératoire à tous les moments de l’appréhension de la spécificité de l’objet nano. L’éthique générique n’est pas une éthique de terrain qui puiserait uniquement le terreau de sa réflexion dans la pratique « scientifique ». La spécificité de l’objet nano n’appartient à aucune discipline particulière, elle ne relève d’aucun territoire, elle n’est redevable d’aucune géographie disciplinaire. L’expérience du groupe de recherche Dogmatis a mis en évidence la nécessité de ne privilégier aucun terrain conceptuel et pratique. L’espace de l’éthique générique ne prend pas racine dans une pratique disciplinaire mais invite les protagonistes – le généticien, le juriste, le philosophe, le sociologue, etc. – à se rendre à tour de rôle dans le lieu de travail de chacun. Une des caractéristiques de la démarche de Dogmatis a été le déplacement dans divers lieux de travail pour comprendre dans quel creuset (disciplinaire, social, géographique, administratif, etc.) chaque acteur était amené à avancer telle intention à l’égard de l’objet nano ou à me re en avant telle zone d’incertitude constitutive de l’hétérogénéité de cet objet. Il s’agissait de comprendre mais aussi de rapporter à soi, à sa discipline, à son lieu de pensée, ce que le collègue « hôte » construisait en objet nano. Deux méthodes pour activer l’éthique générique Positivement, l’éthique générique est une éthique expérimentale en ce qu’elle se déploie à partir d’objets hétérogènes (non donnés comme nous l’avons vu) et selon une approche fictionnelle prenant au sérieux l’incertitude et me ant en action une diversité de méthodes21 dont celles que je vais maintenant exposer. 21 Dans le groupe des philosophes du projet Dogmatis, l’éthique générique a été mise en œuvre de diverses façons : par la rédaction de courts textes de fiction s’appuyant sur la méthode du « sans », par le recours à la matrice éthique (travail de Léo Coutellec dans sa dissertation doctorale, op. cit.), etc. Une des richesses de l’éthique générique est de solliciter la réflexion et l’imagination dans l’élaboration de nouvelles approches de l’hétérogénéité de l’objet nano. 77 Une méthode qui « désactive » les notions : une réflexion à partir du « sans ». La première méthode que j’évoquerai, consiste à réfléchir à l’objet nano en me ant entre parenthèses ou en grisé - pour filer une métaphore informatique -, un des aspects relevés par une discipline ou mis en avant par une intention. Il s’agit de me re cet aspect momentanément en retrait dans la réflexion. Ce e mise entre parenthèses momentanée permet de chercher de façon nouvelle dans son propre domaine ou dans un autre domaine que le sien, ce qui va perme re de construire avec d’autres matériaux l’élément mis entre parenthèses. Ce e mise en grisé d’un aspect permet aussi d’évaluer de manière di érente le contenu et l’importance des autres aspects soulevant des di cultés épistémologiques et éthiques. Et ce ne sont là que quelques aperçus des usages possibles de ce e méthode. Prenons un exemple. Me ons entre parenthèses l’aspect du « profit économique » et demandonsnous comment cet aspect peut être reconstruit à partir d’éléments conceptuels et pratiques issus d’autres disciplines que la nôtre ou demandons-nous ce que la désactivation de cet aspect change dans la manière dont les di cultés épistémologiques et éthiques se manifestent concernant un objet nano hétérogène précis, etc. Le choix et le nombre des mises en grisé sont dictés par les hypothèses d’appréhension de l’objet nano. Ce e démarche suppose une dynamique d’aller-retour entre l’espace indisciplinaire et la discipline. La mise en grisé d’un aspect permet de déstabiliser l’identité des autres aspects de l’objet nano et les liens qui les unissent. Ce e expérience de pensée est de l’ordre de la fiction en ce qu’elle permet aux concepts de s’écouler hors de la structure conceptuelle d’une discipline et d’être immergés dans un milieu di érent de celui d’origine ou de celui habituellement utilisé. Une méthode adaptant la matrice éthique La matrice éthique22 a été conçue par le professeur Ben Mepham23, 22 Un exemple d’application de la matrice éthique à la prise de décision dans le domaine de l’animal farming est disponible à l’adresse www.no ingham. ac.uk/bioethics 23 Quelques publications de Ben Mepham concernant la matrice éthique et la 78 directeur du Centre for Applied Bioethics à l’University of No ingham et membre du Food Ethics Council. Son objectif est d’aider à la prise de décision éthique dans les domaines de l’alimentation et de l’élevage. La matrice de Mepham se caractérise par le choix d’un certain nombre de principes éthiques (le bien-être, l’autonomie, la justice) et par le choix d’un nombre à déterminer de groupes d’intérêt (les consommateurs, les producteurs d’aliments particuliers, l’environnement, les animaux de la ferme, etc.). Dans la version de la matrice que nous proposons dans le cadre de l’éthique générique portant sur les objets hétérogènes nanos, nous gardons le choix ouvert des acteurs (incluant des êtres humains mais aussi des êtres vivants non humains, des disciplines, des groupes de pression, des institutions…) mais nous remplaçons les trois principes éthiques choisis a priori par des intentions à identifier à chaque utilisation de la matrice. Ce e version adaptée de la matrice comporte donc deux entrées : une entrée « intention » (par exemple, décrire, prévoir, mesurer, me re en place des procédures d’action, conceptualiser, décider de critères, commercialiser, étendre les applications, etc.) ; une entrée « acteurs » (un individu, une discipline, une instance, etc.). Contrairement à la matrice de Mepham, les enjeux éthiques (qui peuvent s’exprimer sous forme de valeurs, de normes, de principes, etc.) ne sont pas prédéterminés mais vont se manifester à l’intersection des deux entrées, acteur et intention. bioéthique : (Mepham 1996, 2000, 2005). 79 Intention A : assurer la traçabilité d’un objet nano « Z » Intention B : étendre l’application d’un dispositif nano au diagnostic du diabète Etc. 80 Acteur n°1, exemple d’un individu : le patient Acteur n°2, exemple d’une discipline : la médecine Acteur n°3, exemple d’une institution : l’armée Etc. Enjeux éthiques : OUI - NON Enjeux éthiques : OUI - NON Enjeux éthiques : OUI - NON Etc. Si oui : Si oui : Si oui : - quels sont les aspects éthiques qui semblent être mis à mal ? - quels sont les aspects éthiques qui semblent être mis à mal ? - quels sont les aspects éthiques qui semblent être mis à mal ? - quels sont les aspects éthiques auxquels il faut prêter a ention ? - quels sont les aspects éthiques auxquels il faut prêter a ention ? - quels sont les aspects éthiques auxquels il faut prêter a ention ? etc. etc. etc. Enjeux éthiques : OUI - NON Enjeux éthiques : OUI - NON Enjeux éthiques : OUI - NON Si oui : Si oui : Si oui : - quels sont les aspects éthiques qui semblent être mis à mal ? - quels sont les aspects éthiques qui semblent être mis à mal ? - quels sont les aspects éthiques qui semblent être mis à mal ? - quels sont les aspects éthiques auxquels il faut prêter a ention ? - quels sont les aspects éthiques auxquels il faut prêter a ention ? - quels sont les aspects éthiques auxquels il faut prêter a ention ? etc. etc. etc. Etc. L’ensemble du tableau constitue la dimension éthique de l’objet nano considéré, compte tenu des intentions et des acteurs mis en relation. Une première caractéristique de ce tableau est de séparer une intention d’un acteur particulier et d’éviter ainsi une mainmise disciplinaire ou institutionnelle sur une intention. Le tableau permet de prendre conscience des dimensions éthiques communes au-delà de la spécificité des intérêts disciplinaires, collectifs ou particuliers. Cela ne signifie pas que le consensus ou le juste milieu soient l’objectif majeur de ce e matrice éthique. Ils peuvent survenir bien entendu lorsque le contenu de la cellule « éthique » du tableau est identique pour tous les acteurs à l’égard d’une intention. Mais la fécondité principale de ce e méthode est de maintenir possible l’inclusion d’intentions et d’acteurs divers dans le processus de réflexion et de ne pas prédéterminer les expressions éthiques de l’objet hétérogène nano. Une deuxième caractéristique est de ne pas préjuger de ce qui constitue un enjeu éthique et de la manière dont cet enjeu s’exprime (en termes de valeurs, de concepts, de règles, etc.). L’objet étudié n’a pas en lui-même des caractéristiques éthiques et il ne fait pas nécessairement surgir par lui-même un problème éthique universel, c’est-à-dire présent chez chaque acteur à l’égard d’une intention. Prenons l’exemple de la traçabilité qui peut activer une interrogation sur la protection de la vie privée. Dans la cristallisation des problèmes considérés comme éthiques par chaque acteur et selon une intention, la protection de la vie privée va se manifester en une gradation allant de l’absence pure et simple à la présence dominante, voire exclusive. Dans le cadre d’un traitement médical ou d’une intervention chirurgicale, la possibilité de suivre dans le corps du patient un dispositif nano peut ne soulever aucune question éthique quant à la protection de la vie privée. Il n’en va pas de même d’un dispositif nano qui perme rait de suivre le déplacement d’une personne placée sous surveillance avec l’accord de celle-ci (le cas d’une personne condamnée par la justice mais qui pourrait vivre chez elle), et il n’en irait certainement pas de même si une personne était surveillée à son insu grâce à ce dispositif nano. Le tableau est ouvert et non ordonné a priori, cela signifie qu’il comporte un nombre non limité d’intentions, d’acteurs et d’aspects 81 éthiques, et que la succession des intentions ou celle des acteurs n’est régie par aucune préséance ou hiérarchie. Par contre, la mise en un certain ordre de ce tableau – la mise en ordre des acteurs et/ ou des intentions et/ou des dimensions éthiques - sera le résultat d’une décision commune prise à la suite de l’analyse du tableau, de son contenu éthique rapporté à ses coordonnées d’intentions et d’acteurs. Ce e indétermination a priori de la dimension éthique évite de scléroser la réflexion par l’application systématique d’une grille précise et stable de notions éthiques. Le tableau permet non seulement aux valeurs éthiques couramment associées aux nanos de conserver une place dans la réflexion mais il o re l’opportunité à d’autres dimensions éthiques de se manifester, dimensions occultées jusqu’alors pour diverses raisons ou dimensions nouvelles dans un sens radical ou parce qu’elles n’ont jamais encore été associées aux nanos. Une troisième caractéristique du tableau est qu’il rappelle que l’éthique est en premier lieu une mise en question – une problématisation - et non une réponse. Une intention et/ou un acteur associé à un objet hétérogène nano provoque une question qui ne peut être prise en charge de manière satisfaisante sur le plan collectif par une seule discipline ou une seule perspective d’analyse parce qu’elle résonne di éremment dans chacune de celles-ci. Le tableau permet d’identifier les dissonances et les consonances, les alliances et les continuités tout autant que les ruptures et les partages. Une quatrième caractéristique, enfin, est que l’indétermination de la cellule « éthique » à l’intersection des intentions et des acteurs renvoie à celle de l’objet nano. Comme nous l’avons vu, l’hétérogénéité de l’objet nano en fait un objet inconnu a priori et constamment travaillé par l’incertitude véhiculée par les diverses tentatives d’encerclement épistémique. La spécificité de l’objet hétérogène est respectée par la manière dont le tableau l’a ecte d’une dimension éthique. L’inconnue « X » de la cellule éthique du tableau au début du processus réflexif répond à celle de l’objet hétérogène : l’indétermination a priori de l’objet a ecte l’éthique comme elle a ecte les autres dimensions de l’objet hétérogène que vont progressivement et de manière ouverte à la révision me re en jeu chacune des intentions et chacun des acteurs. 82 En conclusion Pour reprendre les termes de Marcel Jollivet, à partir du moment où les questions et les objets « ne sont pas ceux qui ont été mis en forme par les paradigmes disciplinaires habituels, ils sont étranges ; et si on accepte de les prendre dans leur étrangeté, il faut bien les aborder par tous les côtés ; souvent on préfère les réduire, on les ramène au problème précédent »24. « Les aborder par tous les côtés », c’est l’objectif poursuivi par les deux méthodes que nous avons proposées. Elles invitent à qui er la sécurité (relative) des noms propres institués par une discipline pour parler d’un objet, pour accorder une force nouvelle de cohésion et de connaissance à la floraison de sens qui peut habiter les mots, floraison jugée jusqu’alors inappropriée à une forme rigoureuse de connaissance. Comme le suggère Donna Haraway, il s’agit d’adopter une hétéroglossie25. Ainsi, la matrice éthique va exposer la teneur éthique d’une intention, par exemple, celle visant l’amélioration, pour le patient et peut-être montrer que ce e teneur a un sens di érent pour la médecine. Elle peut encore montrer qu’à partir du choix d’un même terme éthique (par exemple celui de « responsabilité »), le patient pourrait désigner le fait que le médecin lui implantant un dispositif nano réponde des e ets négatifs éventuels de cet acte, tandis que la médecine pourrait associer la responsabilité au fait même d’avoir accordé une place importante à la toxicité dans les recherches ayant abouti à la conception de ce même dispositif nano. Les théories et les pratiques qui se qualifient d’éthique ont souvent la prétention de dire ce qu’il en est de l’éthique et dans quelles conditions un rapport particulier au réel sera éthique. L’hypothèse que nous soutenons est que l’éthique est une dimension de la connaissance et de la pratique qui apparaît en fonction de l’objet de réflexion et selon les intentions (faisceaux disciplinaires, positions institutionnelles ou associatives, avis personnel…) des acteurs de ce e réflexion. Ainsi comprise, l’éthique n’est pas la recherche d’une normativité éthique du réel ou dans le réel ni une application d’un discours au réel, 24 25 Intervention de Marcel Jollivet dans (Legay 2004, p. 67). Voir à ce sujet (Haraway 2007, p. 29-105). 83 mais elle est une hypothèse qui va élaborer de manière collective et ouverte (sans a priori et sans clôture définitive) une représentation de valeurs, de normes, de principes, de procédures, de comportements, d’articulations théoriques ou pratiques, etc. reconnues comme éthiques et constituant une dimension particulière de la réalité fictionnelle d’un objet26. Cela ne signifie pas que l’objet ne soit pas une réalité, il en est une, mais sa dimension éthique ne se donne qu’indirectement, elle est le résultat sous forme de représentation (de fiction) d’une mise en relation de « patrons » disciplinaires et intentionnels. Le « patron » dont nous parlons n’est pas un saint protecteur ou une personne qui commande et occupe une position hiérarchique supérieure, il est tout le contraire de ces définitions qui retrouvent la prééminence d’une discipline ou d’une position dominante et protectrice de la « vérité éthique » qu’elle déterminerait. Le « patron » que nous évoquons est, par exemple, le modèle que les couturières me ent aux mesures d’une personne et qui va leur perme re de réaliser un vêtement. Ce déplacement ironique des sens et des rapports entre le « patron » et les femmes couturières permet de se représenter d’autres rapports que ceux établis par une hiérarchie entre disciplines « fortes, dominantes, rigoureuses, etc. » et disciplines « floues, secondaires, peu influentes, etc. », notre « patron » ne faisant plus la di érence entre les « petites mains » et les autres ; ce déplacement ironique nous permet aussi de concevoir un « patron » qui s’adapte à la particularité d’un objet, qui doive chaque fois prendre les mesures de cet objet et qui ne puisse partir de la supposition d’une connaissance a priori de celui-ci. Les surfaces manifestées par les lignes en pointillé du « patron » sont les valeurs caractéristiques de la dimension éthique de l’objet. Valeurs dont la présence et le poids respectifs ne peuvent être appréciés qu’en fonction des particularités de l’objet et des intentions portées sur lui par les di érents acteurs. L’éthique ainsi comprise n’est plus une prétention à dire ce qu’il en est des valeurs éthiques d’un objet à partir d’un promontoire épistémologique ou idéologique prédéfini, mais elle est un matériau qui intervient dans l’élaboration des « patrons » dessinés par diverses mains actives et intentionnelles. 26 Voir à ce sujet l’article très éclairant de Anne-Françoise Schmid, L’hypothèse d’une non-épistémologie, disponible à l’adresse h p://www.onphi.net/texte-lhypothese-d-une-non-epistemologie-51.html 84 Références Actes du colloque Dogmatis, Paris, 22-23 novembre 2010 : projet ANROGM 2007-2010 organisé par l’ANR et sous la coordination de Muriel Mambrini-Doudet, disponible à l’adresse : h ps:// colloque4.inra.fr/dogmatis/Les-actes-du-colloque Cest (Commission de l’éthique de la science et de la technologie) Éthique et nanotechnologies : se donner les moyens d’agir, Québec, 2006. Comest (Commission mondiale d’éthique des connaissances scientifiques et des technologies), Le principe de précaution, Paris, UNESCO, 2005, disponible à l’adresse : h p://unesdoc.unesco. org/images/0013/001395/139578f.pdf. Crichton M., Prey, New York, Harper Collins, 2002, trad. fr. La proie, Paris, Edition Robert La ont, 2003. Drexler E. K., Engines of creation, New York, Anchor Books, 1986, trad. fr. Les engins créateurs. L’avènement des nanotechnologies, Paris, Vuibert, 2005. Haraway D., Manifeste cyborg et autres essais : Sciences – Fictions – Féminismes, anthologie établie par Allard L., Gardey D. et Magnan N., Éditions Exils, 2007, p. 29-105. Legay J.-M., « L’interdisciplinarité vue et pratiquée par les chercheurs en Sciences de la vie, Dossier Interdisciplinarité. La table ronde des Journées NSS 2002 », Natures Sciences Sociétés, 2004, 12. Mepham B., “Ethical analysis of food biotechnologies: an evaluative framework”, dans Mepham B. (éd) Food ethics, London, Routledge, 1996, p. 101-119. Mepham B., “A framework for the ethical analysis of novel foods: the ethical matrix”, Journal of Agricultural and Environmental Ethics, 2000, 12, p. 165-176. Mepham B., Bioethics for the biosciences: an introduction, Oxford, Oxford University Press, 2005. Roco M. C., Bainbridge W. S., Converging technologies for improving human performance. Technology, biotechnology, information technology and cognitive science, Dordrecht, Kluwer Academic Publishers , 2003. Schmid A.-F., Épistémologie et éthique technologique, Centre d’études 85 franco-russe à Moscou, 20 octobre 2010, disponible à l’adresse : h t t p : / / w w w. o n p h i . n e t / t e x t e - e p i s t e m o l o g i e - e t - e t h i q u e technologique-55.html Schmid A.-F., L’hypothèse d’une non-épistémologie, disponible à l’adresse h p://www.onphi.net/texte-l-hypothese-d-une-nonepistemologie-51.html 86 Do new technologies give rise to new ethical issues? Some reflections on nanotechnology Martin Peterson and Marc J. de Vries27 Introduction Nanotechnology is an umbrella term for a wide range of technologies that make deliberate use of specific properties of individual atoms or molecules. By manipulating individual atoms or molecules, structures with very specific properties can be built. Some products are already on the market, most of which use very thin layers of atoms. Examples range from novel kinds of sun-tan and toothpaste to new coatings for cloths, cars and windows. Several authors have discussed whether nanotechnologies pose any genuinely new ethical issues; see e.g. Preston, Sheinin, Sproat and Swarup (2010), Ferrari (2010), and McGinn (2010). In this paper we seek to contribute to this debate. We argue that some nanotechnologies do indeed bring about new ethical issues. These are of at least two types: (1) sometimes the consequences of nanotechnological applications are radically di erent from what we have experienced before, meaning that we are not able to determine whether the consequences in question are good or bad, and (2) sometimes nanotechnologies make it di cult to apply traditional moral distinctions, such as that between natural objects and artefacts. An example of (1) could be nanotechnological tissue-engineering, which could according to some experts extend the life-expectancy of human beings to hundreds of years. As we can only imagine life-spans of up to about one hundred years, we are currently not able to imagine what it is like to live for hundreds of years and whether or not that is something we should welcome. An example of (2) could be a cyborg combination of human and machine that may prevent us from drawing a distinction between a human life and a mere artefact. 27 Eindhoven University of Technology 87 The structure of this paper is as follows. In Section 2 we discuss what it means to claim that something gives rise to a new ethical issue. What does the word “new” mean in this context? In Section 3 we argue that it is reasonable to think that technologies can sometimes give rise to new ethical issues in a quite fundamental way: in order to make a moral appraisal of the technology we have to develop or refine our ethical principles and concepts. This happens in particular, we argue, when new technologies blur well-established moral boundaries, such as the boundary between “good” and “bad”, “safe” and “risky”, or “morally right” and “morally wrong”. Finally, in Section 4, we apply our conceptual framework idea to nanotechnology. We also discuss more in detail how we are to understand the claim that new technologies, such as certain nanotechnologies, blur traditional ethical boundaries. So new technologies ever give rise to new ethical issues? We concede that there is a trivial sense in which new technologies give rise to new ethical issues. Consider, for instance, the development of the atomic bomb during World War II. Prior to the launch of the bomb, it was simply impossible to kill a quarter of a million people in a single a ack28. Therefore, the ethical questions faced by politicians and other decision makers in the post WW II period became di erent a er the introduction of this new technology. Some actions that were previously impossible to perform – such as starting a nuclear war that could put the lives of hundreds of millions of civilians at risk – suddenly became available29. In that sense, nuclear technology is one of several technologies that have given rise to novel moral choice problems. When a new technology is introduced, the available options faced by the decision maker sometimes change30. Another example of how a novel technology may give rise to new 28 It is estimated that between 150.000 to 260.000 people died within four months of the two a acks in Japan in 1945. See h p://www.rerf.or.jp/general/ qa_e/qa1.html. (Retrieved March 31, 2011). 29 For an excellent discussion of the new choice situations prompted by novel technologies, see (Illies 2009). 30 Cf. (Illies 2009). 88 moral choice problems is the Internet. The Internet has enabled us to communicate with many more people than what was feasible in the past. As a consequence of this, Internet users are now facing a number of moral choice problems that did not exist before. Here are a few examples: Is it acceptable to forward messages received from others? Is it morally permissible to play violent online games? Is it always wrong to trace the identity of people wishing to remain anonymous? We take it that almost no one would deny that novel technologies sometimes, in the sense outlined above, give rise to novel moral choice problems. Whenever the available options and their consequences are di erent from what we are used to, we should of course think through the situation carefully before we decide what to do. However, just because a novel technology enables us to do something that was previously impossible, it does not follow that we need to rethink our ethical principles or concepts. Suppose, for instance, that you are a consequentialist. By definition, you believe that an action is right just in case its consequences are optimal31. Now, all you have to do in order to decide how to behave when faced with some novel technology is to figure out what the consequences of using the technology would be. This may not be an easy task, but your ethical principle will remain exactly the same as before. The new technology has not given rise to any new ethical issue, at least not if we define ethical issues as ones that have to do with what ethical principles or concepts are to be applied to a moral choice problem. The same holds true, mutatis mutandis, for Kantian duty ethicists and virtually all other major ethical theories. For the Kantian duty ethicist the crucial question is whether the principle governing the use of a new technology could be universalised or not. Given that the Kantian is able to answer this question correctly, the conclusion will again be that the new technology has not given rise to any new ethical issue. The key question we are trying to answer here is: when is it reasonable to claim that a moral issue is “new”? So far, we have briefly considered the suggestion that an ethical issue is new if the technology triggering it gives rise to a new moral choice problem, which appears to be the standard view in applied ethics. In addition to the objections raised above, it is worth pointing out that hardly anyone would 31 We are aware that this definition is a bit oversimplified in case we also take multi-dimensional versions of consequentialism into account: see (Peterson 2012). 89 deny that di erent (although new) technologies sometimes give rise to the same ethical issues. In computer ethics, for instance, few people would claim that computer systems running on Windows and Mac OS are certain to trigger di erent ethical issues, although the technologies are certainly di erent. There is no one-to-one (or one-tomany) relationship between technologies and ethical issues. Another problem with the standard view that every piece of novel technology triggers one or several new ethical issues is that it can also be di cult to explain when a technology can be reasonably said to be new. Was the atomic bomb really new? Yes, in the sense that it enabled killing many people in a single a ack. No, in the sense that other bombs already existed, although they had more limited capabilities. Nanotechnology is another example of a domain in which the distinction between new and old technologies can be strongly debated. Some people think that nanotechnology is just more of the same, as we have always manipulated molecules. Others feel that the level of sophistication to which nanotechnology could take the manipulation of molecules is so much higher than before that one can speak of a qualitative jump. But the extensive a ention that is given already now to nanotechnology indicates that many ethicists feel that there is something about nanotechnology that makes it raise a whole range of moral issues that require special reflection32. There are also other problems with the standard view that a technology is new if the moral choice problem the technology gives rise to is new. If we accept this approach, it immediately follows that the “newness” we are talking about would by no means be unique for the engineering sciences. As explained above, novel technologies sometimes put us in moral choice problems that we have never experienced before, but the same is true of many natural events, such as winter storms, natural disasters, and many other non-technological events. No one thinks that winter storms or earthquakes raise any new ethical issues. Although new technologies give rise to new moral choice problems, they do not give rise to any new ethical issues in the sense that they do not make it necessary to revise our ethical principles or concepts. No ma er how drastic the e ects of a new technology will be, it seems that we can always make a moral appraisal of it by applying the same old moral principles that have been discussed in 32 See (De Vries 2008) for a systematic survey of moral issues raised by nanotechnology. 90 the ethics literature for hundreds of years. That is, old principles and old concepts su ce for resolving new moral choice problems. This indicates that this option for “newness” is not very interesting from an ethical perspective. The inapplicability of old principles and concepts Let us try to summarise the observations in the foregoing section in two general but tentative structural hypotheses. The first hypothesis is that new technologies sometimes give rise to new moral choice problems. This is arguably somewhat trivial, and by no means unique for novel technologies. Although novel technologies sometimes put us in choice situations we have never experienced before, the same is true of many natural events, such as winter storms, natural disasters, and many other non-technological events. Although these issues may be very serious, it might very well be the case that we can in principle always analyse them by using old ethical principles and concepts. The second tentative hypothesis is that although new technologies give rise to new moral choice problems, they do not give rise to any new ethical issues – at least not if we take new ethical issues to be ones that make it necessary to revise our ethical principles or concepts. No ma er how drastic the e ects of a new technology will be, it seems that we can always make a moral appraisal of it by applying the same old moral principles that have been discussed in the ethics literature for hundreds of years. According to advocates of the second hypothesis, old principles and old concepts su ce for resolving new moral choice problems. We take it that the two tentative hypotheses are fairly widely accepted by contemporary ethicists. Exactly how widely accepted they are depends on how we interpret the various claims people have made in the literature, but this is not the right occasion for dwelling on this exegetical issue. We simply assume that the two hypotheses are su ciently widely accepted for being worthy of a detailed analysis. We also note that whether the two hypotheses hold true also has implications for how we are to think about the ethics of technology from a more general perspective: is this a subfield of applied ethics that deserves special a ention because it raises new ethical issues, or 91 can everything that is worth saying about the ethics of technology be derived from old moral principles and concepts originally developed in other ethical discourses? Our position is that although the first hypothesis is indeed true, the second is false. Some novel moral choice situations brought about by new technologies cannot, in a strong sense, be properly analysed by applying old moral principles and old moral concepts. This is not because a proper analysis of these novel choice situations would require some fundamentally di erent principles or concepts. The reason is that some novel technologies make it impossible, in a strong sense, to apply the old moral principles and concepts we are familiar with. Our existing principles and concepts need to be refined and developed further. We shall use the expression “blurred ethical boundary” for referring to cases in which the introduction of a novel technology makes some traditional ethical principle or concept inapplicable. In such situations, there is no determinate answer available, not even for an agent who has access to all relevant empirical facts, to how an ethical principle or concept should be applied. In order to illustrate our claim, it is helpful to consider a simple example. Suppose that the development and use of a novel technology, let us call it T, brings about some consequence C, and also suppose that you accept some moral principle that assigns at least some moral weight to consequences (which, of course, does not entail that you are a consequentialist). Now, in order to make a moral appraisal of T you have to be able to determine whether C is a positive or negative consequence (or, strictly speaking, is be er or worse than the relevant alternative consequences). Given this, the claim that T blurs an ethical boundary means we cannot determine whether C is a positive or negative consequence of T. Why not? Well, because C is so di erent from everything else we have experienced and therefore do not fit with our present conceptual apparatus. Generally speaking, when we determine whether something is good or bad we typically do this by comparing with something we are familiar with and which we know that our traditional principles and concepts can analyse properly. The first time you taste a new wine, for instance, you will most certainly compare it with other wines you are already familiar with. This is why it takes time to learn to taste and correctly evaluate the quality of a wine. The first time in your life you 92 taste wine you will most certainly not be able to assess it correctly. This is not because there is no true answer to the question – the quality of the wine is what it is – but because you are not in a position to evaluate its quality. Among other things, you need to acquire a conceptual apparatus that enables you to formulate conscious thoughts about the taste of the wine. Let us take this analogy to its extreme. Imagine that the sommelier in your favourite restaurant o ers you some very odd type of wine, such as wine made from lingon berries (a type of berries found in the north of Sweden). Given that you have never tasted this type of wine before, it will be di cult for you to decide what to think about it. The traditional concepts and principles we have for evaluating wine do not apply to wine made from lingon berries. Although you are perfectly able to describe all the chemical facts of the wine, you are unable to tell whether it is a good or bad wine. This holds true even if you are a very experienced wine taster. In this type of case, the principles and concepts used for the evaluation need to be further developed. It is not su cient to just gather more empirical facts about the chemical composition of the lingon berry wine. The analogy with novel types of wines serves to illustrate in what sense novel technologies can blur traditional ethical boundaries and why such technologies can make it necessary to rethink traditional moral principles and concepts. The principles and concepts we are familiar with, and which we know how to apply in a wide range of contexts, do not su ce for determining whether, for instance, some novel type of consequence is good or bad. In that sense, novel technologies can give rise to a novel ethical problems and questions. We do not wish to claim that we know for sure that there is no correct answer to how a moral principle or concept should be applied in the cases we are concerned with. For all we know, such objectively correct answers may very well exist, at least in some cases. In those cases, our claim is just that some novel technologies make it impossible to apply certain moral principles and concepts until we have figured out how the relevant principles and concepts should be applied. The principles and concepts need to be further refined and developed by the people using them, not replaced with some entirely new set of principles and concepts. However, as we will explain in the next section, there might also be cases in which the blurring of boundaries 93 is not only due to various forms of epistemic uncertainty; it is surely conceivable that sometimes there is no determinate answer to what is good or bad, or to what ought to be done or ought not to be done. Nanotechnology, moral uncertainty, and degrees of rightness In this section we illustrate the argument developed in the preceding section by applying it to nanotechnology. We also provide a more detailed analysis of what it means to say that nanotechnology (or some other technology for that ma er) blurs an ethical boundary. We acknowledge that the term “nanotechnology” is problematic because of the many di erent technologies for which it is used. Nanotoothpaste is, for instance, very di erent from a technological point of view from molecular nanotechnology with its world-changing promises. To many nanoscientists, the whole idea of molecular nanotechnology is science fiction. They therefore doubt if it is at all worthwhile to have any serious debate on the possible e ects of something as speculative as this. Despite this, we nevertheless believe that some recent debates over the ethics of certain nanotechnologies are well suited to illustrate our claim about blurred ethical boundaries. Let us consider an example. One of the possible future applications of nanotechnology is the manipulation of atoms to repair damaged human tissue. Tissue engineering is not an entirely novel technology, but it is still dependent on natural growth of tissue on sca olds. In the future, nanotechnological tissue engineering might eventually enable us to repair human tissue, in particular brain tissue, at such a pace that death could be postponed. Although this is one of the far reaching claims made by only a small number of scientists, this is nevertheless an example that can be used in an ethical debate of the sort of consequences nanotechnology might eventually have. That said, the moral qualities of the possible e ects of this technology are still extremely di cult to assess: should an extended life span always be welcomed? The average transhumanist would presumably answer “yes” without any reservation. But for others the situation is less clearcut. As we have no other experiences than lifetimes of up to about 90 years, we can hardly make any sensible estimate of what it will be like to 94 extend life to hundreds of years. Is this something we should welcome or fear? Will we find ways of spending this potentially endless time to our satisfaction? Will we still find it meaningful to study, read books, and meet new people, if we believe that we still have hundreds of years le to live? Such confusion about the meaning of basic issues in our existence makes it extremely di cult to develop a view about how to appreciate the consequence of this potential development as positive or negative. Arguably, many people feel that their own existence is closely related to the idea that life ends, and that the human life span is such that we cannot wait too long with realising certain “long term” goals in order to make sure we get there in time. Therefore, it is simply unclear whether the possibility of exterminating all serious diseases by repairing tissues is something we should welcome or not, and it seems that no existing moral principles or concepts su ce for se ling this issue. It is, therefore, not unreasonable to claim that tissue engineering blurs the ethical boundary between morally desirable and undesirable interventions. Unsurprisingly, the blurring of an ethical boundary makes it di cult to make a moral appraisal of acts involving this type of tissue engineering, and it is not just the boundary between “good” and “bad” that is blurred. Traditionally we would judge “healthy” as a good a ribute and “diseased” as a bad one, but what can we do if the distinction between “healthy” and “diseased” is no longer clear and a new state of “potentially diseased” has emerged? It is predicted that the “lab-on-chip” technology will make it feasible to have regular medical examinations that yield complete DNA maps and changes for developing a variety of diseases (Abgrall 2007). Consequently, even if one is healthy right now, one has to live with knowledge that there is a realistic chance of developing certain diseases. Of course, techniques to establish potential diseases already exist, but this is very limited compared to what the “lab-on-chip” technology will o er. We will have knowledge at such a detailed level that this will no doubt have an impact on our perception of “health” and “disease”. Smits has argued that that society handles this problem of blurring category boundaries by redefining categories (“taming the monster”, as she calls it), but even the appreciation for the redefined categories (which is “good” and which is “bad”) are by no means obvious. This has implications for the way we perceive a possible event as a risk or not. A second example is the blurring of boundaries between humans 95 and machines (brought forward by Swierstra 2009a and 2009b). Nanotechnology may enable us in the future to make very direct connections between human brain cells and wires in devices. This will mean a blurring of the boundary between human and device. Many science fiction movies have already played with this idea of a cyborg. Is it a human being or a machine? Is it natural or unnatural for a person to have extreme forces or computing capabilities as a cyborg may have? We take the example outlined above to show that it is reasonable to claim that at least some technologies, and possibly some applications of nanotechnology, blurs ethical boundaries between “good” and “bad”, or “natural” and “unnatural”, or “safe” and “risky”. Moreover, given that we take considerations such as these to determine the deontic status of our actions, it seems that the boundary between “morally right” and “morally wrong” may also be blurred (given that one rejects ethical principles that turn non-sharp moral properties into sharp deontic verdicts)33. As we noted towards the end of Section 3, there are at least two ways in which one can understand the claim that a technology blurs an ethical boundary. First, one could claim that this is an example of moral uncertainty : although we do not know whether the long-term e ects of tissue engineering are good or bad, there is a determinate binary answer to the question. Compare, for instance, with the number of helium atoms in universe; it seems clear that there is a determinate binary answer to the question whether the number of helium atoms in universe is odd or even, although no one knows the answer. From a metaphysical point of view, moral uncertainty is nothing odd. We, as epistemic agents, do simply not know whether the long-term e ects of tissue engineering are good or bad, but given that we have access to all relevant information it would be easy to determine the answer. The philosophical problems surrounding moral uncertainty have been extensively discussed by Lockhart (2000). Although the debate over moral uncertainty is interesting, we believe that there is more to the blurring of ethical boundaries than mere epistemic uncertainty. To put the intuition in a very straightforward way, it seems that theorists who agree with us that (some) nanotechnologies blur ethical boundaries would be inclined to think that sometimes there is no correct answer to whether the long 33 See Peterson (2012) for a discussion of this point. 96 term e ects of tissue engineering are good or bad. According to this second proposal, to claim that a technology blurs an ethical boundary is to make a metaphysical claim: there simply is no sharp distinction between good and bad, natural and unnatural, risky and safe, or morally right and morally wrong. In his previous writings, one of the authors has discussed two of the above-mentioned dichotomies, viz. the idea that there is no sharp line to draw between good and bad, as well as the idea that there is no sharp boundary to be drawn between morally right and morally wrong (Peterson 2010, Espinoza 2011). First consider the boundary between good and bad. In recent years, there has been an extensive debate among moral philosophers over non-traditional value relations such as “parity” and “rough equality”34. These concepts seek to capture the intuition that the distinction between what is good and bad is not always sharp. Imagine, for instance, that you wish to find out who was the be er philosopher, Jean-Paul Sartre or George Edward Moore? It seems clear that Moore did not write as elegantly as Sartre, but his philosophical originality was certainly greater. In the terminology introduced by Chang (2002), we may say that Sartre and Moore were “on a par” with respect to their philosophical skills. By definition, two objects are on a par if and only if (i) they are comparable, and (ii) it is false that one is be er than the other, and (iii) it is false that they are equally good. This means that parity is a novel fourth positive value relation, which di ers fundamentally from the three traditional value relations “be er than”, “worse than” and “equally as good as”. Parfit’s and Gri n’s concept of “rough equality” is designed to capture essentially the same intuition about evaluative comparisons between very disparate items (Parfit 1984, Gri n 1989). We take it that the intuition that some novel technologies blur certain evaluative boundaries can be at least partly understood as a claim about the existence of such a new non-standard value relation that di ers fundamentally from the traditional value relations “be er than”, “worse than” and “equally as good as”. Let us now try to shed some light on the idea that a blurred moral boundary could also be conceived of as a case in which there is no sharp boundary to be found between “morally right” and “morally wrong” actions. For an example of a case in which a certain form 34 Cf. (Parfit 1984) and (Chang 2002). 97 of nanotechnology seems to be morally right to some degree and morally wrong to some (other) degree, consider the use of extremely small nano-cameras. Nano-cameras can be hidden very e ectively, and although they do not yet exist, there has been a lot of speculation about their possible use. Perhaps nano-cameras are more right to use than traditional surveillance cameras, since they increase overall safety in society – but they may at the same time be more wrong, since they give rise to various privacy issues. Throughout the past centuries, moral philosophers and other thinkers have proposed a wide range of principles for distinguishing morally right actions from morally wrong ones. Utilitarians, Kantians, contractualists, and rights-theorists disagree about what makes right acts right, but they all agree that there is a sharp distinction to be drawn between right and wrong actions. However, on the view proposed here, some actions, such as the use of nano-cameras or certain forms of tissue engineering, are neither entirely right nor entirely wrong. Such actions have some moral status that falls between entirely right and entirely wrong. Peterson (2010) and Espinoza and Peterson (2011) argue that such actions are best thought of as not being entirely right or wrong, but rather right or wrong to some degree. That an action is right to a certain degree means that it is more right (or righter) than an action that is right to a lower degree. It is worth pointing out that this view could also be formulated in terms of actions that are neither obligatory nor forbidden, or neither permissible nor forbidden, and so on. The choice of primitive deontic categories is to some extent irrelevant. If accepted, the claim that moral rightness and wrongness vary by degrees could make societal debates about nanotechnologies less polarised. Instead of debating whether e.g. nanotechnological tissue engineering is right or wrong, we could instead acknowledge that this technology is right to some degree and wrong to some degree. In that sense, using this technology blurs the boundary between what it is morally right and morally wrong to do. This interpretation of the idea that nanotechnologies blur the distinction between moral rightness and wrongness can thus enable moral theorists to provide more nuanced analyses of cases that have previously been treated in less precise ways. Unfortunately, the two proposals sketched here for how to analyse the idea that new technologies blur ethical boundaries come at a price. 98 The problem is that it may be questioned whether new technologies really give rise to new ethical problems, since the notions of moral uncertainty and degrees of moral rightness have to some extent already been discussed in the literature. Therefore, it could be argued that a blurred ethical boundary does not seem to require that we develop any new ethical principle or concept – we just have to apply a set of old, already existing concepts. Our reply to this objection is that the two ways of understanding the notion of a blurred ethical boundary sketched above are primarily thought to be theoretical analyses of what it means to say that a novel technology blurs an ethical boundary. That is, these theoretical constructs do not give us all the moral information we need for actually analysing the novel pieces of technology. There is thus an interesting sense in which (nano)technology gives rise to new ethical issues: sometimes a novel technology blurs a morally relevant boundary, meaning that all the factual knowledge in combination with our existing moral principles and concepts do not su ce for making a moral assessment of the novel technology. Références Abgrall P. and Gué A.-M., “Lab-on-chip technologies : making a microfluidic network and coupling it into a complete microsystem – a review“, Journal of Micromechecanics and Microengineering 17, 2007, R15-R49. Chang R., “The Possibility of Parity”, Ethics 112, 2002, pp. 659-688. de Vries M., “A Multi-Disciplinary Approach to Technoethics”, in Luppicini R. and Adell R. (eds.), Handbook of Research on Technoethics. Hersey, NY : Information Science Reference (IGI Global), 2008, pp. 20-31. Espinoza N. and Peterson M., “Risk and Mid-Level Moral Principles”, Bioethics, 2011, in press. Ferrari A., “Developments in the Debate on Nanoethics: Traditional Approaches and the Need for New Kinds of Analysis”, Nanoethics 4, 2010, pp. 27-52. Gri n J., Well-Being: Its Meaning, Measurement, and Moral Importance, Clarendon Press, 1986. 99 Illies C. and Me ers A., “Artefacts without agency”, The Monist 92, 2009, pp. 420-440. Lockhart T., Moral Uncertainty and Its Consequences, Oxford University Press, 2000. McGinn R., “What’s Di erent, Ethically, About Nanotechnology?: Foundational Questions and Answers”, Nanoethics 4, 2010, pp. 115128. Parfit D., Reasons and persons, Oxford University Press, 1984. Peterson M., “Parity, Clumpiness, and Rational Choice“, Utilitas 19, 2007, pp. 505-513. Peterson M., “Some Versions of the Number Problem Have No Solution” Ethical Theory and Moral Practice 13(4), 2010, pp. 439451. Peterson M., “Multi-Dimensional Consequentialism”, Ratio 25(2), 2012 (forthcoming). Preston C., Sheinin M., Sproat D., and Swarup V., “The Novelty of Nano and the Regulatory Challenge of Newness”, Nanoethics 3, 2010, pp. 13-26. Smits M., “Taming monsters: The cultural domestification of new technology”, Technology and Society 28(4), 2006, pp. 489-504. Swierstra T., Boenink M., Walhout B. and van Est R., “Converging Technologies, Shi ing Boundaries”, Nanoethics 3, 2009a, pp. 213216. Swierstra T., van Est, R. and Boenink M., “Taking Care of the Symbolic Order: How Converging Technologies Challenge our Concepts”, Nanoethics 3, 2009b, pp. 269-280. 100 Small particles, big issues Nanotechnologies and ethics Göran Hermerén35 Rapid development Nanotechnologies are used in the car industry, in aerospace industry, in the chemical industry, in the pharmaceutical industry, in medicine and biotechnology, in information and communication technologies, as well as in the cosmetics and food industries. There are thus several nanotechnologies and many applications of these technologies; and they raise partly di erent problems. The Wilson Center in the US stresses the di culty of identifying nano-based products because information to consumers is o en incomplete. But the Wilson Center has identified 738 such products in the area of health and fitness and more than 1300 such products totally according to a recent update. Nanotechnology is anticipated to be the globe’s next big economic driver. This has encouraged major investments in research and infrastructure. Five U.S. cities have emerged as the country’s top “Nano Metro” locations — areas with the nation’s highest concentration of nanotech companies, universities, research laboratories, and organizations. In this paper, I will focus on ethical issues raised by nanoparticles of di erent kind. In passing, I would like to add that I have deliberately chosen “big issues” in the title, not “big problems”. The expression “big issues” covers many things: “big problems, di cult problems, but also big promises”. 35 Lund University 101 Nano focus on health and environment I will first consider applications of nanoscale research in the area of medicine and health, then applications focusing on environment. There is clearly also an interesting connection between the two areas in that pollution of the environment is likely to have adverse impact on public health. Medical applications Since several decades considerable progress has been made in many medical areas of application, for instance imaging, biomaterials, diagnostics, and drug delivery. Moreover, it has been shown that nanowires can generate electricity, and that nanowires have the potential to be used for deep brain stimulation, which can be used in the ba le against Parkinson’s disease. As is obvious from several surveys, products on nanotechnology can be used for diagnostic and therapeutic purposes, including improved imaging, lab-on-a-chip, production of new biomaterials, improved drug delivery and so on. Therapeutic targets include metastatic cancer, ocular repair, non-healing wounds in aging population, infectious diseases, arthritis, tissue repair and orthopedic surgery; I learnt about the la er from Andrew McCaskie. Ruth Duncan wrote already in 2004: “Progress in the development of nanosized hybrid therapeutics and nanosized drug delivery systems over the last decade has been remarkable. A growing number of products have already secured regulatory authority approval and, in turn, are supported by a healthy clinical development pipeline” (Duncan 2004). A modest example may illustrate the potential. Nanoparticles of cadmium selenide have been injected into mice. When exposed to ultraviolet light, these nanoparticles will glow. They can seep into cancerous tumours and help surgeons excise cells without disturbing healthy ones – thus, without the negative side e ects of current treatments like radiation and in particular chemotherapy. 102 These possibilities have a racted many small and medium-sized companies to develop new products. For instance, according to Nano Magazine, Israeli start-ups have developed nanotechnology water purification membranes, agents for oral drug delivery, inkjet digital printing systems, diagnostic tools, as well as holographic storage systems. Environment When thousands of products containing nanoparticles are used and thrown away, what happens to the waste? Is there any risk that especially free nanoparticles will be spread in air, soil and water, polluting the environment? Will nanoparticles accumulate and build up new properties, which may be harmful to human beings? Currently, we do not know. Climate change is an important problem, high on the political agenda today. The ability to keep CO2 out of the atmosphere to help prevent climate change is a global issue. The challenge is to use materials that can capture CO2 and then release it easily for permanent storage. Researchers at the University of Calgary and University of O awa have taken important steps in that direction. Their discovery, published in Science, Oct 29, 2010, will allow scientists to design be er materials to capture more CO2. Fossil fuels will not last forever. As oil prices are going up, more and more a ention is given to alternative energy sources. Probably solar energy is most a ractive due to its nature. Producing arrays for solar energy conversion or transistors may be four times faster thanks to new nanometer-scale optoelectronic devices. At University of California, San Diego, electrical engineers have created experimental solar cells spiked with nanowires that could lead to highly e cient thin-film solar cells of the future. To sum up so far: nanotechnologies can provide new possibilities to produce cheap and clean energy, to get clean water with the help of nanofilters, to facilitate improved (lighter, stronger) materials for cars and aeroplanes as well as hundreds of new products, including sunscreens and sunglasses. 103 Clearly, there are many promising research avenues and areas. But there are also problems. Toxicity studies have shown that spherical carbon nanoparticles can a ect metabolism, have e ects on kidneys resulting in decrease in body weight and dwarfed vital organs. This type of particle can also have adverse e ects on the respiratory system. But much remains unknown in this area. For example, we do not know if nanotubes have an e ect on the nervous system, nor if spherical carbon nanoparticles are carcinogenic. We know that we do not know. But do we know what conclusions to draw from this lack of knowledge? A major study published recently in Nature Nanotechnology suggests some forms of carbon nanotubes could be as harmful as asbestos if inhaled in su cient quantities. The study used established methods to see if specific types of nanotubes have the potential to cause mesothelioma — a cancer of the lung lining that can take 30-40 years to appear following exposure. Which are the ethical problems? The previous section identifies several hazards. Are these problems new? I am not convinced by that. But that does not mean the problems are unimportant. The criteria of novelty are not entirely clear. Besides, few problems are completely new and without any precedent. Safety issues are raised by many new technologies. But it would be absurd to conclude that the safety issues raised by various applications of nanotechnologies, for instance, the use of quantum dots or carbon nanotubes in nanomedicine, should not be discussed, because this is not a “new” issue. Safety issues are crucial. There are indications that certain types of carbon nanotubes give rise to asbestos-like pathogenic e ects related to the structure and length of the tubes. Studies on rats have shown that nanoparticles can be absorbed via the nose and then transported to the brain where they accumulate (Ostiguy 2008, Hermerén 2010). But the extent to which this will give rise to health hazards remains to be studied in more detail. Li le is also known about the health impact of cosmetics containing nanoparticles. 104 The ethical issues raised by nanotechnology and nanoresearch include but are not exhausted by consumer safety and assessment of risks in relation to expected utility. Other issues, briefly identified below, include informed consent in research and health care, integrity and privacy, transparency, intellectual property rights, hype, justice and fairness. Assessment and management of risks, especially when there are considerable knowledge gaps, known unknowns as well as possibly unknown unknowns, raise a number of di cult issues about which there is an extensive international literature. By the way, identified risks should not be regarded as obstacles for technological development but as a strong reason to get more robust and reliable knowledge as well as more adequate methods of risk assessment. Di erent nanomaterials exemplify di erent risks, and more research is needed about the e ects of these materials on health and environment. More toxicological studies need to be carried out. Research ethics and informed consent is another important ethics area. It is di cult to inform research subjects and consumers in a way that is not misleading about processes and products, when our knowledge is fragmented and incomplete – and when the methods used to identify risks and e ects have a number of documented shortcomings. Consent may not be too di cult to obtain. But when is it informed? And when is it free? The analogy with a marriage may be illuminating. When both parties say ”yes” there is clearly consent. But is the consent informed? This is doubtful. The risks are largely unknown, and so is the duration of the relationship. For translational research, aiming to bridge the gap between bench and bedside, clinical trials are crucial. Then there is a need to discuss both informed consent and selection of patients – and how to deal with desperate patients prepared to consent to anything. Long-term negative e ects of implanting nanodevices into the human body are by and large unknown. Conditions for withdrawal of consent is another issue that is relevant for both research and health care. It is also di cult. This is especially the case when the consent cannot be revoked, for example, because nanodevices have been implanted into, and integrated with, the spinal cord or the brain. 105 Integrity and privacy are other pertinent concerns in this area. Nanotechnology, especially if combined with bioinformatics and other emerging technologies, will make it possible to collect and analyze vast amounts of data about individuals. Which are the consequences of this for the integrity and privacy of these individuals? For possible uses by third parties such as employers, insurance companies and relatives? How is a fair balance between interests of integrity and other interests to be achieved? Transparency and societal debate are other important aspects of new and emerging technologies, related to the right of consumers to know what they buy. What do consumers know about the ingredients of products they buy? What do they want to know? Labelling is a hot issue in this context. It raises practical problems. The health e ects of certain nanoparticles may depend on the presence of other particles. But from a political point of view there is pressure to provide consumers with be er information about what they pay for. In the Biotechnology directive, it is made clear that methods and products based also on new, emerging technologies are to be patentable provided that they meet the standard conditions of patentability. Is this the case with nanodevices and methods based on NS&NT (nanoscience and nanotechnology) research? Probably we have to look at concrete examples and decide on a case-by-case basis. Will some inventions based on nanoscale research violate the “morality clause” of EPC (European Patent Convention) article 53 (a) or be covered by the list of exceptions? Since patent law is an a empt to strike a balance between di erent interests, ethical issues are likely to emerge in the course of this discussion. Of course, what can be achieved is not identical with what has been achieved. Sometimes it is more tempting to talk about future possibilities than about past achievements. There is a hype problem in many new and emerging technologies, because funding of basic research is limited. NS&NT research is no exception. To put it crudely, scientists also have vested interests. Hardly surprising, they want money for their research. So when some scientists are asked if they can solve the energy problem, the answer is likely to be YES. Similarly, when they are asked: Can you cure cancer, improve drugs and drug delivery? Again many scientists are likely to say, like Obama: ”yes, we can”. 106 The reason for yielding to such temptations is an underlying problem in funding policy. To get funded many researchers are, or believe they are, under pressure to promise that their research will lead to practical applications in various fields. In EU and in many member states, focus is on innovations that can be applied practically to improve the health of citizens, make products more competitive on the global market, fight unemployment, provide be er and safer food, etc. If funding for basic research, for seeking new knowledge for the sake of understanding processes and events, is reduced, scientists can be tempted to promise something in order to get funded. But if they promise too much too early, this may lead to frustration and backlash, as was the case in gene therapy, for example. Last but not least, a number of issues related to justice and fairness are raised, especially if we are prepared to take a global view. Will NS (nanoscience) and NTs (nanotechnologies) contribute to increase the gap between developing and developed countries so that the result will be a nano-divide in addition to the IT-divide that already exists? NT has a potential to make cheap energy possible, to produce nanofilters which can help to provide clean water, of immense importance for public health in the developing countries. But will these possibilities be explored? In which scale? The answer to these questions will depend, among other things, on research priorities – on how research of this kind is prioritized in relation to the possibility to develop nanomaterials for use in products which are in demand on markets where there is a lot of capital. Which diseases, and whose diseases, will be prioritized? Who will benefit? There is already an extensive discussion about the so-called 90/10 problem, that roughly 90 % of the research resources in the world are used to study health problems which 10 % of the world population su er from (Global Forum for Health Research). Will this become true also of nanoresearch? To sum up so far, there is a danger in focussing only on standards of safety. An ethical analysis of any emerging technology needs to go beyond risk assessment. In fact, excessive focus on safety and risk assessment can be a way of preventing other ethical issues from ge ing the a ention they deserve. These issues range from anthropological issues to protection of integrity, privacy and consumer freedom, and ethical issues raised by patenting, access and global justice. 107 How are the ethical issues to be handled? I propose to discuss this question in three further steps. Having identified at least some of the ethical issues in the previous section, I will first go on to characterise ethical issues, and then describe some di erent approaches to them. Finally I will comment on the relevance of knowledge gaps and uncertainties for this ethical debate. The nature of ethical problems Ethical problems at least in this area presuppose conflicts of interest in a wide, non-technical sense. This approach to ethics invites us to think not only about which interests but also about whose interests are at stake. The interests can then be further specified in terms of values, rights, liberties,… The purpose of the ethical analysis is to identify the stakeholders, choices, and values at stake, and to clarify the conflicts of interests and values. If the interests of all stakeholders could be satisfied at the same time, there would be no conflicts. In other words, when this is not the case and there are conflicts of interests, a choice has to be made, which most likely will benefit some and not others. On what ground is that choice to be made? This raises both factual and ethical issues. Who benefits, who does not, who makes the decisions, who has information and who can influence what is going on? How can this be justified? There is here a connection between ethics and exercise of power. Some stakeholders have power, others not. This fact should not be swept under the carpet. There are di erent approaches to ethics, as well as di erent concepts of ethics. The distinction between descriptive, normative ethics is a well-known one. It can be expressed simply as a distinction between the two questions: (a) What is right and good, and (b) what is considered to be right and good? The la er, of course, is a factual question, which in principle can be answered by sociological investigations, using surveys and similar methods. Thus, normative ethics is concerned with rights, liberties, duties and their foundation or basis. But descriptive ethics essentially describes and analyses practices, values and norms, in di erent societies at di erent times. 108 The distinction between practical and theoretical ethics is less discussed but quite relevant in this context. The distinction is not a sharp one. The goal of practical ethics is mainly to reach a decision, or provide reasons for a particular decision, on a hotly debated normative issue. But theoretical ethics explores logical and semantic relations, promoting understanding of the key concepts used and the relations between arguments used for and against various contested positions. Studies of the relations between di erent concepts and principles of autonomy, or the relations between di erent versions of, for instance, Kant’s various formulations of the categorical imperative would exemplify theoretical ethics in this sense. Goals and values hang together. Persons will try to achieve a certain goal because in their view it will be valuable to achieve, or at least to come closer to achieving, that goal. But ethical issues arise not only in choices between di erent goals. This can be illustrated by a figure I have used elsewhere to indicate several clusters of ethical issues raised by new and emerging technologies like nanoscale research (Hermerén 2007). Thus there is more than one ethical issue which can be answered by one grand ethical theory, such as utilitarianism or Kantian ethics. 109 Approaches to ethical problems Let me now move on to describe a few di erent approaches to ethical problems. Here I will only remind readers of some well-known alternatives. There is a vast literature on each of them. Human rights approaches. Human rights are universal, and they have considerable political support. Access, social and global justice are obviously relevant concerns here, related to human rights. Without going into theoretical justification of this approach (elaborated by philosophers like Alan Gewirth, John Rawls and others), this approach is supported by, and has influenced, many international declarations and guidelines, in particular the UN and Council of Europe declarations on human rights, Admi edly, the basis of human rights is philosophically somewhat unclear and debatable. But human rights are politically and pragmatically important. If policymakers want to achieve a change, it increases the strength and persuasiveness of the proposed change, if it can be demonstrated that the proposal is based on human rights. Utilitarian alternatives. In classical utilitarianism, “happiness” is the key concept. The idea is to choose the alternative that maximizes happiness for as many as possible. In modern preference utilitarianism, advocated by Peter Singer and others, “interest satisfaction” is the key concept, and the agent should chose the alternative that satisfies as many strong interests as possible. Many utilitarians take a dim view of human rights, or try to provide a philosophical underpinning for human rights in terms of interests, like for instance Jeremy Bentham. Kantian approaches. In addition to these two rival approaches, there are di erent deontological points of departure, including some based on Kantian ethics, where “human dignity” becomes a central – and sometimes contested – concept. What does “human dignity” mean more exactly? A basic idea in Kantian ethics is that there are things you can put a price on, buy and sell, like soap, bread and vegetables. But human life does not belong to this category – it cannot be valued in money. The principle of human dignity is incompatible with slavery, for instance. Humans should 110 always be treated as ends in themselves, not solely as means to ends. Virtue ethics. Virtue ethics is currently fashionable and has a long history in philosophy, going back to Aristotle. It raises di erent questions than the other approaches, which are more directly designed to deal with problems raised by choices of alternative actions (“What should I do? Which action should I carry out?”). The basic question of virtue ethics is rather, “What sort of person should I be?” However, it is not altogether easy to apply this approach to the sort of problems raised by new and emerging technologies. It would presumably have to be by asking: What would a virtuous person do? In this situation ? But is there a clear, non-ambiguous answer to this question? And is there only one type of virtuous person? Having said that, I will now state and apply what I would like to call the canonical formulas of the key approaches above to the ethical issues raised by nanoscale research: (i) A particular alternative (course of action) is right (ethically acceptable), if – or only if – or if and only if, it is compatible with human rights (ii) A particular alternative is wrong, if – or only if – or if and only if, it violates human rights. Similar formulas can easily be suggested for the other approaches This sounds simple and straightforward enough. But the challenge is to show – or make plausible – that the conditions outlined in the “if” or “only if” clauses are met. Why is this di cult? There are several distinct reasons. There will be problems of definition that need to be clarified, empirical aspects that need to be studied, uncertainties and knowledge gaps which need to be identified, recognized and filled. In other words, an integration between ethics and science is called for at this point. Such an integration puts demands on both ethicists and scientists. Ethicists should immerse themselves in the challenges and choices facing scientists in this area. Otherwise they are not likely to contribute much. Ethics in this context is not something separate from these 111 choices and challenges. Similarly for scientists – they need to acquire some familiarity with societal debates, ethical problems, traditions, concerns and concepts, if they want to contribute to this integration. The particular task of ethicists is to use their philosophical training to reveal ambiguities, to make distinctions, to make hidden assumptions explicit, to examine critically the relevance of arguments, to avoid talking at cross purposes and to elucidate the issues. In this work their familiarity with basic and important distinctions will be helpful. They should also use their ability to assess the relevance and tenability of the arguments proposed. In particular underlying value assumptions need to be made explicit – the values as well as ranking orders of values – in order to identify which values are threatened or promoted by the various choices open to the agents in the situations at hand. Knowledge gaps and uncertainties The highest wisdom according to many philosophers from Socrates and Confucius is to know what one does not know. Thus it is essential for scientists to help to identify uncertainties and knowledge gaps, and to vary the scientific scenarios. Then it should be possible to examine if and to what extent such variations will change the preliminary conclusions. Exploring the choices we are faced with, the alternatives and their consequences are not the only important things to consider. The probability or likelihood of the consequences and the value of the outcomes are, of course, also crucial. Rational decision-making presupposes we have correct beliefs about the probabilities of the outcomes and that there is no uncertainty about values and the ranking order of values. Our desires and preferences determine the utilities of the possible outcomes. Preferences and their logical properties, in particular transitivity, play a central role in conceptions of rational choice. But St. Augustine’s famous remark about “time” can be applied also to “rationality”: ”if nobody will ask me what it is, I know; but if you ask me, I do not”. Di erent ideas and conceptions of rationality emerge in several disciplines, including economy, sociology and 112 philosophy, and also within di erent philosophical discourses, ranging from decision theory, game theory, contractarianism, moral particularism to analytic feminism. It is o en suggested that it is rational to consider a proposition to be true only to the extent justified on the evidence available. But the problem is that in the moral field there will be disagreements over the relevance of the evidence available; people with di erent moral views will not always agree on what counts as evidence. The debate on the ethical acceptability of research on human embryonic stem cells illustrates this. A more useful starting point is Weber’s conception of “Zweckrationalität”, where di erent means to achieve a particular end are compared. This is an approach I will use here. It seems clearer what rationality is when we agree on the goals and values than when we disagree about them. In what sense can there be a rational debate and decision, when we disagree about the basic values? A possible approach may be to take the contractarian view that rationality presupposes that we respect persons. This in turn requires the moral principles and values chosen to be such that they can be justified to each person, given the “veil of ignorance” described by Rawls in his magnum opus A Theory of Justice. Thus self-interest or group egoism will not work as points of departure. Ideally, for a rational debate on how to maximise utility, we would agree on both values and what we know concerning the case at hand. The value uncertainty and the epistemic uncertainty should be low or non-existent. But these conditions are rarely met in discussions of, and decision-making concerning, new and emerging technologies. They exemplify both epistemic risk (knowledge gaps and uncertainties) and uncertainties about values. Then we can distinguish between four types of cases : 113 In these four situations we need to take a Socratic approach to risk analysis and risk management, identify factors producing epistemic uncertainty as well as value uncertainty, and study in what ways they influence our decision-making and risk-taking (Sahlin 2011). To what extent is value uncertainty a problem in the present context? There are di erent types of value uncertainty. To explore them would be the subject of a separate paper. For the limited present purposes it is enough to stress that here also empirical aspects are relevant – and many studies indicate that values di er in di erent parts of the world. For instance, values have been described and mapped in the world values project, where Sweden and Zimbabwe are to be found in opposite corners of the world map. This should perhaps not be too surprising, even if values here are compared only in very few dimensions. But there are great di erences also within Europe, for example, concerning abortion, research on embryos, animal health and welfare, the status and rights of women, the role of the family, and the rights of the individual vs. the rights of the collective. However, this is not necessarily a black and white picture in the sense that either a certain value is ethically acceptable or not. Values can be more or less important in di erent situations. The ranking order of values needs to be examined much more than has been done so far, as I have argued elsewhere (Hermerén 2008). For this as well as for other reasons I am sceptical of what I would call the engineering conception of ethics. According to this conception, there is one basic concept, for example, human dignity, happiness, utility or interest satisfaction; as well as one basic principle: for example, respect human dignity or maximize happiness. Then the 114 idea is to feed in the facts, and press the send-bu on. Out comes the correct answer. But our moral life is more complex than that. For one thing, slight di erences in the situations compared can have considerable consequences for the decision. What is required as relevant facts is not always independent of the moral starting point. Moreover, we are partly irrational and myopic; and there are tensions between the values and the goals we want to achieve. Details in the specific situation at hand can have great importance for the decision to be taken. Thus I am in general somewhat sceptical of one-principle approaches to ethics. Key concepts in these principles tend to be vague and ambiguous; and when they are replaced by more specific concepts, the “one principle” approach quickly multiplies into several ones. There are more values than one considered to be legitimate within a culture, also more values than four. Moreover, the same value can be endorsed in di erent ways by di erent principles. The same principle, e.g. autonomy, can refer to di erent values, if ambiguous. Thus we need to make these values explicit, and pay a ention to their ranking order, which may be di erent from problem to problem, from situation to situation. Small but important di erences relevant to problems of decision-making may easily be concealed by one-principle approaches to practical ethics, incidentally also by four-principle approaches, like the one advocated by Beauchamp and Childress in their well-known work Principles of Biomedical ethics. The EU-debate A useful starting point for debates on ethical problems raised by new and emerging technologies, like synthetic biology, nanotechnologies, information and communication technologies, is provided by the earlier mentioned international documents on human rights from the UN, EC (European Commission) and the Council of Europe. The UN Millennium goals is another important document with political backing. 115 The European Commission The ethical aspects have had a conspicuous role in the work of the European commission. The EGE (European Group on Ethics) was in 2005 asked by president Barroso to prepare a report on the ethical aspects of nanotechnology, especially on the medical applications. The report we wrote used the ethical framework indicated above as a point of departure. Round table conferences were arranged to which interested stakeholders were invited. The EGE publications include Proceedings of the Roundtable Debate organized on 21 March 2006, and the report Ethical aspects of Nanomedicine, Opinion 21, published Brussels, January 17, 2007. Moreover, many research projects studying such aspects have been supported in framework program (FP) 6 and 7 and thus been financed by the EU. EuroNanoForum is a biannual event, supported by the EU, and organised within the framework of the presidency of the European Union. A empts to stimulate the debate have been made in many countries, some supported nationally, others by the EU. Examples supported by FP 7 include NanoSustain, the goal of which is to examine and develop “new solutions for sustainable design, use, re-use, recycling and final treatment and/or disposal of specific nanomaterials”, according to the website of the project. On the basis of the EGE opinion and other reports the commission services worked out a Code of Conduct for Responsible Nanosciences and Nanotechnologies Research (2008). The basic goals of the Code of Conduct include ensuring that nanoscale research is undertaken in a safe, ethical and e ective framework, supporting sustainable economic, social and environmental development of NS&NT research. An important point stressed in 4.1.1 of the Code is the need to maintain an open and pluralistic forum for discussion on NS&NT research… Later in 4.1.8, it is stated that the “broad direction of nanoscience and nanotechnology research should be decided in an inclusive manner, allowing all stakeholders to enrich the preliminary discussions on these directions”. Thus, this should not be le to the NS&NT research community alone, as they have, or may be perceived to have, vested interests in promoting their research agendas. 116 An interesting but controversial point – in view of research on its way or already undertaken and of the products already available on the market – is the recommendation 4.1.7 that as long as “risk assessment studies on long-term safety are not available, research involving deliberate intrusion of nanoobjects into the human body, their inclusion in food products (…), feed, toys, cosmetics and other products that may lead to exposure in humans and environment should be avoided”. In 4.3 of the Code of Conduct it is recommended that member states should support the wide dissemination of this code of conduct, notably through national and regional public research funding bodies… And (in 4.3.2) it is recommended that NS&NT research funding bodies should make sure that researchers in this area are aware of all relevant legislation, as well as ethical and social frameworks. What has been adopted and implemented of the Code in the various member states? The answer is likely to vary from country to country. What remains to be done? A brief list for my own country would include the following headlines: the inclusive dialogue, not limited only to the community of nanoscale researchers. Applications and development of be er methods of risk assessment, taking into account current uncertainties and knowledge gaps. Ethical aspects of safety issues, since decisions on standards of safety are not ethically neutral. Ethics of risk and precaution needs to be studied further. A more inclusive dialogue on research priorities, as suggested in the 2008 code of conduct, should be promoted. As many of you know, consultation has started to prepare an updated version of this code of conduct – it was possible for individuals, organizations and authorities/agencies to send in comments up to January 3, 2010. A dynamic and rapid research development calls for regular updates of ethical analyses and guidelines. New evidence and new options may have emerged. This ULB conference is very timely, also for this reason. The European parliament The European parliament has taken an interest in several of the proposals in the earlier mentioned EGE report from 2007. A er 117 a debate in May 2010 the parliamentarians voted about new rules, among others that food produced by nanotechnology must be risk assessed before they are approved for marketing. The parliament also wanted that food now on the approved list and which had been produced with the help of nanotechnology should be removed from the list till these products had been checked for their eventual impact on consumer health. Finally the parliament voted that all food products containing nanomaterials shall indicate this on their list of ingredients. Legitimacy is important as is trust and confidence. To achieve this, it is not only necessary that the researchers and the oversight structures are competent – they must also, as Machiavelli stresses in a di erent context, be perceived to be competent. In addition, openness is essential and ethical problems should not be not swept under the carpet. The ethical problems need to be identified, clarified, examined and arguments for and against di erent positions have to be presented and discussed. One-way communication or dialogue ? What can we learn from the consumer resistance to GMOs? Consumer resistance can, of course, be justified. But on what grounds ? We want public participation, not just opinion polls to find out what the a itudes of people are. Therefore, we need hearings, citizens’ conferences, distribution and critical examination of background material. Communication contra information We need communication, not just one-way information. It is necessary to have a constructive dialogue with other stakeholders and concerned. The agenda should be decided together by the stakeholders – and with respect for di erent perspectives. We need to proceed step by step, identify scientific, regulatory and ethical hurdles and discuss them openly before proceeding to the next step in order to ensure trust. This dialogue could have 118 important educational value. The participants could learn things about themselves, about others and about the consequences of their prima facie preferences. What they learn in the course of this process could make them change their minds. The communication strategy outlined above could be questioned, and therefore some of its underlying assumptions should be made explicit and defended. For example, it could be argued or suggested that this strategy is chosen as a means of manipulation. The alleged reason is then that we want to have the technology accepted, since it has a potential to be an important economic driver. If we get the public onboard, this will facilitate acceptance. It is possible that some of those who advocate this strategy have this intention, and that they are right about the e ects. But both these statements may also be false. In particular what is suggested about the e ects may be wrong. Participation may reveal unexpected dangers of toxicity which are such that it would be in the long range interest also of the industry to try something else. And which is the alternative in a society that claims to be open and democratic? Lessons from the past When it is said: we should learn from the GMO debate, what do exactly should we learn, what do we take for granted? That the agenda should be decided by the stakeholders together, and not set by the industry? That there was no cause for concern? That it was a debacle of the industry or a victory for the consumers? Or all of this? Media play an important role for shaping public perception. A well-known researcher in the nanomedicine field once said in a discussion: “An accident would be a disaster”. And she asked: ”Do we have the fora needed to bring di erent stakeholders (industry, clinicians, basic scientists, regulators, patient organizations, media, environmentalists,…) together for a constructive and open dialogue? What can be done to improve existing fora?” Dialogues on new and emerging technologies need to be ongoing. The problems are not solved once and forever. NS&NT research is developing rapidly, new applications continue to see the light of 119 day. Ongoing debates need to involve also others than the research community on priorities, acceptable level of risk, etc. Military applications and dual uses raise special problems that certainly deserve more discussion. Starting early is important… as is taking the concerns expressed by di erent individuals and groups in society seriously. Models for involving school children and young people exist… and have been tried with success in several places. Should ethics come in only when scientific and technical problems have been solved? That is clearly too late. Why ? The a empt to solve such problems may raise ethical issues. For example, during the a empts to solve the problems, research subjects may have been exposed to too dangerous experiments. Consequences ma er when possible and alternative uses or spending of public resources are debated. But not only consequences ma er. Restrictions are sometimes called for. We would not kill humans to promote nanotechnology, even if this would benefit the industry, the research community or even the majority of people in a society. Conclusions and future challenges The development of nanotechnological applications in, for instance, nanomaterials or health care, go stepwise. At every step di erent ethical, social and legal aspects are raised. These aspects are dealt with before next step is taken. Can we a ord to have high ethical standards in times of economic crisis, growing unemployment and movement of industries to lowsalary countries in Europe when the market is global, and Europe needs to succeed on a market where the competition is sti – or if we can a ord NOT to have high standards? Future challenges will include creating conditions for broad debates also on such issues. It is essential that nanotechnology is discussed critically also by others than researchers and industry – if the need to improve and strengthen trust is taken seriously. How could such processes be initiated? My proposal would be to start early and use many di erent strategies. Basic facts should be presented already in school textbooks. Posters are cheap techniques to use. Films could be shown, theatre plays could be set up, and the audience could 120 a erwards be invited to comment and discuss what they have seen and heard. TV and social media could be used, prize contests for best paper could be arranged in schools – for example, best paper summarizing and commenting on a discussion in TV. Ethics does not have to be an obstacle for research. If there are knowledge gaps and uncertainties, more research is needed. Ethics can also suggest other important tasks for research, which ought to be given high priority in order to benefit developing countries, improve global health, diminish or reduce the gaps between rich and poor countries. In the final analysis, we need to consider and take seriously questions like: ”What kind of world do we want to live in together? What kind of world do we want for our children and grandchildren, and for their children and grandchildren?” In focussing on such questions, we are forced to see how things hang together – we can not deal with one or two questions exclusively: unemployment, working conditions, food safety, public health, social stability, housing and transportation… they all hang together36. Références Duncan R., “Nanomedicines in Action”, The Pharmaceutical Journal 273, 2004, pp. 485-488. Hermerén G., “Challenges in the evaluation of nanoscale research”, Nanoethics 1(3), 2007, pp. 223-237. Hermerén G., “European values – and others. Towards an ever-closer Union?”, European Review 16(3), 2008, pp. 373-385. Hermerén G., “Questions éthiques soulevées par les nanotechnologies”, Annales des Mines, Réalités Industrielles, 2010, pp. 74-82. Ostiguy C. et al., “Health e ect of nanoparticles”, Second edition, IRSST: Chemical substances and biological agents, 2008. Sahlin N.-E., “Unreliable probabilities, paradoxes, and epistemic risks”, in S. Roeser et al. (eds.) Handbook of Risk Theory, Springer Verlag, 2011. 36 This presentation is related to, but not identical with, a lecture given by me in Lisbon, November, 2010. The text of that talk is printed in the conference proceedings: National Council of Ethics for the Life Sciences, Nanotechnologies and G.M.O – Science, Ethics, Society. Proceedings of the CNECV XI National Seminar, Lisbon 2011, pp. 35 - 51. 121 Nanotechnologies, nano-luddisme, néo-luddisme. Jean-Yves Go 37 Je partirai d’une distinction, pas entièrement étanche d’ailleurs, entre éthique des nanotechnologies et débat public autour des nanotechnologies. Les problèmes soulevés par l’éthique des nanotechnologies ont été excellemment repérés par Bernade e Bensaude-Vincent et Vanessa Nurock (Bensaude-Vincent 2010, pp. 353-369) : si on laisse de côté les perspectives qui instrumentalisent l’éthique pour en faire un ensemble de rece es visant l’acceptabilité sociale, on peut faire de l’éthique des nanotechnologies une spécialité parmi d’autres de l’éthique appliquée (c’est le point de vue des spécialistes de l’éthique) ; mais on peut également faire de l’éthique des nanotechnologies un ensemble de règles de bonne gouvernance (c’est le point de vue des institutionnels). Toutefois ces approches ne parviennent pas à dégager ce qui fait la spécificité des problèmes éthiques soulevés par des techniques qui se caractérisent autant par la convergences des savoirs et des pratiques qu’elles mobilisent que par l’échelle à laquelle elles opèrent. En outre, l’éthique des nanotechnologies, telle qu’elle se pratique, met l’accent sur les e ets de celles-ci et reste peu a entive à la production des objets et des dispositifs que ces technologies font venir à l’existence. Il faut donc intégrer la question de l’éthique des nanotechnologies dans un cadre plus général : analyser dans leur genèse des objets nanotechnologiques précis et déterminés afin d’évaluer de façon réflexive les valeurs mobilisées dans ce e genèse ; s’ensuivrait la formulation de jugements éthiques explicites auxquels il serait possible de se référer pour construire des normes38. Ce projet n’est réalisable que sous certaines conditions. L’une d’entre elles est « la mise en débat des choix technologiques » ce qui appelle « la mise en place d’une véritable démocratie technique » 37 Université Pierre Mendès France-Grenoble 2 Si ce projet se réclame explicitement de Dewey, il est aussi tributaire d’une conception simondienne de la technique. 38 123 (Bensaude-Vincent 2010, p. 368). Ce débat authentique se faisant a endre, un autre s’est constitué. Il ne se déroule pas du tout selon les règles d’une véritable démocratie technique et met en présence, en réalité, des partisans et des adversaires des nanotechnologies. On peut distinguer, dans les écrits et dans les propos des uns et des autres, un niveau argumentatif et un niveau polémique. Certains pensent qu’il existe un troisième niveau dans ce débat. Disons, à titre de première approximation qu’il semble plus profond que les précédents : ce qui se joue dans les procédures argumentatives et polémiques engagées de part et d’autre semble, en e et, dépendre de ce troisième niveau, mais non l’inverse. Qu’en est-il du niveau argumentatif ? Les opposants aux nanotechnologies soulignent les menaces dont leur mise en œuvre serait porteuse : les nanotubes de carbone dispersés dans l’environnement risqueraient d’être inhalés et de causer de très sérieuses maladies pulmonaires ; le développement des lecteurs, des étique es et des puces RFID constituerait une grave mise en cause des libertés publiques ; les applications militaires des micro et nanotechnologies pourraient être dévastatrices : l’emploi de particules capables de cibler des populations en fonction de leur génotype rendrait possible une purification ethnique radicale. Ce sont là des arguments que les partisans des nanotechnologies peuvent considérer comme dignes d’examen. Il leur revient alors de produire des contrearguments dont on devine aisément la forme qu’ils prendront : les risques envisagés sont de l’ordre du fantasme et n’existent pas en réalité ; la probabilité de leur occurrence est insignifiante : au vu des bénéfices escomptés, il vaut la peine de les prendre. Plus généralement, il est souligné qu’il s’agit de risques techniques et que des solutions techniques perme ent, en principe, d’y faire face : confinement des opérateurs et protections étanches des objets contenant des nanotubes de carbone ; mise en place de garde-fous institutionnels contre les menaces contre les libertés ; signatures de traités et convention de non-prolifération de l’armement micro et nano39. Mais, souvent, le ton change : il devient alors évident que l’on n’a plus a aire à des arguments que n’importe quel sujet raisonnable et 39 On voit donc que le terme « technique » doit être pris en un sens large : la mise en place de garde-fous institutionnel ou de traités et de conventions relève de la technique juridique. 124 de bonne volonté pourrait examiner en toute impartialité, au cours d’un débat visant à articuler les principes d’une judicieuse évaluation des risques et d‘une e cace prévention de ceux-ci. Ainsi, sous la plume de leurs adversaires, les nanotechnologies en général deviennent des nécrotechnologies ; les puces RFID deviennent des instruments pour me re en place la traçabilité intégrale du cheptel humain ; le fantassin du futur devient un super tueur nanoéquipé, et ainsi de suite. Ce vocabulaire est celui de la polémique. Chez les partisans des nanotechnologies, le ton est plus mesuré : en e et, il s’agit souvent de scientifiques, d’élus, de politiques, d’industriels ou de décideurs tenus, institutionnellement, à une certaine réserve. Mais il n’est pas exceptionnel qu’ils soulignent l’obscurantisme de leurs adversaires et a rment qu’ils s’opposent au progrès scientifique. Sur ce terrain, on les sent toutefois quelque peu hésitants. Le temps n’est plus où Cl. Bernard pouvait écrire héroïquement : « Après tout cela, faudra-t-il se laisser émouvoir par les cris de sensibilité qu’ont pu pousser les gens du monde ou par les objections qu’ont pu faire les hommes étrangers aux idées scientifiques ? » (Bernard 1966 [1865]). La croyance inconditionnelle en la valeur émancipatrice de la science fait figure de vieillerie ; elle est spontanément évaluée comme l’indice d’un positivisme ou d’un scientisme plutôt désuets. Aussi, les partisans des nanotechnologies sont plus à l’aise (et plus crédibles) lorsqu’ils suggèrent que ceux qui s’y opposent jouent, de façon assez démagogiques, sur les peurs ou sur les frustrations de la population. Reste le niveau le plus profond. Jean-Pierre Dupuy, s’appropriant une expression de K. Popper, a rme qu’il constitue, chez les partisans des nanotechnologies convergentes un « programme métaphysique de recherche », précédant toute investigation et toute expérimentation scientifique. Selon lui, « le rêve à l’œuvre dans les nanobiotechnologies ne se limite pas à l’homme – ou au surhomme – bionique, il est plus radical encore. Il s’agit de devenir Dieu. De passer du « bricolage » hasardeux des espèces dans l’évolution à celui du « design » de la nature entière, avec l’homme dans le rôle du Créateur d’objets vivants et, comme tels, incontrôlables » (Dupuy 2006). Face à ce e évaluation de la situation, on s’étonne : J.-P. Dupuy, en réalité, prête aux partisans des nanotechnologies un programme qui n’est pas o ciellement le leur, celui des transhumanistes à la Max More ou à la Simon Young. Il est vrai qu’il s’agit de révéler le sens du rêve à l’œuvre dans les nanobiotechnologies et que l’interprétation des rêves, 125 depuis Artémidore d’Éphèse jusqu’à Sigmund Freud en passant par le Prophète Daniel et par Macrobe, a toujours été un exercice di cile et hasardeux. J.-P. Dupuy dramatise sans doute à l’excès : c’est une posture rhétorique classique lorsqu’il est question d’évaluer des technologies inédites ou supposées telles. Pour autant, on aurait tort de ne pas prêter a ention, comme lui, au document qui a lancé en juin 2002 le programme interdisciplinaire « Converging Technologies ». Les 3 et 4 Décembre 2001, la Fondation Nationale pour la Science (« National Science Foundation » [NSF]) et le Département du Commerce (« Department of Commerce » [DOC]), ont réuni, à Washington, DC, un atelier baptisé « Converging Technologies for Improving Human Performance ». La finalité de cet atelier, qui réunissait essentiellement des scientifiques et des décideurs (du secteur public comme du secteur privé), était d’explorer les convergences technologiques et scientifiques à l’échelle nanométrique. Les communications présentées au cours de cet atelier on été réunies dans un gros (482 pages, 5990 Ko) document. La convergence en question, représentée par la flèche NBIC devenue maintenant une icone familière, est celle de quatre domaines : nanosciences et nanotechnologies ; biotechnologies et biomédecine (génie génétique compris) ; techniques de l’information (informatique avancée et technologies de la communication comprises) ; sciences cognitives (neurosciences cognitives comprises). Selon les auteurs du rapport, ce e convergence se fonde sur « l’unité matérielle à l’échelle nanométrique et sur l’intégration technologique à partir de ce e échelle » (Roco 2003, p. IX). L’idée est la suivante : si les éléments sur lesquels opèrent les biotechnologies, les technologies de l’information et les neurosciences sont matériellement unifiés à l’échelle nanométrique, alors on peut les manipuler et les combiner au moyen de technologies agissant à ce e échelle. Quelques observations sont ici à propos. En premier lieu il s’agit là de la réalisation d’un vieux rêve : celui de l’unité de la science. Il est classique (Ruyntix 1962) de distinguer trois conceptions de l’unité de la science : • la première, prenant acte de l’incapacité du savoir scientifique à fournir une unité dernière, délègue à la métaphysique le soin d’articuler celle-ci. • la deuxième, postulant une technique d’explication pertinente pour tous les types de phénomènes a rme l’unité seulement méthodologique des sciences. 126 • la dernière, a rmant l’unité objective de la science, tient qu’il existe des objets ou des propriétés auxquels peuvent se réduire les objets ou propriétés accessibles à l’observation. Ceux qui parlent de technologies convergentes adhèrent à une conception du troisième type, si ce n’est qu’ils répugneraient sans doute à employer des termes comme « objet » ou « propriété ». Nous sommes, en e et, dans le domaine des technosciences où opère le postulat selon lequel ce qui est vrai est convertible avec ce qui est fait : l’humanité ne peut connaître, au sens plénier du terme, que ce qu’elle a fabriqué. Dans une telle perspective, l’existence d’objets ou de propriétés stables et accessibles à l’observation devient problématique. En ce sens, la flèche NBIC dont il vient d’être fait état ne symbolise pas la situation de façon tout à fait exacte. Elle donne à voir, en e et une sorte d’égalité entre les technologies convergentes. Mais, en réalité, comme l’a bien noté le Groupe d’Action ETC (« Action Group on Erosion, Technology and Concentration »)40, plutôt que de faire converger des disciplines égales en dignité, il s’agit d’a rmer la primauté de techniques opérant à l’échelle nanométriques. Tout le monde connaît le mantra : If the Cognitive Scientists can think it the Nano people can build it the Bio people can implement it, and the IT people can monitor and control it Le seul moment explicitement dévolu aux scientifiques est celui des sciences cognitives. Ensuite, c’est du montage et du contrôle. Mais ce contrôle comporte-t-il une dimension non-technique, éthique, juridique ou sociale par exemple ; ou bien est-il purement technique, destiné à prévenir les dysfonctionnements et à réparer les pannes ? Si tel était le cas, cela donnerait plutôt raison à J.-P. Dupuy : l’ambition nanobiotechnologique serait, en son essence, porteuse de démesure et ses thuriféraires seraient, en e et, les complices de ceux qui cherchent à usurper le rôle du Créateur. Toutefois, il existe un précédent illustre qui incite à la prudence. En e et, on dit parfois 40 Il s’agit, on s’en doute, d’un groupe hostile aux technologies convergentes. Il qualifie, de façon irrévérencieuse la révolution des micro et nanotechnologies de « Li le BANG » : BANG est un acronyme pour « Bits », « Atoms », « Neurones » et « Genes ». Son site : h p://www.etcgoup.org 127 que Descartes a conçu le projet de rendre les hommes maîtres et possesseurs de la nature ; mais ce n’est pas exact. La sixième partie du Discours de la Méthode est parfaitement explicite à ce propos. Descartes écrit, à propos des notions générales touchant la physique qui sont les fruits de sa méthode : « Elles m’ont fait voir qu’il est possible de parvenir à des connaissances qui soient fort utiles à la vie, et qu’au lieu de ce e philosophie spéculative qu’on enseigne dans les écoles, on en peut trouver une pratique, par laquelle connaissant la force et les actions du feu, de l’eau, de l’air, des astres, des cieux et de tous les autres corps qui nous environnent, aussi distinctement que nous connaissons les divers métiers de nos artisans, nous les pourrions employer en même façon à tous les usages auxquels ils sont propres, et ainsi nous rendre comme maîtres et possesseurs de la nature » (Descartes 1925 [1637], pp. 61-62). Le point important est que Descartes ne présente pas comme une finalité de la science le fait de se rendre maître et possesseur de la nature, mais le fait de se rendre comme maître et possesseur de la nature. L’adjonction de l’adverbe « comme » peut se comprendre de deux façons (au moins) : • Les hommes peuvent se rendre maîtres et possesseurs de la nature, mais jusqu’à un certain point seulement, parce qu’il y a en elle quelque chose (par exemple, une très grande complexité) qui fait qu’elle ne peut pas être intégralement possédée et maîtrisée. • Les hommes ne peuvent pas se rendre authentiquement maîtres et possesseurs de la nature parce que celle-ci a un maître et un possesseur en titre, qui n’est autre que Dieu. Un projet de maîtrise et de possessions intégrales serait donc, ultimement, un projet d’usurpation. Si l’on admet la seconde interprétation, on voit que Descartes intègre un élément de limitation dans son « programme métaphysique de recherche ». Il est vrai que cet élément est théologique et qu’on n’en trouve pas l’équivalent dans le document NBIC. Peut-on dire pour autant que s’y manifeste le projet de « devenir Dieu » ? Afin de répondre à ce e question, je me demanderai : « quels sont les e ets 128 concrets du « programme métaphysique de recherche » exprimé dans le document NBIC ? ». Ils sont extrêmement nombreux ; M.C. Roco et W.S. Bainbridge, après avoir souligné que nous sommes au seuil d’une nouvelle renaissance écrivent : « Les profonds changements des deux prochaines décennies seront peut-être minimes, comparés à la transformation complète susceptible d’advenir ultérieurement au cours du XXIe siècle. Un double processus de décentralisation et d’intégration pourrait aller dans le sens d’une complexité sociale toujours accrue : il en résulterait une architecture sociale nouvelle, dynamique. Des configurations entièrement inédites émergeraient dans l’industrie, l’économie, l’éducation et les conflits militaires. Les gens pourraient acquérir des capacités entièrement nouvelles dans leurs relations mutuelles, dans leurs relations avec les machines et dans leurs relations avec les institutions de la civilisation » (Roco 2003, p. 1). Mais ils prennent bien soin de préciser (Roco 2003, p. 1) : « Dans certains secteurs de la vie des hommes, les anciennes coutumes et l’ancienne éthique perdureront, mais il est di cile de prévoir dans quel domaine de l’action et de l’expérience ce sera le cas. Peut-être des principes éthiques complètement inédits régiront-ils les secteurs où se feront des avancées technologiques radicales : acceptation d’implants cérébraux, rôle des robots dans la société, ambiguïté de la mort dans un contexte d’expérimentation accrue en matière de clonage. L’identité et la dignité de l’homme devront être préservées. De même qu’au cours de la révolution industrielle on a construit les machines afin de surpasser les capacités physiques de l’être humain, de la même façon les ordinateurs peuvent surpasser la mémoire et la rapidité de calcul de l’homme en matière d’action intentionnelle. Ultimement, le contrôle appartiendra aux hommes et à leur société. Si l’on accorde une a ention convenable aux garde-fous, aux questions éthiques et aux besoins sociaux, la qualité de la vie est susceptible de s’améliorer de façon significative ». Au total donc, même si l’on peut estimer que ces garde-fous seront insu sants ou simplement formels, les auteurs du document a rment 129 expressément la nécessité de préserver l’identité et la dignité de l’homme. Leur propos intègre donc bel et bien des limites et, sauf à pratiquer la stratégie du soupçon, on ne voit pas s’y révéler un programme métaphysique de recherche inspiré par le projet de « devenir Dieu ». On pourrait même adopter une perspective encore plus déflationniste et relever que Descartes lui-même se proposait d’améliorer les hommes en les « rendant communément... plus sages et plus habiles qu’ils n’ont été jusques ici » (Descartes 1925 [1637], p. 62)41 et en cherchant dans « la médecine », et non dans la sagesse comme connaissance des choses divines et humaines, le moyen d’y parvenir. Dans ces conditions, M.C. Roco et W.S. Bainbridge s’inscriraient sans reste dans le projet de la modernité et leur prêter un projet de transgression et de démesure serait prendre au premier degré un propos qui est de promotion, comme l’était d’ailleurs déjà pour une large part le Discours de la Méthode42. Il n’en reste pas moins qu’il s’agit, on l’aura compris, d’une forme particulièrement grandiose d’utopisme technologique, comme on en avait perdu l’habitude. Le lecteur sobre et manifestant un minimum d’esprit critique a tout de même l’impression que, derrière l’habillage habituel (grande a ention portée aux besoins sociaux, nécessaire respect de la dignité humaine, etc.), il s’agit d’améliorer les performances humaines afin de les aligner sur les avancées technologiques capables de les améliorer. D’un certain point de vue, le caractère radical du projet a un grand avantage : il déconsidère par avance toute argumentation tendant à faire des technologies convergentes un ensemble de moyens neutres, qu’il appartiendrait à des décideurs éclairés d’orienter dans un sens positif. Bien plutôt, le document est formel, les gens sont sommés d’inventer, au fur et à mesure, des principes éthiques complètement inédits, les anciennes coutumes et l’ancienne éthique perdurant seulement aux marges de la révolution des technologies convergentes et, sans doute, de façon essentiellement précaire et révocable. 41 Le terme « médecine » ici, ne désigne pas seulement l’art médical, mais aussi la connaissance des êtres vivants en général et spécialement la façon dont l’esprit dépend du tempérament et de la disposition des organes du corps. 42 On a pu soutenir (Schuster, 1986) que la méthode cartésienne - comme n’importe quelle autre méthode scientifique, du reste, est discursivement structurée de telle sorte qu’elle (s’)égare quant à ses propres présupposés : elle consiste, en e et, en un discours qui procède à une redescription des pratiques e ectives de la recherche en des termes qui les rendront conformes aux exigences normatives de la méthode elle-même. Je remercie Sophie Roux de m’avoir signalé ce e étude. 130 Pour autant, il ne s’agit pas d’un « programme métaphysique de recherche » particulièrement inouï. Ma question sera, dès lors, la suivante : peut-on trouver, chez les adversaires des technologies convergentes, une ambition aussi large que chez leurs partisans ? J’ai bien conscience qu’il y a quelque chose d’indéterminé dans ce e question : les adversaires des technologies convergentes ne forment pas un groupe uniforme et indi érencié, chacun partageant avec tout autre des opinions en tous points semblables. Cependant, on peut trouver dans leurs écrits et dans leurs propos une certaine unité de ton : les mêmes thèmes sont privilégiés, les mêmes auteurs sont convoqués, les mêmes arguments sont présentés, la même rhétorique est mise en œuvre. Ce e unité, pour ne pas dire ce e convergence, suggère qu’il existe bel et bien un argumentaire anti-techniciste. Les arguments proprement dits y sont le plus souvent investis d’une dimension polémique ; je suggérerai aussi que si un « programme métaphysique d’(anti) recherche » les inspire, il n’a rien de spécialement inédit : c’est la bonne vieille critique de la société industrielle, pour l’essentiel constituée depuis l’établissement de celle-ci. Commençons par la dimension argumentative-polémique du propos des adversaires des nanotechnologies. Mon corpus sera constitué de plusieurs documents distribués pendant le Colloque International : « Regards sur les technosciences » qui s’est tenu à la MSH-Alpes de Grenoble les 27 et 28 octobre 2004 ; ce colloque a eu lieu immédiatement avant la tenue à Grenoble des Assises de la Recherche, mais indépendamment de celles-ci43. Ces documents sont donc fortement contextualisés : ce sont des écrits de circonstance qui ne visent pas les technologies convergentes comme telles. Cependant, ils comportent un certain nombre d’a rmations qui constituent, en fait, un argumentaire dirigé contre les technosciences. Ils ont été distribués après le début de la première session – qui a donc été interrompue par ce e distribution – par des individus se présentant 43 Ce Colloque avait été organisé à l’initiative de GIERE (Groupe Interuniversitaire d’Ethique de la REcherche, Grenoble-Université) et de la Société pour la Philosophie de la Technique. Il bénéficiait du soutien matériel d’institutions grenobloises et Rhône-Alpines ; certains participants étaient connus pour travailler dans le domaine des micro et nano technologies. Il avait donc tout pour a irer l’a ention des adversaires des technologies convergentes. Après avoir constaté qu’il ne s’agissait pas d’y assurer la communication des chercheurs dans le domaine des technologies convergentes, ils se sont assez rapidement retirés. 131 comme de simples citoyens44, mais qui ne se sont pas identifiés de façon plus précise. Ces documents sont très divers par leur style ; on y trouve ce qu’on pourrait appeler du journalisme d’idées ; mais aussi, dans une tradition bien française, des éléments qui les ra achent à la presse de parodie et de dérision45 ; on y repère également un pamphlet néo-marxiste. Du point de vue de la forme, tous sont signés et/ou donnent une adresse postale et électronique ; certains comportent un titre et des notes de bas de page, comme si on avait a aire à un article académique46. Ils se distinguent très ne ement d’un document mis à la disposition des participants avant le début de la session, intitulé « Quelle politique scientifique pour entrer dans le 21e siècle ? », présenté par la Fondation Sciences Citoyennes ; il s’agit d’un ensemble de propositions plutôt modérées, parrainées par des célébrités « engagées » (par exemple Marie-Angèle Hermi e et Jacques Testart). La Fondation Sciences Citoyennes est, par ailleurs, une Association loi 1901. Ce document n’a donc pas, aussi bien en ce qui concerne la forme qu’en ce qui concerne le fond, la dimension de radicalité et l’apparence de dissidence qui caractérise les autres. D’ailleurs, ce genre de posture est ne ement disqualifié dans les documents ayant retenu mon intérêt. Dressons donc un inventaire des arguments (au sens très large) qui s’y rencontrent, ainsi que des sources mobilisées. L’un d’entre eux mobilise un argument cumulatif : « Il y a des discours, des écrits et des faits qui pris séparément paraissent innocents mais réunis ne trompent pas » (Mora 2004). Le propre d’un argument cumulatif est de produire des a rmations dont aucune, en elle-même, ne prouve quoi que ce soit, mais dont l’accumulation est censée rendre plausible une ou plusieurs thèses. Ce qui est cumulé ici ce sont, d’une part, des faits : la mise au point et l’utilisation de la première bombe atomique ; la création du CNRS et le développement de Grenoble comme ville scientifique ; les Assises nationales des États généraux de la recherche (Grenoble, 28 et 29 octobre 2004) ; 44 Bien entendu, le fait de se présenter comme de simples citoyens, est, d’une certaine façon, déjà un argument : il s’agit d’a ester que l’on est porteur d’une parole authentique, par opposition à la langue de bois impersonnelle des experts. 45 Charlie-Hebdo, Le Canard enchaîné, Le Père Duchesne, L’assie e au Beurre. 46 Mais pas de pagination ! 132 le recrutement, récent à l’époque, d’un maître de conférence sur un poste d’histoire et de philosophies des sciences à l’université Joseph Fourier de Grenoble et son rôle supposé dans la création du « Groupe de réflexion interuniversitaire d’éthique appliquée à la recherche en sciences et technologies »47. À ces faits, s’ajoutent des interprétations, des anecdotes et des évaluations : elles tendent à me re en évidence la corruption morale et l’irresponsabilité des scientifiques (Richard Feynman, John von Neumann) en les opposant à la lucidité d’un simple citoyen (George Orwell dont on connaît l’engagement au cours de la Guerre Civile Espagnole) ; elles soulignent la mutation utilitariste de la science contemporaine (qualifiée à plusieurs reprises de Big Science) et la collusion entre la recherche et les régimes politiques les plus discrédités (Vichy, en particulier). La conclusion rendue plausible est la suivante : « Nous ne pouvons rien a endre d’un monde qui ne peut satisfaire que l’économie triomphante, ses gestionnaires de l’Etat et de l’industrie » (Mora 2004). Ce document qui ne comporte pas d’iconographie développe une critique des Lumières qui s’inscrit dans le droit fil des analyses de la première Ecole de Francfort (T. Adorno, M. Horkeimer). Il a rme l’équivalence des di érents régimes politiques : tous sont au service de la croissance incontrôlée de la Big Science. Il souligne l’impuissance des formes institutionnalisées de contestation ou de contrôle de la technoscience : « certaines associations citoyennes, écologistes ou scientifiques » et « [les] universitaires éclairés sur le souci éthique » sont particulièrement visés (Mora 2004). Ce e dévalorisation de la critique institutionnelle de la technoscience est encore plus explicite dans un document intitulé : « Totem et Tabous ou qui veut sauver la recherche ? ». Ce document est signé CNRS pour « Coordination Nationale de Répression du Scientisme », ce qui est, bien entendu, ironique. Il s’agit de développer la thèse selon laquelle : « Avec Sauvons la Recherche48 [il faut dire 47 C’est le nom que portait le GIERE, à l’époque du recrutement de ce maître de conférences. Que nous soyons ici dans le cadre de la li érature paranoïaque est a esté, outre la confusion entre l’échelle locale et globale de ce qui est rapporté, par le fait que le recruté n’a en réalité aucune compétence particulière en éthique des sciences et des techniques. Ses cours, peu fréquentés par les étudiants scientifiques, portent essentiellement sur l’histoire des sciences. D’un autre côté, on pourrait dire que son incompétence même en fait un précieux faire valoir pour ceux qui sont à la recherche d’un alibi « éthique ». 48 « Sauvons la Recherche » est une Association destinée à faire connaître les enjeux de la politique de recherche et à proposer des débats et des actions. Elle est très critique à l’endroit de la politique de recherche française. Son site : 133 haut et fort que] l’opposition au néo-libéralisme a touché le fond » (Coordination Nationale de Répression du Scientisme, 2004). En e et, « toute l’audace du mouvement citoyen des chercheurs aura été de demander que tout continue en pire » (Coordination Nationale de Répression du Scientisme, 2004). Les arguments explicites à l’appui de ce e thèse vont dans deux directions relativement précises : il s’agit de montrer que la science et la recherche ont « partie liée avec le développement capitaliste » (Coordination Nationale de Répression du Scientisme, 2004). La science est donc un totem : possible allusion aux analyses marxistes du fétichisme de la marchandise. Il s’agit aussi de montrer que les revendications partielles (en faveur de plus de moyens, d’une meilleure organisation des carrières, etc.) ne vont pas à l’essentiel et laissent intacts les tabous, le principal étant la question du travail. En ce qui concerne le premier point, les auteurs du texte présupposent que la science est telle qu’ils pensent qu’elle est et en tirent diverses conséquences : perte de l’autonomie individuelle, destruction des modes de vie tenus pour immuables et évidents ; absurdité et éloignement de la vie concrète de la « vie quotidienne » ; caractère « informulable » hors du contexte de la « technologie industrielle » des résultats des « sciences dures ». Tout cela suggère que la technoscience est une puissance abstraite, incompréhensible et incontrôlable. En ce qui concerne le second point, le texte souligne la corruption et l’irresponsabilité morale des chercheurs en général ; l’indigence des travaux actuels en sciences humaines ; le caractère délirant du scientisme. Il s’agit de suggérer que personne n’est en état de s’opposer e cacement aux e ets de la technoscience tant que la question de l’organisation du travail dans les sociétés néolibérales n’aura pas été posée dans toute son ampleur. Ce texte, austère et qui ne comporte pas d’iconographie, est extrêmement argumenté49. Il est intéressant par les sources mobilisées : Hannah Arendt, une élève de Martin Heidegger, ne ement plus présentable que son maître étant donné le passé nazi de celui-ci ; Lewis Mumford, l’inventeur du concept de mégamachine50. Il n’est pas fait h p://sauvonslarecherche.fr/. 49 Si du moins on accepte ses présupposés... 50 Pour une présentation élémentaire de ses analyses, voir (Go 134 1988, pp. 96-103). allusion à Jacques Ellul, alors que ce dernier développe des thèses fort proches de celles qui sont mobilisées – sa réputation de théologien réformé a dû lui valoir ce e exclusion ; ni à Gilbert Ho ois, dont la posture d’accompagnement des technosciences est probablement estimée trop complaisante. Un des documents distribués est réellement énigmatique : presque tous les arguments identifiables qu’il comporte sont implicites et présentés sous forme iconographique. Ce document est de vaste dimensions51 ; il est intitulé « GNR NBC TIC. Grenoble, villelaboratoire » et signé « Les animaux des villes en colère »52. Il est volontairement « illisible » : il s’agit de suggérer que l’on a a aire à des institutions ou à des personnes étroitement imbriquées, mais qui constituent un réseau à la fois e cace et opaque. On peut d’ailleurs s’intéresser au statut même de l’objet que j’ai appelé, faute de terme plus précis, « document ». Ce n’est pas une a che : il est imprimé des deux côtés et donc, en principe, il n’est pas fait pour être collé sur un mur53. Son régime de pliage le rend plutôt comparable à une carte routière. L’image : « détruis les machines qui te détruisent » (représentant des individus cagoulés détruisant un empilement d’ordinateurs) et une image représentant des bovins armés respectivement d’un fusil d’assaut M.16 et d’une carabine en font, peut-être, une sorte de vade mecum et de guide du saboteur urbain. Il est di cile de déterminer si l’intention sous-jacente est sérieuse ou ludique. En e et, une partie de l’iconographie consiste en images détournées (mentionnons : Nicolas Sarkozy, à l’époque Ministre des finances et une autre icône publicitaire : Mr Clean ou Mr Net de la firme Procter & Gamble). L’information qui y figure (adresses, noms propres, sources de financement des programmes de recherche, etc.) est largement exacte. La page intitulée « LABORATOIRES D’ETAT » veut montrer l’interconnexion grenobloise entre Politique, Finance et Recherche. L’argument implicite est qu’une telle interconnexion est condamnable. La page intitulée « GRENOBLE VILLE MORTE » entend montrer que l’urbanisme grenoblois instaure une ségrégation sociale calquée sur la 51 83 x 59 cm lorsqu’il est déplié ; 21x15 cm lorsqu’il est plié. L’absence, sans doute volontaire, de ponctuation entretient une ambigüité intéressante : sont-ce les animaux urbains en colère qui parlent ? Ou bien les animaux des villes en colère qui s’expriment ? 53 Encore qu’il soit parfois destiné à cet usage : on le trouve à l’occasion scotché sur les murs des bâtiments de la Faculté des Sciences Humaines et Sociales. 52 135 sociologie du monde de la recherche. L’argument implicite est qu’une telle ségrégation est mauvaise. La page intitulée « ECONOMIE DE LA DESTRUCTION » a rme que « le réductionnisme informationnel [du vivant, J.-Y. Go ] revient à nier que les êtres vivants sont d’abord des unités synthétiques indécomposables en segments codés » (Les animaux des villes en colère, 2004). L’argument implicite est qu’un tel réductionnisme est erroné et moralement pernicieux. À plusieurs reprises, il est fait usage de l’expression « cheptel humain » ; cela pourrait être une allusion à Sloterd k (2000). Cet auteur est, en e et, devenu une figure populaire chez certains radicaux en ce qu’il incarne une rupture avec l’esprit de conciliation des sociétés libérales54. Un document, enfin, est signé « Pièces et main d’œuvre ». Contrairement à d’autres, il n’est pas de circonstance puisqu’il est daté du 27 septembre 2004, date de l’inauguration de MINATEC55. Intitulé « Spécial « première pierre » de MINATOC »56, c’est un numéro spécial de « Aujourd’hui le Nanomonde ». Le seul argument explicite identifiable est le suivant : « ces mouchards technologiques qui font de nous des « cyborgs » pistés, tracés, fichés accoucheront peut-être d’un monde plus sûr (argument majeur des défenseurs des puces sous-cutanées) mais aussi d’un monde où le droit à la protection de la vie privée deviendra de plus en plus incertain » (PMO, 27 septembre 2004). Il s’agit d’un argument formulé en termes de violation des droits individuels, ce qui est plutôt inhabituel dans la li érature radicale. Ce document qui ne comporte pas d’iconographie n’est pas très bien structuré. Il fonctionne sans doute selon le vieux principe : « rendre la honte encore plus honteuse 54 Une autre source possible serait le philosophe italien G. Agamben, connu du public pour ses prises de position contre les dispositifs de contrôle biométriques. Ces prises de position se fondent sur une critique de la biopolitique dont l’objet est la vie nue, le simple fait de vivre, par opposition à la vie qualifiée, terme qui désigne la forme de vie propre à un individu ou à un groupe et qui les distingue de tout autre. La vie nue n’est jamais mieux exposée que dans les camps (de sinistrés, de transit, de réfugiés, de rétention, de concentration, d’extermination, etc.) où le biopouvoir se donne alors pour tâche de l’administrer et de la gérer. Parmi les nombreuses sources d’inspiration de G. Agamben, on trouve, évidemment, M. Foucault. 55 MINATEC est un complexe scientifique implanté à Grenoble et dont les domaines de recherche sont les micro et nano-technologies. 56 L’acronyme « MINATOC » est un argument implicite : « ce qui vient de MINATEC est toc ». 136 en la livrant à la publicité » car il se présente comme un montage de textes recueillis sur di érents sites Internet, à quoi s’ajoute le compte rendu (anonyme) d’une émission de télévision partiellement identifiée ; il est donc possible de considérer que leur rapprochement même constitue un argument cumulatif : des sources aussi di érentes que celles qui sont mentionnées vont toutes dans le même sens : « l’hostilité aux nanotechnologies devient la chose du monde la mieux partagée » (PMO, 27 septembre 2004). Il est intéressant de noter dans ce document la disqualification d’un certain nombre de critiques possibles des nanotechnologies, avancées par « di érentes variétés de gauchistes et d’associations « citoyennes » » (PMO, 27 septembre 2004) : conséquences urbaines et sociales, nuisances environnementales qui accompagneront le développement de MINATEC ; ces arguments ont, selon les auteurs du document, déjà été avancés par eux-mêmes il y plusieurs années. Il s’agit de montrer que ces critiques sont à côté de la question ou bien constituent des récupérations politiques ou pseudocitoyennes de ce qui a déjà été dit. Ce sont des arguments maintenant dépassés : le pire est encore à venir : « projet transhumaniste d’« amélioration de l’espèce humaine » et contrôle social à l’œuvre derrière ces technologies convergentes » (PMO, 27 septembre 2004). Dans tous les documents que je viens de décrire, il s’agit d’instaurer une posture de contestation radicale non seulement à l’endroit des technologies convergentes, mais surtout à l’endroit de ce que l’on pourrait appeler la modernité techno-libérale. Il est clair que nous avons a aire ici à une li érature de combat où les arguments et la polémique ne sont jamais dissociés, et où l’a aque personnelle n’est jamais bien loin57. En revanche, on n’y trouve pas non plus, semble-til, l’équivalent d’un programme métaphysique inédit tel que celui que J.-P. Dupuy prête si généreusement aux partisans des technologies convergentes. Ces arguments anti-technicistes sont manifestement soustendus par une « sensibilité » technophobique. Etymologiquement, la « technophobie » c’est la crainte de (vant) la technique. Mais, en un sens, il n’y a pas lieu de s’excuser d’avoir peur : Hans Jonas58 a 57 Il est vrai que la page d’accueil de PMO où son programme critique est exposé avec toute la clarté nécessaire se donne comme consigne de « ne jamais dénoncer les malfaisances sans dénoncer les malfaiteurs ». 58 H. Jonas est étonnamment peu cité par les adversaires des technologies convergentes ; est-ce parce qu’il enracine ses arguments dans un certain 137 donné ses le res de noblesse à une certaine forme de technophobie. Naguère, on considérait que quiconque manifestait des craintes ou des réticences à l’endroit du progrès technique et scientifique était forcément guidé par l’obscurantisme le plus crasse de telle sorte que celles-ci étaient forcément irrationnelles. Mais H. Jonas a profondément modifié la donne ; les technologies modernes sont devenues capables de mobiliser une telle puissance, c’est-à-dire d’avoir de tels e ets dans l’avenir, que l’humanité pourrait bien n’avoir plus les moyens conceptuels de les penser, ni les moyens politiques de les contrôler. A l’endroit des hautes technologies, nous sommes dans l’incertitude relativement au bien qu’elles sont susceptibles d’apporter alors que nous sommes certains qu’elles comportent un risque d’apporter un mal absolu ; H. Jonas, qui n’hésite pas à utiliser un vocabulaire religieux, décrit ce risque radical comme une altération irréversible de l’image et de la ressemblance. Devant ce e situation d’incertitude, il va a ribuer à la peur un statut positif, un statut heuristique. En e et, il ne s’agit pas d’a ronter un futur dangereux : en ce cas, la peur serait une lâcheté. Il s’agit d’évoquer la possibilité d’un futur en danger : ici, la peur est un indice de lucidité. Lorsque donc nous avons a aire à des nouvelles technologies, ils faut consulter nos craintes préalablement à nos désirs pour savoir ce qui nous tient réellement à cœur, c’est-à-dire ce qu’on met en danger. L’idée est que si on met en œuvre le récit de la peur, si on consulte nos craintes plutôt que nos désirs, on en viendra à ne pas me re en œuvre les techniques trop risquées. La peur a ainsi conquis un statut positif. Mais quelle peur, ou plutôt quelles peurs ? Un article de Louis Laurent et de Jean-Claude Petit : « Nanosciences : nouvel âge d’or ou apocalypse ? »59 dresse la carte de ces peurs. Il y a trois types de « peurs sociétales » vis-à-vis des nanosciences60 : la peur de la perte de contrôle, la peur du mauvais usage et la peur de la transgression. La peur de la perte de contrôle : c’est celle de la technologie devenue incontrôlable. Il est bien connu que la perte de contrôle peut advenir selon des modalités di érentes : dans certains cas, une nombre de considérations théologiques ? 59 Disponible à l’adresse suivante : www.cea.fr. L’article est en date du 19 juillet 2004. 60 Pensent-ils que les contestations des nouvelles technologies sont essentiellement motivées par la peur ? Leurs adversaires, en tout cas, refusent de poser le problème en ces termes. 138 technique potentiellement dangereuse mais dont la mise en œuvre est étroitement surveillée, échappe, pour une raison quelconque (ina ention, incompétence, vétusté du matériel ou au contraire maladies de jeunesse, conditions climatiques défavorables, etc.) à ce e surveillance – c’est l’incident, l’accident ou la catastrophe (industrielle, nucléaire, chimique ; déraillement, naufrage, crash aérien, etc.). D’autres cas sont plus insidieux : il s’agit de situations invisibles de perte de contrôle. Ici, les technologies mises en œuvre sont, en ellesmêmes, raisonnablement bien contrôlées, mais elles produisent des e ets irréversibles et qu’on ne sait plus maîtriser. Ce n’est plus le phénomène brutal, massif contre lequel on ne sait pas réagir : c’est l’apparition de phénomènes qui résultent de conduites en ellesmêmes innocentes lorsqu’elles sont envisagées à l’échelle individuelle mais qui, du fait de leur agrégation, produisent à l’échelle collective, voire à l’échelle universelle, des e ets dommageables et incontrôlables (réchau ement climatique, perte de la diversité biologique, érosion des terres cultivables). Un deuxième type de peur sociétale est celui du mauvais usage possible des technologies. C’est le thème de la technique détournée ou confisquée. Pour parler par image, c’est le thème du savant fou : dans ce cas, une technique est détournée de l’usage qui paraissait être naturellement le sien et, en tout cas, de l’usage auquel ses concepteurs la destinaient. C’est ce qui se passe, par exemple, lorsque des psychotropes sont utilisés comme moyens de torture. Ceux qui éprouvent ce e peur (ou soulèvent ce e interrogation) n’adme ent sans doute pas que les techniques sont intrinsèquement orientées vers le bien ; mais ils adme ent au moins que les techniques, neutres en principe quant aux usages qui peuvent en être faits, peuvent être retournées contre des intérêts ou des besoins légitimes et identifiables. Un troisième type de peur est celui de la transgression : même si on parvient à les maîtriser, même si elles ne sont pas détournées par une main criminelle, les techniques vont trop loin. C’est un argument qui a été très souvent utilisé dans le débat relatif au clonage thérapeutique ou à l’amélioration génétique des êtres humains. Ce e idée présente deux aspects. D’abord, il existe des limites, inscrites dans l’ordre naturel des choses, et ces limites sont normatives : elles indiquent ce qu’il faut faire et ce qu’il faut ne pas faire. Ensuite, lorsque ces limites sont transgressées, la nature se venge d’une façon ou d’une autre. 139 Ces mises au point étant faites, la technophobie des adversaires des technologies convergentes provient-elle de telles sources ? Ce n’est pas du tout certain : ces mêmes adversaires proclament haut et fort qu’ils n’ont pas peur, mais qu’ils sont en colère. Ce n’est donc probablement pas dans ce e direction qu’il faudra chercher leur « programme métaphysique ». Je propose alors d’en déterminer l’inspiration à partir de la question : « À partir de quel rapport au temps la contestation radicale des technologies convergentes se fait-elle ? ». Ce e question pouvant sembler quelque peu cryptique, des exemples seront bienvenus. Naguère, il existait déjà une contestation radicale de la modernité technolibérale61. Les auteurs de ce e contestation avaient très bien compris que les objets techniques et leur environnement ont des propriétés politiques, c’est-à-dire que, loin d’être des artefacts transparents et dociles, ils incorporent et manifestent des relations de pouvoir et d’autorité. Face à cet état de fait, ils a rmaient la positivité du jouir sans entrave, ici et maintenant : ils légitimaient donc leur contestation de la modernité technolibérale au nom du présent62. Il devient alors plus facile de comprendre la suite. Beaucoup de contestations de la modernité technolibérale opèrent en évoquant l’ancien âge d’or de proximité avec la nature qui était censé prévaloir avant l’invention des techniques et de la propriété privée ; elles rappellent comment la science a pu être « une aventure individuelle et patiente où l’on cherchait à observer, comprendre et savoir, sans faire » (Mora 2004), l’idée sous-jacente étant, évidemment, qu’elle a perdu son âme en devenant la Big Science que nous connaissons. Cela revient à dire qu’elles contestent la modernité technolibérale au nom du passé. Enfin, la contestation de la modernité technolibérale a pu se faire au nom du futur : c’est principalement le cas chez les marxistes qui considèrent que, lorsque l’asservissante subordination des individus à la division du travail aura disparu, les techniques révèleront leur potentiel de libération. Mais chez les adversaires des technologies convergentes, on trouve une contestation qui ne se fait ni au nom du présent, ni au nom du futur, ni même, malgré les accents conservateurs qui se manifestent parfois chez eux, au nom du passé. Ce e contestation est donc, d’un 61 Chez les situationnistes, par exemple. Il s’agissait de faire table rase du passé, sans pour cela tracer les plans d’un avenir radieux. 62 140 certain point de vue, faite au nom de rien : ce qui veut dire qu’elle se fait sans programme « métaphysique » identifiable. Au total, le discours des adversaires grenoblois des nanotechnologies s’inscrit bien dans la tradition récente du néoluddisme : les technologies convergentes ne sont pas forcément récusées en tant que telles, mais en tant qu’elles constituent la fine pointe de la société industrielle, fondée sur la croissance. Au demeurant, l’analogie avec le luddisme ne doit pas abuser : on n’a pas a aire, en l’état actuel des choses, à des briseurs de machines. Ce qui est saboté plutôt, ce sont les méthodes anti-démocratiques de ceux qui veulent « dépolitiser les prises de décisions et déposséder les sociétaires de la société de leur compétence politique » afin de renforcer, même avec de bonnes intentions, la « tyrannie technologique » (PMO 2011). Concrètement il s’agit de relever les manœuvres, les mensonges, les petits arrangements, l’indi érence aux sans voix et les connivences de ceux qui ne sont guidés que par leur ambitions personnelles : c’est une occupation à temps plein ! Mais s’y livrer ne nécessite pas l’adhésion à un quelconque « programme métaphysique ». En ce sens, les adversaires grenoblois des technologies convergentes sont assez proches de Theodore Kaczynski, dit Unabomber – un authentique briseur de machines pour le coup ! T. Kaczynski a été professeurassistant en mathématiques à l’Université de Californie (Berkeley) en 1967, d’où il a démissionné en 1969. Á partir de 1971, il a vécu en solitaire dans une cabane qu’il avait construite lui-même, dans un coin reculé du Montana et c’est de là qu’il a commencé à se livrer à une entreprise meurtrière qui a consisté à envoyer des colis piégés à des Universités, des Sociétés de transport aérien et des marchands de matériel informatique et électronique. Ces a entats ont fait plusieurs victimes. En 1995, il a exigé qu’un manifeste de 232 paragraphes, Industrial Society and its Future, soit publié dans la presse. Le texte a été e ectivement publié dans le Washington Post et dans le New York Times. En réalité, le FBI souhaitait sa publication afin que son auteur – ou ses auteurs – soi(en)t identifié(s) par son/ leur style (s). C’est exactement ce qui s’est passé. Si on laisse de côté les circonstances romantiques de la publication de ce manifeste, il s’agit d’une critique extrêmement articulée et convaincante à plus d’un titre de la société industrielle et de ses impasses. Pourtant, ce lecteur de J. Ellul devient d’une 141 insondable naïveté lorsqu’il s’agit de proposer une perspective constructive. Il écrit, par exemple, ceci : « Pour bénéficier d’un soutien enthousiaste, une idéologie doit o rir un idéal positif et pas seulement négatif : en d’autres termes, elle doit être POUR quelque chose et pas seulement CONTRE quelque chose. L’idéal positif que nous proposons est la nature, la nature VIERGE et SAUVAGE, qu’il s’agisse de la Terre ou des formes de vie qui s’y développent sans la moindre intervention de l’homme. Par nature vierge et sauvage, nous désignons également la nature humaine, c’est-à-dire le comportement d’un individu qui n’est pas régulé par une société organisée mais qui dépend seulement du libre choix personnel du hasard ou de Dieu (selon vos croyances religieuses ou vos opinions philosophiques) » (Kaczynski 2008, p.101). T. Kaczynski se trouve alors pris dans un dilemme : ou bien le concept vague de nature vierge et sauvage recevra un contenu déterminé ; mais, ce concept étant au plus haut point culturel, ce contenu sera culturellement et socialement chargé en valeur. Il ne paraîtra pas alors a ractif à tout le monde : ceux qui appartiennent à une autre culture ou à une autre société ne lui trouveront aucune force motivante. Ou bien alors ceux qui l’utilisent préfèrent rester dans l’indétermination : le concept sera peut-être capable, comme le veut T. Kaczynski, de bénéficier d’un soutien enthousiaste. Mais à la première di culté, ses ambigüités apparaîtront à la lumière et le désaccord éclatera entre les enthousiastes d’hier. Comme les contestataires grenoblois, T. Kaczynski est un activiste – beaucoup plus violent cependant. Comme eux il a construit un propos de contestation radicale de la société industrielle – beaucoup plus systématique, cependant. Comme eux, il n’a bâti sa cause sur rien. C’est ici sans doute que leur protestation rencontre ses limites. Références BENSAUDE-VINCENT B. et NUROCK V., « Éthique des nanotechnologies » dans Hirsch (éd.), Traité de Bioéthique I. Fondements, principes, repères, Toulouse, Éditions Erès (Espaces éthiques), 2010, pp. 355-369. 142 BERNARD C., Introduction à l’étude de la médecine expérimentale, Paris, Garnier-Flammarion, 1966 [1865]. COORDINATION NATIONALE DE RÉPRESSION DU SCIENTISME, « Totem et tabous ou qui veut sauver la recherche ? », Paris, 2004. DESCARTES R., Discours de la Méthode, texte et commentaire par E. Gilson, Paris, Vrin, 1925 [1637]. DUPUY J.-P., « Nous entrons dans une phase d’incertitude radicale », Le Monde, 29 avril 2006, p. 26. GOFFI J.-Y., La Philosophie de la technique, Paris, PUF (Que sais-je ?), 1988. KACZYNSKI T., « La Société industrielle et son avenir », L’E ondrement du système technologique, traduction, introduction et préface de P. Barriot, Vevey, Xenia, 2008. MORA H., « Nous n’avons pas à nous sentir responsables du monde dans lequel nous vivons », pamphlet distribué le 27 octobre 2004 (daté du 10 octobre 2004). PMO, « Spécial « première pierre » de MINATOC », AUJOUR’D’HUI LE NANOMONDE, #8, 27 septembre 2004. PMO, h p://www.piecesetmaindoeuvre.com/spip.php?page=plan, 2011 ROCO M.C. et BAINBRIDGE W. S., Converging Technologies for Improving Human Performance, h p://www.wtec.org/ConvergingTechnologies/ http://www.wtec.org/ConvergingTechnologies/Report/NBIC_ report.pdf, 2003. RUYTINX J., Le Problème philosophique de l’unité de la science, Paris, Les Belles Le res, 1962. SCHUSTER J. A., « Cartesian Method as Mythic Speech: A Diachronic and Structural Analysis », dans Schuster & Yeo (éds), The Politics and Rhetoric of Scientific Method, Dordrecht, Reidel, 1986, pp. 33-95. SLOTERD K P., Règles pour le parc humain, Paris, Mille et une nuits, 2000. LES ANIMAUX DES VILLES EN COLÈRE, GNR NBC TIC. Grenoble, ville-laboratoire, 2004. 143 Nanotechnologies, convergence NBIC et inégalités Dominique Bourg63 Nous considérerons ici les nanotechnologies en leur conférant une acception large, et plus encore contextuelle, celle de la convergence NBIC, à savoir celle des génies à l’échelle nanométrique, des biotechnologies, de l’informatique et des sciences cognitives. Nous ne cherchons pas ce faisant à embarquer des technologies étrangères à l’échelle nanométrique, afin d’embrasser un maximum de matière, mais en vue de mieux caractériser certains aspects de l’évolution technologique en cours64. Ce n’est qu’après nous être acqui és de ce e tâche que nous nous tournerons vers deux domaines particuliers de déploiement des nanotechnologies et autres technologies de la convergence : les anthropotechniques d’un côté, l’environnement et les di cultés qui lui sont a érentes de l’autre. Nous chercherons à montrer que l’essor des technologies de la convergence, qu’il s’applique aux êtres humains ou à l’environnement, interférera puissamment avec la valeur égalité. Il pourrait déboucher sur un accroissement spectaculaire des inégalités. L’exercice auquel nous allons nous livrer est pour le moins délicat car il est très di cile, notamment de l’extérieur, de faire le départ entre d’un côté des promesses liées à des trajectoires technologiques bien réelles, voire de la propagande, et de l’autre des réalisations parfois très modestes et surtout très disparates. Ce que nous allons nous e orcer de me re en lumière ne concerne pas les nanosciences et nanotechnologies en général, si tant est que ces expressions aient un sens, mais un mixte entre des réalisations technologiques e ectives et des possibilités de développement. 63 Université de Lausanne (Unil)/Ethos Nombre des informations de ce texte s’appuient sur la série d’auditions que j’ai pu conduire avec Floran Augagneur pour le compte de Terra Nova, auditions qui donneront lieu à publication d’un rapport. 64 145 Le paradigme de la convergence : le cas de la biologie synthétique Les technologies de la convergence ont en partage de rendre possible des opérations technologiques sur les constituants ultimes de la vie et/ou de la matière, embrassant le traitement de l’information et de la connaissance. La convergence n’a pas grand chose à voir avec l’interdisciplinarité ou la transdisciplinarité d’antan. Il s’agit d’un paradigme opératoire et non spéculatif : les disciplines impliquées demeurent, mais se croisent de façon multiple, s’unissent et se transcendent dans la puissance opératoire qu’elles autorisent. Sont ainsi recherchés plusieurs objectifs. Le premier est d’a eindre un seuil de puissance technologique inégalé, seuil associé à l’idée de « singularité »65. Le transhumanisme en tant qu’idéologie d’accompagnement de la convergence, est à cet égard on ne peut plus explicite : la convergence devrait déboucher selon ses prophètes sur rien moins que l’« immortalité »66 et la résolution de toutes les di cultés écologiques, qu’elles relèvent de questions de matériaux ou d’énergie aussi bien que des perturbations a ectant les grands équilibres de la biosphère. Le second objectif est d’étendre les opérations technologiques à des domaines inédits, avec par exemple un programme de recherche comme celui d’une conscience virtuelle, ou de faire exploser les possibles dans des domaines existants, comme les anthropotechniques ou la création de matériaux (nanotubes de carbone, fullerènes, graphènes, etc.). Le troisième objectif est de réaliser des opérations technologiques qui ne se déploieraient plus parallèlement aux processus naturels, mais les intégreraient. Alors que l’opération technique, traditionnelle aussi bien que moderne, relevait de l’imposition d’une forme à une matière préexistante – soit naturelle au sens de spontanée, par exemple la matière bois à laquelle on impose la forme lit, soit ellemême produit d’une technique à l’instar de quelque aggloméré ou 65 Voir Venor Vinge, « What is The Singularity? », VISION-21 Symposium, NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31, 1993 et (Kyrou 2009). 66 Moins imprudemment du di èrement indéfini de la mort. 146 matière de synthèse –, les technologies de la convergence entendent procéder autrement. Désormais, il s’agira par exemple d’introduire au sein d’une cellule une séquence d’ADN artificiellement produite et combinée. Une telle opération vise à utiliser et à détourner à notre profit telle ou telle faculté propre au vivant, en l’occurrence celle d’une cellule de se reproduire. Il ne s’agit donc plus de s’opposer à l’autonomie de la nature, à sa spontanéité – de faire que le lit ne redevienne pas bois aurait dit Aristote –, mais d’intervenir su samment à l’amont des processus naturels pour utiliser leur spontanéité même. Ce e façon de jouer sur l’autonomie peut connaître d’autres formes de déploiement, avec une part allouée à l’artifice plus grande. Tel pourrait être le cas du programme de recherche tendant à produire une conscience virtuelle. L’idée est de reproduire sur un support informatique des fonctionnalités propres à la conscience. Plus précisément, il s’agit de produire un système qui penserait par luimême, à partir d’un profil psychologique déterminé, doté de pulsions, d’émotions, de corporéité, capable de jugements sur ce qu’il perçoit, de communiquer avec d’autres systèmes, etc.67 Certes, toutes les fonctionnalités de la conscience ne sont pas encore reproductibles. Si des systèmes artificiels peuvent interpréter des données des sens, ils ne peuvent par exemple se percevoir eux-mêmes. L’une des di cultés les plus grandes semble bien à cet égard la di culté qu’il y aurait à doter un tel système de mémoire. Comment en e et reproduire un vécu qui n’aurait pas été vécu ? C’est un des domaines où la vitesse, ce e constante des techniques, semble constituer une contradiction. Ces di cultés pourront-elles être surmontées ? Peu importe ici. La production de spontanéité, d’autonomie, dispose déjà d’une forme de réalité. Le système financier international, par exemple, entièrement informatisé, jouit d’ores et déjà d’une certaine autonomie. La production de traders artificiels ou d’avions de chasse automatisés ne paraît pas hors de portée. Nous aimerions encore a irer l’a ention du lecteur sur un autre aspect de ce nouveau paradigme techno-scientifique : le problème n’est plus de dévoiler Isis, mais d’en produire des filles. Considérons à cet égard le cas de la biologie synthétique. Sur un plan théorique, il semble que l’idée d’un programme génétique, au sens informatique du terme, soit plus que suje e à caution. Il n’existe pas en e et de relations 67 Voir J.-P. Dupuy et la volonté de créer des artefacts autonomes, qui échappent à la maîtrise, à l’instar de la création divine, cf. notamment (Dupuy 2004). 147 spécifiques, étroites, entre gènes et caractères. Il y a évidemment des corrélations entre les uns et les autres, mais elles ne relèvent pas à proprement parler du déroulement d’un programme. Le même e et phénotypique peut par exemple être produit par des mutations a ectant plusieurs gènes. A l’inverse, la même mutation génétique a ecte plusieurs caractères ; et certaines mutations ne se produisent en outre que si des conditions particulières peuvent être satisfaites. On ne saurait donc assimiler l’ADN à un code informatique68. Si tel était d’ailleurs le cas, le séquençage du génome aurait réalisé les promesses énoncées il y a une vingtaine d’années, lorsqu’il convenait de justifier les programmes de recherche correspondants : guérir toutes les maladies (sic)69 ! Quelle est la stratégie développée par la biologie de synthèse ? Elle ne s’assigne nullement pour dessein de produire quelque percée théorique perme ant par exemple d’élucider le rôle du hasard dans les mécanismes propres au vivant, plus précisément quant à l’expression des gènes. Non, son premier objectif est d’isoler le nombre de gènes minimal nécessaire à l’essor de la vie, puis de s’assurer de ce que les gènes retenus s’expriment, et ainsi de surdéterminer leur expression de telle sorte que le hasard soit éliminé. Autrement dit, il ne s’agit pas de comprendre la complexité propre au vivant, mais de contraindre la vie à fonctionner à l’identique d’un programme. Ce e stratégie ne s’éloigne en rien du modèle prométhéen des relations à la nature, à savoir le modèle judiciaire qui consiste à faire faire à la nature, en la torturant si besoin, ce qu’elle n’accomplirait pas spontanément, modèle a esté dès la Grèce antique (Hadot 2004, pp. 107-109). Elle ne lui imprime pas moins une nouvelle orientation : il ne s’agit plus de conduire la nature à répondre à nos questions, mais à produire ce qu’elle ne produirait pas spontanément. Telle est précisément la di érence entre la techno-science la plus contemporaine et la science classique. Il ne s’agit plus de contraindre 68 Voir les travaux de Jean-Jacques Kupiec, notamment (Kupiec 2008, Kupiec 2000). 69 Voir par exemple : « Le Programme Génome Humain ne peut pas échouer. Chaque étape que nous franchirons sur la route de nos objectifs ultimes facilitera la tâche des scientifiques pour trouver les gènes [responsables des maladies]. Comme le système des autoroutes qui dans notre pays relie les di érents Etats, la carte du génome humain sera complétée, tronçon par tronçon, à partir de maintenant », J. Watson et N. Zinder, (The New York Times, 1990). Voir plus généralement (Domurat Dreger 2000). 148 la nature à répondre à nos questions pour ensuite, fort de ses réponses, produire des artefacts (cf. le modèle galiléen, théorie du mouvement, puis amélioration des techniques horlogères), mais de la contraindre à d’emblée produire, en un sens quasi industriel, ce qu’elle ne produit pas spontanément70. Toutefois, ainsi comprise, la convergence apparaît comme une étape supplémentaire dans l’approfondissement de l’intention opératoire propre à la science moderne. En un sens en e et, la science moderne se présente dès les origines comme une « techno-science ». Avec les modernes, le savoir est d’emblée compris comme un pouvoir. Le texte à cet égard le plus clair est la préface à l’Instauratio magna de Bacon : « La fin qui est proposée à notre science, écrivait-il, n’est plus la découverte d’arguments, mais de techniques, non plus de concordance avec les principes, mais des principes eux-mêmes, non d’arguments probables, mais de dispositions et d’indications opératoires. C’est pourquoi d’une intention di érente suivra un e et di érent. Vaincre et contraindre là-bas, un adversaire par la discussion, ici la nature par le travail »71. A cette intention opératoire est désormais associée une volonté de puissance plus encore marquée qu’elle ne pouvait l’être à l’aube de la science moderne. Les anthropotechniques L’essor des anthropotechniques72, comme plus généralement celui des techno-sciences associées à la convergence NBIC, est inséparable d’un imaginaire de la promesse. Là encore, il n’y a pas de solution de continuité vis-à-vis des origines de la science moderne. La Nouvelle Atlantide de Bacon constitue à cet égard la référence obligée, mais pas nécessairement originelle. La Lettre sur les œuvres secrètes de Roger Bacon, au 13ème siècle, a probablement inauguré ce genre littéraire. L’imaginaire contemporain semble toutefois plus composite que ses célèbres devanciers. La promesse 70 Voir aussi (Bensaude-Vincent 2009). Cf. Francis Bacon, Instauratio magna (The Great Instauration), traduction du texte latin (The Works of Francis Bacon, éd. J. Spedding, republiée par Frommann, Stu gart, vol. 1, 1963, p. 36, traduction du texte latin par Dominique Janicaud, La Puissance du rationnel, Paris, Gallimard, 1985, p. 189. La traduction anglaise traduit vincitur par command, voir op. cit. p. 21 (début du « plan de l’ouvrage »). 72 A savoir des techniques visant à transformer l’être humain, sans finalité médicale, en intervenant sur le corps. Voir (Go e e 2008, p. 69). 71 149 est en l’occurrence tant celle d’un surcroît de richesses économiques, d’une amélioration humaine (human enhancement), que celle plus flamboyante de la cause transhumaniste. Je prendrai ici mes distances avec deux composantes de l’expression la plus radicale de cet imaginaire que quelques philosophes reprennent cependant à leur compte. La première est l’idée d’une transformation du genre humain en tant que tel, et non de quelques individus, autrement dit le projet de pilotage de l’évolution même du genre humain. La seconde composante que je récuse est la possibilité d’une subversion de la condition humaine. Je partirai d’un texte de Vanessa Nurock (Nurock 2008). L’auteur cherche à montrer que les éthiques traditionnelles (déontologique, conséquentialiste et éthique des vertus) ne procurent pas d’argumentation convaincante pour évaluer les possibles ouverts par les nanotechnologies. Elles apparaissent surtout impuissantes à évaluer et à argumenter face au défi que les dites technologies posent à l’éthique en tant que telle : à savoir la possibilité d’élargir, à la suite de quelque manipulation neuronale, la gamme des éthiques possibles. Vanessa Nurock souligne la di culté à argumenter éthiquement pour autoriser ou non une telle manipulation. Ce faisant l’auteur s’appuie sur une conception chomskyenne de notre équipement linguistique naturel et suppose, par analogie, l’existence d’un dispositif cérébral au fondement de nos éthiques. On peut douter et de la théorie chomskyenne et plus encore de l’universalité neuronale des éthiques occidentales. Mais peu importe ici. L’hypothèse de Vanessa Nurock nous plonge dans une absolue perplexité. En premier lieu, c’est plutôt la nécessité où nous sommes de devoir, dans certaines circonstances, justifier nos actions, autrement dit l’impossibilité où nous sommes de nous soustraire à la question de la légitimité, qui paraît universelle, et non les réponses variées que nous pouvons produire. En second lieu, l’idée même d’obligation morale semble devoir participer d’une certaine transcendance : l’obligation est par définition ce qui s’impose, ce avec quoi on ne saurait transiger. Qu’adviendrait-il en e et si nous devenions capables de programmer des éthiques inédites, de produire des obligations aussi nouvelles qu’arbitraires ? Une telle possibilité ne viendrait-elle pas ruiner l’idée même d’éthique et celle d’obligation morale ? Rendre 150 disponible ce qui jusqu’alors était indisponible revient à le détruire en tant que tel. Imaginons di érents scénarios relatifs à l’hypothèse de Vanessa Nurock. Le premier consisterait à introduire dans le cerveau d’autrui quelques puces ou autres nanomatériaux, ou de recourir à quelque autre procédé d’ingénierie génétique (Nurock 2008, p. 124). Or, on ne saurait envisager pire aliénation : ce qui fonderait globalement, en matière d’orientation morale, la volonté d’autrui après opération relèverait de la décision d’un autre. Nous serions très proches de la définition aristotélicienne de l’esclave comme instrument de la volonté d’autrui. Second scénario, l’opération se déroule avec le consentement de son sujet. On ne sort pas pour autant de l’aliénation. La personne nouvelle se retrouve déterminée à jamais par la décision de son moi antérieur, disparu. Il y a là une forme d’auto-aliénation. Troisième scénario, je m’impose à moi-même une opération après l’avoir imposée à autrui ; ce qui ne ferait jamais qu’ajouter à l’aliénation première une auto-aliénation. Les expressions de « trans- » ou de « post-humanisme » sont tout aussi trompeuses que le projet de pilotage de l’évolution. Nous ne pourrons jamais, en e et, piloter volontairement l’évolution du genre humain. Il faudrait à cet e et un accord international, sur plusieurs décennies, imposant pour chaque nouveau-né, ou à titre prénatal, le même type d’opération, et ce sans préjuger des coûts (Bourg 1996, pp. 265-290). Seuls paraissent plausibles des individus « transhumains » qui, s’ils se reproduisaient exclusivement entre eux, moyennant quelque opération sur les molécules de liaison spermatozoïdes – ovule, pourraient finir par produire une nouvelle espèce au sein du genre humain. Nous serions alors confrontés à un phénomène de spéciation. On imagine aisément que les individus qui auraient recours à ces technologies a érentes à la convergence ne chercheraient pas tant à acquérir des modules éthiques inédits qu’à accroître leurs performances dans un contexte de concurrence économique accrue. Les anthropotechniques semblent ainsi devoir déboucher sur un accroissement des inégalités, plutôt que sur une quelconque étape nouvelle, plus favorable, de la condition humaine. Nous risquons fort d’être confrontés à un phénomène analogue à celui rendu possible par les technologies occidentales quant à la maîtrise de l’environnement. Combinées à la maîtrise des énergies fossiles, elles ont débouché sur 151 une di érenciation importante en matière de création de richesses sur Terre, en démultipliant la productivité de ceux des travailleurs associés à des dispositifs techniques (voir plus bas). En outre, nous serions alors en droit de nous interroger sur la résistance de la fiction juridique, consubstantielle à nos sociétés, de l’égalité de tous les individus face à la loi, s’il devenait possible de produire à dessein une classe d’individus dotés d’aptitudes intellectuelles et physiques réputées supérieures. Considérons plus brièvement le fantasme transhumaniste, mais déjà baconien, d’une subversion via les technologies de la condition humaine. En quoi, par exemple, la convergence NBIC serait-elle en mesure de surmonter l’un des traits les plus prégnants de la condition humaine, à savoir la fréquente conversion du bien en mal ? Qu’il soit impossible de connaître par avance les résultats d’une action sociale, qu’il en résulte souvent des conséquences tout à fait étrangères à ce qu’en espèrent ses propres auteurs, est une des constantes de l’histoire, l’un de ses traits constitutifs. Il n’y a pas là un problème susceptible de connaître une solution technique. Nos techniques elles-mêmes, vis-à-vis du seul milieu naturel, produisent parfois des résultats imprévisibles à moyen ou long terme. Des techniques plus puissantes ne changeraient rien par ailleurs quant à la finitude de nos choix. Nous ne saurions par définition tout choisir. Choisir revient par nécessité à exclure, au moins pour un temps. La promesse de surmonter la mortalité consubstantielle à notre humanité constitue un abus de langage. On pourrait au mieux prome re de di érer indéfiniment la mort d’un nombre limité d’hommes sur ce e Terre. La condition de mortel est par essence a achée au fait d’être né, et de l’être par définition de façon contingente. Quand bien même j’aurais survécu trois cents ans, dix mille voire cent mille ans et plus, quand saurai-je que je suis immortel73 ? Etc. Nos technologies sont di cilement séparables de la recherche de la puissance, laquelle ne se partage guère. Elles semblent immanquablement devoir produire un surcroît d’inégalités. 73 Question empruntée à Etienne Klein. 152 Convergence et environnement naturel Qu’il ne nous soit désormais plus possible de souscrire sans réserves à une conception dualiste de l’homme versus la nature, ce que l’anthropologue Philippe Descola désigne sous l’appellation de naturalisme, ne doit pas nous conduire à croire que nous pourrions nous a ranchir de toute forme de dualité. Descola lui-même s’a ache à montrer l’impossibilité où nous sommes de dépasser le naturalisme. Le mot « nature » évoque une idée, un agencement de concepts, et non un concept apte à identifier et à regrouper des individus désignables. L’idée de nature, à l’instar de n’importe quelle idée n’est nullement universelle. Il n’en reste pas moins vrai que nous n’avons aucun moyen de nous en dépêtrer. Plus particulièrement, nous ne pouvons nous passer de l’opposition nature/artifice, même si nous nous apparaissons désormais comme appartenant à la nature, laquelle nature nous a précédés et nous survivra. Il convient cependant de ne pas oublier la relativité de ce e distinction, et ce dès ses origines aristotéliciennes. Relativement à la présence de la cause finale dans la nature, qui renvoie quant à elle à la cause formelle, Aristote n’hésitait pas à a rmer que « si une maison était chose engendrée par la nature, elle serait produite de la façon dont l’art en réalité la produit » ; il en irait de même en sens inverse : « si les choses naturelles n’étaient pas produites par la nature seulement, mais aussi par l’art, elles seraient produites par l’art de la même manière qu’elles le sont par la nature »74. « Je ne reconnais aucune di érence, écrira quant à lui Descartes, entre les machines que font les artisans et les divers corps que la nature seule compose, sinon que les e ets des machines ne dépendent que de l’agencement de certains tuyaux, ou ressorts, ou autres instruments, qui, devant avoir quelque proportion avec les mains de ceux qui les font, sont toujours si grands que leurs figures et mouvements se peuvent voir, au lieu que les tuyaux ou ressorts qui causent les e ets des corps naturels sont ordinairement trop petits pour être aperçus de nos sens. Et il est certain que toutes les règles des mécaniques appartiennent à la physique, en sorte que toutes les choses qui sont artificielles, sont avec cela naturelles »75. « Chaque corps organique d’un vivant, écrit enfin 74 75 Physique, II, 8. Principes de la philosophie, (1644), A. T., t. IX. 153 Leibniz dans la Monadologie (§ 64), est une espèce de machine divine, ou d’automate naturel, qui surpasse infiniment tous les automates artificiels. Parce qu’une machine faite par l’art de l’homme, n’est pas machine dans chacune de ses parties. Par exemple : la dent d’une roue de laiton a des parties ou fragments qui ne nous sont plus quelque chose d’artificiel et n’ont plus rien, qui marque de la machine par rapport à l’usage, où la roue était destinée. Mais les machines de la nature, c’est-à-dire les corps vivants sont encore machines dans leurs moindres parties, jusqu’à l’infini. C’est ce qui fait la di érence entre la Nature et l’Art, c’est-à-dire, entre l’art divin et le nôtre » (Leibniz 1975 [1714]). N’entrons pas ici dans la conception de l’artifice propre à chacune de ces figures de la pensée, l’essentiel étant ici pour nous de rappeler la relativité de l’opposition qui nous occupe. Qu’en est-il aujourd’hui ? Ce sont précisément les frontières entre nature et artifice et leur flou qui donnent lieu à des configurations inédites. C’est par exemple le chercheur indien Pranav Mistry qui transforme telle partie de son corps en artefact électronique76. Nous avons alors à faire à une naturalisation de l’artifice. Considérons à l’inverse les plantes génétiquement transformées. Il s’agit alors d’une artificialisation ciblée de plantes naturelles. Quelle di érence avec le même type de cultivar non génétiquement modifié ? En réalité seul le temps saurait les di érencier. Il conditionne tout autant la compatibilité écosystémique, la neutralité sanitaire que l’insertion un tant soit peu durable au sein de pratiques sociales. C’est d’ailleurs bien selon ce régime temporel que l’agriculture biologique a avalisé en tant que « naturelle » certaines pratiques. Ce que refusent en e et les fondateurs de l’agriculture biologique, ce sont tant la chimie de synthèse, l’héritage de Liebig, que l’imposition au monde agricole du modèle industriel (Besson 2011). Ils qualifieront en revanche de « naturels » divers procédés « artificiels » tout simplement parce qu’ils préexistaient à la rupture qu’ils instaurèrent. Tel est par exemple le cas du recours au cuivre en tant que fongicide dans le cadre de ce qu’on appelle la bouillie bordelaise. Autre exemple, l’usage de la roténone était accepté alors qu’on vient de découvrir qu’elle pouvait provoquer la maladie de Parkinson chez les rats. Toutes considérations qui ne contredisent pas l’impact environnemental réduit de l’agriculture biologique par rapport aux pratiques intensives. 76 Voir la conférence TED de Pranav Mistry : h p://www.ted.com/talks/lang/ eng/pranav_mistry_the_thrilling_potential_of_sixthsense_technology.html 154 Quelle que puisse en revanche être la proximité de certains produits de l’action humaine aux êtres naturels, il n’en reste pas moins une di érence fondamentale : seules les entités qui procèdent, à un titre ou un autre, d’une action humaine, engagent une responsabilité humaine. Ainsi que le remarquait Stuart Mill, la nature fait toutes sortes de choses qui apparaîtraient horribles si elles découlaient d’actions humaines77. Autrement dit, plus nous substituons à des mécanismes naturels des interventions humaines, technologiquement médiatisées, et plus nous étendons la sphère de nos responsabilités ; plus, ce faisant, nous intensifions notre dépendance mutuelle. Considérons pour finir trois domaines où des nanotechnologies pourraient jouer un rôle important touchant directement l’environnement. Le premier domaine concerné est celui des biocarburants. Il devrait être possible, via la biologie synthétique, de recombiner l’ADN de bactéries de telle sorte qu’elles transforment le sucre en éthanol ou des levures en gasoil. De telles recherches sont financées par des groupes pétroliers comme Exxon Mobile ou BP. Il en résulterait au mieux quelques millions de barils par jour, ce qui ne semble pas à la mesure du déficit en matière de pétrole qui s’annonce. Rappelons que nous avons a eint le maximum de nos capacités d’extraction mondiale de pétrole conventionnel en 2006, le fameux pic pétrolier, et que nous sommes d’ores et déjà entrés dans une sorte de plateau ondulé qui sera immanquablement suivi par une descente aux enfers desdites capacités (Laherrère 2011). En matière de pétrole conventionnel nous extrayons 64 millions de barils par jour auxquels nous ajoutons d’ores et déjà 22 millions de barils par jour d’autres pétroles liquides d’origines diverses, au coût d’extraction 77 « The word «nature» has two principal meanings: it either denotes the entire system of things, with the aggregates of all their properties, or it denotes things as they would be, apart from human intervention. In the first of these senses, the doctrine that man ought to follow nature is unmeaning; since man has no power to do anything else than follow nature; all his actions are done through, and in obedience to, some one or many of nature’s physical or mental laws. In the other sense of the term, the doctrine that man ought to follow nature, or, in other words, ought to make the spontaneous course of things the model of his voluntary actions, is equally irrational and immoral. Irrational, because all human action whatever consists in altering, and all useful action in improving, the spontaneous course of nature. Immoral, because the course of natural phenomena being replete with everything which when commi ed by human beings is most worthy of abhorrence, any one who endeavoured in his actions to imitate the natural course of things would be universally seen and acknowledged to be the wickedest of men » (Mill 1904 [1874], p. 32). 155 et de transformation notablement plus élevé que celui du pétrole conventionnel. Or, ces bactéries recombinées travailleront sur une matière première agricole qui exigera l’allocation de nouvelles surfaces. Ce sont déjà 4 % des surfaces agricoles mondiales qui sont allouées aux biocarburants et c’est une des raisons de la montée générale du coût de l’alimentation. Nous retombons ici sur le problème des inégalités, la production de carburants pour les plus riches obérant le coût de l’alimentation des plus pauvres. Par ailleurs, si l’on se tourne vers l’énergie solaire et l’apport en la matière des nanotechnologies, les perspectives ne sont pas plus mirobolantes. La nanorestructuration du silicium ouvre théoriquement un véritable saut technologique en terme de rendement, avec un horizon à 70 %. Certes, mais les étapes pour y parvenir sont nombreuses, et le rendement pour l’heure reste largement inférieur à celui des meilleurs panneaux classiques. Si l’on se tourne vers les matériaux, la valorisation de nos futurs stocks de CO2 reste un objectif lointain, et cela ne changerait rien aux actuelles et futures tensions sur les métaux rares et semi-précieux indispensables aux technologies les plus sophistiquées. Qu’il s’agisse d’énergie ou de disponibilité de certains métaux, les nanotechnologies ne semblent pas en mesure, à un horizon moyen de visibilité, de faire autre chose que desserrer légèrement l’étau des ressources. Enfin, on ne peut écarter un risque nouveau, ouvert par la biologie de synthèse, celui du biohacker ou du biogaragiste, recombinant en catimini quelque séquence d’ADN afin de produire la chimère de ses fantasmes. Il semble toutefois que ces derniers ne peuvent suivre ce qu’on sait produire dans les laboratoires patentés de recherche qu’avec un décalage de dix ans, et surtout que rien ne semble pouvoir égaler la dangerosité bien naturelle, par exemple, du virus de la variole. Mais un tel virus n’en reste pas moins, en principe, synthétiquement reproductible. Revenons pour conclure aux enjeux de l’égalité. Pour autant que la convergence se déploie dans un contexte de compétitivité individuelle et collective exacerbée, n’ayant d’autre orient que la maximisation des gains à court terme, on ne voit guère ce qui pourrait en découler, si ce n’est un surcroît d’inégalités. Les nanotechnologies devraient perme re d’accéder à une marche supplémentaire dans ce e ascension des inégalités que nous connaissons depuis qu’une partie de l’humanité est parvenue à exploiter technologiquement les énergies fossiles. Comparativement à une hache, par exemple, 156 une tronçonneuse augmente la productivité du travail d’un facteur allant de 100 à 1000. Ce qui nous permet de comprendre qu’avant les années 1820, les écarts de richesse matérielle entre les nations n’aient probablement pas dépassé, ou alors de peu, un rapport de 1 à 2 (Bairoch 1997). Le PIB par habitant a eint au Qatar 85 600 $, 79600 au Luxembourg et 46 300 $ aux USA pour 200 $ au Zimbabwe et 400 $ au Liberia. Le Qatar est ainsi en moyenne 428 fois plus riche que le Zimbabwe, alors qu’à la fin du 18ème siècle, avant l’envolée de la révolution industrielle, il aurait été impossible de trouver une nation deux fois plus riche qu’une autre. Le présent, et plus encore l’avenir proche, semble aux antipodes de l’espérance des modernes, de Bacon à Hegel aussi bien que Marx : la maîtrise technique de la nature leur paraissait receler la promesse d’une reconnaissance universelle des hommes dans leur égale dignité. Références Bairoch P., Victoires et déboires. Tome 2. Histoire économique et sociale du monde du 16e siècle à nos jours, Paris, Gallimard, 1997. Bensaude-Vincent B., Les vertiges de la technoscience. Façonner le monde atome par atome, Paris, La Découverte, 2009. Besson Y., Les Fondateurs de l’agriculture biologique, Sang de la Terre, 2011. Bourg D., L’Homme artifice. Le sens de la technique, Paris, Gallimard, 1996. Domurat Dreger A., « Metaphors of Morality in the Human Genome Project », dans Controlling Our Destinies, Sloan P. (éd.), Notre Dame Press, 2000. Dupuy J.-P., « Quand les technologies convergeront », Revue du MAUSS 23(1), 2004. Goffette J., Naissance de l’anthropotechnie. De la médecine au modelage de l’humain, Paris, Vrin, 2008. Hadot P., Le Voile d’Isis, Paris, Gallimard, 2004. Kupiec J.-J., Ni Dieu ni gène. Pour une autre théorie de l’hérédité, Paris, Seuil – Points, 2000. Kupiec J.-J., L’origine des individus, Paris, Fayard, 2008. 157 Kyrou A., « La mutation androïde de Google : radiographie d’un imaginaire en actes », Multitudes 36, 2009, h p://multitudes.samizdat.net/La-mutation-androide-de-Google. Laherrère J., « Les perspectives pétrolières et gazières », Futuribles 373, 2011, pp. 5 – 28. Leibniz G.W., La Monadologie, Paris, Ed. Delagrave, 1975 [1714]. Mill J. S., On Nature, (édition de 1904) [1874]. Nurock V., « Avons-nous vraiment besoin de nano-éthique ? » dans B. Bensaude-Vincent et al., Bionano-éthique - Perspectives critiques sur les bionanotechnologies, Paris, Vuibert, 2008, pp.113-126. 158 Nanoéthique et posthumanisme Mylène Botbol-Baum78 « Ce sera l’âge du « nano » : la technologie disparaîtra complètement parce qu’elle existera dans nos corps et non plus sur eux (…) en conséquence, au fur et à mesure que notre avenir deviendra de plus en plus technologique, comprendre et contrôler ce e technologie deviendra de plus en plus impossible. » Bruce Benderson Les nanotechnologies sont-elles en train de réaliser une révolution silencieuse, à une échelle d’abord invisible, mais dont il faudrait alerter les citoyens que nous sommes des conséquences éthiques qu’elles soulèvent, ou penser une manière adéquate pour répondre à leurs conséquences, bonnes ou mauvaises ? A quelles conditions de partages de connaissances chacun peut-il répondre adéquatement à ces questions afin de ne pas les réserver à des « experts » ? S’agit-il véritablement d’une question d’échelle, ou plutôt de la convergence de technologies et du vivant qui e ace les frontières existantes de nos représentations ? Si nous prenons au sérieux le scénario de Bruce Bendernson (Bendernson 2010), le changement d’échelle devrait sérieusement perturber notre mode d’évaluation éthique et notre capacité à être autonomes vis-à-vis des nanotechnologies, car elles nous envahiraient de l’intérieur et annuleraient notre capacité de nous séparer, de nous altérer, tant elles se confondraient avec nos corps. Ainsi, l’élaboration d’une nanoéthique n’aurait aucun sens car la distance entre le faire techno-scientifique et sa réalité sociale serait trop éloignée, et toute décision d’y me re des limites absurde ou inopérante. Nos modèles de décision sont fondés sur l’articulation de trois moments : une intuition morale fondée partiellement sur nos croyances, 78 Université Catholique de Louvain 159 des normes biophysiques qui sont lues plus ou moins en accord avec ce e croyance et une capacité réflexive pour éventuellement donner des raisons à nos croyances ou les déconstruire. Face aux nanotechnologies, nous avons certes besoin d’imagination prospective, mais surtout d’une capacité à penser au-delà des régulations biologiques, dont le rempart envers les risques s’avère de plus en plus fragile. Nous savons également que la délibération sans information experte ne fait qu’alimenter les ombres de la caverne. De plus, la délibération n’est pas la décision et nous nous situerons donc ici dans une réflexion sur l’association entre nanotechnologies, méliorisme et posthumanisme afin de penser le temps de la compréhension tacite qui devrait précéder le temps de la précaution. Nous tenterons de dépasser les deux discours du « hype » et de l’heuristique de la peur, en tentant de préciser la pertinence d’un discours éthique sur les nanotechnologies, s’il n’est pas précédé d’une réflexion ontologique et épistémologique plus globale sur ce que sont les nanosciences et leurs applications technologiques. Mais quelle spécificité des nanos dans le paysage des technosciences ? Techno-sciences n’appartient pas véritablement au vocabulaire des sciences, ni de l’épistémologie des savoirs scientifiques. On le trouve par contre utilisé par les sociologues des sciences, tel Bruno Latour, ou par certains philosophes, tels Lyotard ou Gilbert Ho ois. La notion de technoscience n’est donc pas directement scientifique ni même subordonnée aux savoirs scientifiques. Elle s’inscrit dans une conception idéologique et philosophique de la description du monde et de l’humain. Une cohérence théorique des techno-sciences a pour but de faire voir ce qui est en jeu dans la porosité des frontières entre le vivant et l’inerte. Elle est une tentative d’élucider philosophiquement ce que l’on nomme science, technique ou technologie. Techno-science est ainsi utilisé de manière polémique par ceux qui dénoncent la violence faite aux sciences et aux techniques, dans l’incapacité même à décrire la nouveauté des phénomènes scientifiques et techniques. Le discours contre la technoscience est donc souvent perçu comme le symptôme de la peur des laissés-pour-compte de l’avancée scientifique et technologique, rarement comme celui d’un choix rationnel contre les perturbations d’un monde commun et de sa culture. 160 Il y a donc implicitement un a priori technophobe visant à dénoncer l’aliénation ou la réunification de la rationalité instrumentale. L’intérêt des discours de Jean-Luc Nancy ou de Stiegler dépasse ce e technophobie pour me re en lumière l’ambivalence du champ dont la connotation n’est plus péjorative ou dénonciatrice. Ils s’a achent plus à décrire le vécu humain des sciences et des techniques, mais aussi l’interprétation de ce vécu. Les nanosciences elles-mêmes, en faisant partie, désignent à la fois une description rigoureuse des phénomènes scientifiques et techniques mais exigent un discernement, quant à leur impact social et au respect du pluralisme des convictions lorsqu’une innovation technique balaye la frontière fragile entre public et privé, intérêt économique et choix de vie. A ce stade, de nombreuses revues de bioéthique ou de philosophie de la technique discutent l’éthique des nanotechnologies, comme si les e ets des nanosciences étaient maîtrisables et leur adoption ne nécessitait qu’une éthique de la discussion bien comprise. Certains annoncent dès lors très sérieusement l’ère de la singularité’, nommée ainsi en référence à la notion mathématique postulant que l’accélération du progrès technologique provoquera bientôt la transformation radicale de notre condition humaine (discours du posthumanisme, voire du transhumanisme). Nous sommes dès lors confrontés à une procéduralisation des nanotechnologies, n’ayant rien de bien di érent de la régulation d’autres biotechnologies, dont l’ignorance suscite des peurs qui, loin de nous avertir de dangers objectivables, dénoncent la perte des repères existants. Le champ descriptif de la toxicologie nano ne cesse de s’étendre en santé publique, pour établir la notion de risque comme la limite à notre imaginaire devant ce qui reste invisible à notre échelle, et ouvre à la catégorie de risques potentiels et non mesurables, et donc à une heuristique de la peur censée nous rendre responsables... Comment pourtant répondre de ce que l’on ne comprend pas ? Dans ce conflit d’intérêt entre industries et toxicologues, peu s’aventurent à définir les nanotechnologies de manière à engager le dialogue. Les nanotechnologies ont été rendues possibles par les progrès technologiques, notamment en biologie grâce à l’avènement de techniques très sophistiquées en microscopie (confocale, à fluorescence, 161 à sonde locale, à e et tunnel) qui ont permis d’observer, puis de manipuler, des objets à l’échelle moléculaire, voire atomique, et qui ne peuvent que susciter l’admiration et la curiosité. Plus que la taille, c’est l’ignorance actuelle des di érences entre propriétés de la matière dans les mondes nano et macro (notre monde représentable à l’échelle humaine) qui est en jeu dans l’évaluation de la pertinence éthique ou non de développer des nanotechnologies, ainsi que la capacité potentielle des nanostructures à s’auto-reproduire. Comment évaluer une description d’une techno-science que la plupart d’entre nous peinent à comprendre, tant elle est liée aux principes contre-intuitifs de la mécanique quantique, alors que paradoxalement ses e ets technologiques ont envahi notre quotidien ? Aurions-nous perdu par là-même la capacité de maîtriser la nature, d’être les auteurs de notre avenir ? Ou au contraire serions-nous enfin capables de devenir les auteurs de notre avenir grâce aux outils technologiques combinés ? Ce e indétermination du discours même montre en soi notre incapacité à réguler ce qui semble dérégler nos représentations. Ce e ignorance est-elle ce qui prévient de faire entrer, selon l’expression de Bruno Latour, « les sciences en démocratie » ? Les écrivains Irving John Good et Vernor Vinge, en 1965 déjà, ont utilisé le terme de ‘singularité’ pour décrire le progrès de l’évolution humaine (Vinge 1993), jusqu’au moment du futur où les avantages technologiques seront si rapides que l’esprit humain ne pourra plus les comprendre, étant limité par ses capacités corporelles spatio-temporelles, alors que les machines fonctionnent dans le virtuel et donc dans la multiplication des possibles. La question, face à ce e décorporation, est de savoir si le corps est une chance ou une contingence à dépasser. Descartes disait déjà : « Je ne suis pas cet assemblage de membres que l’on appelle le corps humain » (Descartes 1951 [1637]). Ce e sphère négative que l’idéalisme situe dans le corps, le temps, la mort, l’ignorance, fut déjà le fruit d’une catastrophe métaphysique qui fait que le « mal » est décrit dans une perspective dualiste et mécaniste, biologique, alors que les nanotechnologies nous prome ent un monde où le corps le serait si peu… et serait donc capable de traverser ces clivages et requérir une visée ontologique et épistémologique neuve de l’humain en devenir. 162 Il n’est dès lors pas anodin, selon moi, de considérer l’hypothèse de la singularité comme symptôme de ce e mutation, qui semble déplacer les frontières du réel d’une manière invasive, en ce que la frontière entre l’intérieur et l’extérieur, notre chair et la chair du monde, semble de plus en plus illusoire. La notion d’individu est menacée en termes d’intégrité et par là-même l’idée d’humanité, liée au concept d’individualité corporelle et juridique. Pour Ray Kurzweil, ce moment provoquera l’avenir d’un monde qui restera humain mais qui dépassera nos déterminismes biologiques (Kurzweil 2005). De même pour Eric Drexler qui a popularisé l’idée du transhumanisme à partir de ses livres sur les nanotechnologies moléculaires (Drexler 2005). L’idée qui traverse ce champ est que l’espèce humaine se trouve dans un évolutionnisme mélioriste radical qui perturbe l’idée de nature humaine et exige notre imagination éthique pour penser comment l’échelle de ce e évolution exige ou non de penser le posthumanisme, comme étape suivant le postmodernisme. J’argumenterais qu’il est de notre responsabilité de nous poser la question en termes de thought experiment, avant qu’elle ne devienne par notre passivité, un destin, une naturalisation des nanosciences. Notre perception de nous-mêmes résiste à l’évolution des technostructures et aux émergences qui nous définissent de manière de plus en plus prégnante. Si nous avons cru longtemps pouvoir en accompagner la trajectoire de manière réflexive par des régulations éthiques, une telle démarche semble de plus en plus fragile et vulnérable, voire ridicule. Elle annule la volonté d’agir sur ce e naturalisation des techniques, tant nos capacités à faire usage des techniques ont dépassé nos capacités cognitives à en saisir la complexité. Le développement des technologies est beaucoup plus rapide que le rythme de changement des paradigmes de la culture fondés sur nos représentations partagées. La notion d’intériorité de la conscience serait mise ainsi au défi par une conscience externe qui e acera les frontières entre le dedans et le dehors, entre le moi peau et la chair du monde, et signerait une autre blessure narcissique de l’humanité. Est-il possible, comme certains le suggèrent, de faire marche arrière ? La transformation des choses par leur médium technologique détermine d’une certaine façon la signification que nous donnons 163 aux événements. Le changement est que nous serons témoins plutôt qu’acteurs d’un moment évolutionniste, dans le processus en rhizome d’un système qui bifurque à l’infini, comme nous l’annonçait Deleuze. Telle est la doctrine du transhumanisme, défini par Julian Huxley en 1957 comme un phénomène par lequel « l’homme reste l’homme mais se transcende par la réalisation de possibilités nouvelles de la nature humaine » (Huxley 1957). Kurzweil, dans une lucidité précoce, voit dans le transhumanisme l’épanouissement du posthumanisme, de manière quasi-suicidaire, car en tentant de reconstituer le cerveau dans sa totalité afin de pouvoir en livrer le modèle aux machines, nous signons notre possible extinction. Que devient la volonté humaine dans un tel scénario ? Le futur serait-il simplement évolutionniste ? Vers quoi nous mène ce e idéologie naïve du progrès ? Que faire de nos acquis sur le relativisme culturel, qui nous rappelle que le progrès est arbitré par la culture ? Que faire de tous ces peuples et individus qui ne sont pas prêts pour la ‘singularité’, mais qui surtout n’en veulent pas ? Et si, précisément, la revalorisation de notre vulnérabilité corporelle nous perme ait d’a rmer un projet libre contre ce nouveau déterminisme technologique ? N’est-ce pas là le contrediscours des théories du ‘care’ ? Tout se passe comme si nous avions le choix entre préserver nos déterminismes et notre intelligence biologique ou la remplacer par une nouvelle intelligence, artificielle, faite de neurones synthétiques dont le potentiel serait mille fois supérieur aux performances de nos tissus biologiques. Le dilemme : les humains devraient choisir leur vulnérabilité biologique ou la dépasser par le rejet de leur chair et de leur mortalité pour a eindre la longévité et l’intelligence. Est-il crédible ou faisons-nous face à un remake de mythe grec ? Le rêve est en e et toujours le même, découvrir le secret de la matière, fabriquer des nanobots qui remplacent les globules rouges, en a endant de ne plus avoir besoin d’organes du tout pour exister. Pourquoi ces scénarios apparaissent pour la plupart d’entre nous comme des cauchemars ? Quelle intuition de notre disparition suggèrent-ils ? 164 Quelles limites signalent-ils entre transformation et disparition de l’universalité de l’humain telle que nous la connaissons, la désirons ou la postulons ? Mais cela ne fait-il pas de toutes nos expériences des expériences surdéterminées ? La crainte n’est-elle pas liée à un vieux cauchemar, de voir les machines que nous avons créées nous anéantir ? Sommesnous face à un excès d’imagination ou au contraire face à un manque total d’imagination, tant ces scénarios sont récurrents ? La crainte semble y être associée, moins à la perte de l’irréductible singularité humaine face à la singularité mathématique, qu’à l’e acement des visages, à la négation de la vulnérabilité comme condition paradoxale de l’autonomie. Humanisme anti-singulariste, ou l’a rmation de la volonté du sujet Dans les cas limites, la liberté humaine hésite entre le sublime et la mélancolie. Le sublime est l’expérience du caractère indépassable de la limite. La mélancolie est ce e volonté de franchir la limite et l’impossibilité de le faire si ce n’est à travers les techno-sciences. La pensée techno-scientifique donne-t-elle le courage de se démarquer de ce sentiment d’échec qui fait subir l’obstacle comme une dépendance/ liberté qui était consubstantielle à l’expérience humaine et dont on a fait sa dignité ? Tout agir créatif est dans la mélancolie. Ce e a itude coïncide avec la philosophie jusqu’à Heidegger, et résiste au nihilisme qui évoque l’artificialité d’un dépassement de la mélancolie. C’est ce qu’Habermas exprime en opposant une rationalité de la communication à une rationalité stratégique car, pour lui, la communauté de la communication constitue le point de résistance face à l’invasion progressive de la technique. Ce présupposé reste-t-il acceptable ? Ou le nihilisme incontournable exige-t-il une nouvelle forme du commun et, face à l’humain qui se voit exproprié de sa substance par les artefacts, renouvelle la notion de sujet ? Si le sujet n’est plus le même, il sera obligatoirement un autre, une chaîne d’altérations qui ne se fixe jamais dans une identité, coexistence ou superposition de l’être et du rien. C’est l’oubli du néant qui soumet la chose humaine à un point de vue scientiste ou nihiliste. C’est le manque du manque qui nous amène de l’humanisme au déracinement absolu, qui nous ouvre à 165 un sens encore impensé de l’humain que certains nomment le posthumain, qui est en manque de sens face à une démocratie qui se veut de plus en plus immunitaire, selon l’expression de Roberto Esposito, car elle a toujours autant horreur des masses (Esposito 2010). La seule façon d’éviter les catastrophes ou l’immunisation est une forme d’intériorisation progressive de l’extériorité du monde, logique que Luhmann a poussée à ses ultimes conséquences en adoptant le concept biologique d’autopoiesis, celle qui mène a une autorégulation interne indépendante par rapport au milieu et à ses contingences. Le système biologique se reproduit en reproduisant lui-même ses composants dans un rythme biologique qui l’immunise de la communication et de l’outil du langage qui exige l’ex-position à l’autre. Mais l’homme n’est pas qu’un système biologique, ou pas un système biologique comme les autres, par sa capacité réflexive qui peut dépasser la contingence du biologique ou en défaire la nécessité. En immunologie, le problème central n’est pas de distinguer ses propres composants biologiques de composants artificiels mais d’établir une autorégulation interne du système immunitaire. Le refus de l’altération est-il inséparable du refus de l’altérité ? Pourtant, repenser la communauté n’a jamais été aussi urgent pour dépasser la contingence de l’altération biologique. La nécessité, fatum tragique, serait devenue contingence, jeu, hasard. Tel est le renversement dont nous devons penser les conséquences. Tout se passe comme si l’enfermement dans les limites de la naissance et de la mort n’était plus le cadre obligé du possible. L’absence de limites créée par la singularité met alors en danger l’idée même d’autonomie. L’illusion pragmatiste du débat sur les nanos Le débat sur la nanoéthique ressemblait jusqu’il y a peu à un discours de science-fiction. Puis, pour des raisons que nous expliquons dans ce texte, il est devenu plus utilitariste et s’est construit autour des concepts de risques et de bénéfices afin d’évaluer les conflits d’intérêts émergeant entre le public, les chercheurs et l’industrie. Une approche métaphysique a émergé alors dans une Europe plus traditionaliste et culturaliste que les États-Unis, autour de Jean-Pierre Dupuy, soulevant des questions ontologiques concernant les techno166 sciences et les technologies convergentes, dont les nanosciences ne seraient qu’un paradigme particulièrement prégnant. « Avec la techno-science aujourd’hui nous savons beaucoup moins ce que nous faisons. Nous avons donc retrouvé l’antique avance de la technique sur le savoir » (Dupuy 2004, p.78). Ce e phrase ancre notre réflexion d’aujourd’hui car e ectivement la techné chez Platon est bien ce qui précède la science. Et pourquoi ne pas donner un rôle constitutif aux instruments, depuis le télescope de Galilée jusqu’au microscope à e et tunnel ? L’instrument ouvre au passage du rapport au vivant comme matière organisée non vivante, et toute l’ambiguïté se joue entre une représentation du corps vivant et une pensée de la technique qui ne l’est pas, mais qui fabrique la vie par mimétisme à travers la biologie synthétique. Il n’y a rien de ce e crainte diabolisant la manipulation de la vie dans la pensée américaine. La techno-science y dit plutôt quelque chose sur la nature de l’activité scientifique qui étonne toujours et vise à construire et non plus à représenter. Dans ce e optique, la frontière s’e ace quant à savoir s’il s’agit de produire la connaissance du réel ou le réel lui-même. Bachelard montrait déjà dans « Le nouvel esprit scientifique » (Bachelard 1968 [1934]) combien la physique quantique et les phénomènes ne sont rien en dehors de leurs pures constructions mathématiques. Ils ne sont que l’ombre d’un nombre. Cela ne veut certes pas dire que les phénomènes ne seraient qu’une production de l’esprit. Pour Gilbert Ho ois, il est inexact de parler de résorption de la science dans la technique ou l’inverse (Ho ois 2004). Elles sont bien plutôt révélées l’une par l’autre en étant rapportées à leurs communes racines enfin mises à jour : la technique n’est plus organisation des moyens en vue d’une fin, artifice e cace, mais opération e ciente. C’est à lui que l’on doit ce e thèse du rapport entre sciences et techniques. Tout se passe comme si nous étions témoins d’une bifurcation : le caractère opératoire et productif de la techno-science permet deux interprétations opposées, celle du calcul et du mécanisme qui mènera à dénoncer comme perte de sens, de celle du possible et/ 167 ou de la contingence qui révèle une certaine idée de la liberté humaine et suppose une certaine autonomie de la technique. Le réel précède-t-il le possible ? Maîtrise comme inscription de la spatialité et calcul en vue de l’action e cace. L’invention technique est de l’ordre de la joie, en ce qu’elle suppose un jaillissement de la créativité à partir d’un savoir tacite. Simondon reprendra ce e idée bergsonienne d’une ontologie du devenir inventif. S’y oppose la manière dont Jean-Pierre Dupuy reprend ses descriptions bergsoniennes de la temporalité, où le réel précède le possible. L’inouï de nouveauté, l’alliance entre informatique et biologie apparaît comme l’espace même de l’invention du possible, soit comme le lieu du tout manipulable. Pour Bruno Latour comme pour Donna Haraway, il y a là un geste qui tourne le dos à une épistémologie qui se limiterait à un exercice de rationalité opposant le vrai du faux, une rationalité sans compromission avec la contingence qui, s’éloignant du savoir tacite qui inaugure la découverte scientifique, nous condamnerait aux faits. De ce point de vue, le concept de techno-science devient positif en opposant à l’e cience opératoire des artefacts techniques à la logothéorie d’une science pure et désintéressée, qui néanmoins était la condition de l’unification du savoir. Quelle frontière donc établir entre sciences et techniques ? Une réponse est essentielle pour dépasser l’idée d’une nature objective séparée de l’ordre de l’humain ou d’une technique naturalisée. Car si l’homme n’est pas une machine, la machine s’humanise. Donna Haraway insistait sur le fait qu’aujourd’hui les sciences ont pour fonction d’hybrider et de rendre floue la notion même de corps humain par une sortie du dualisme entre sciences et techniques. Non seulement sciences et techniques fusionnent mais elle fournissent l’idéologie qui fait accepter son entreprise de domination. Habermas prolonge ce e thèse dans « la technique et la science comme idéologie » (Habermas 1973) souscrivant à la thèse d’un homo faber converti en nouveau fabriquant. Contrairement à Marcuse, la techno-science n’est pas le simple e et du capitalisme, elle a une consistance propre, celle du visage de la science qui inaugure Galilée, celle de la technicisation de la science. 168 Ainsi, en quoi les nanosciences, comme convergence des technosciences, exigeraient-elles une éthique particulière ? Peut-on dire que les techniques oblitèrent nos sciences, n’étant qu’une puissance d’e cience, réduisant la science à une force de production ? Tout se passe comme si la technique et l’économie réduisaient la science à l’ordre des savoir-faire e caces. Ce qui semble le plus inquiéter ces auteurs est que cet envahissement innovant et mélioratif s’associe à une indétermination, à un e acement des frontières épistémologiques, qui altère la spécificité des innovations. Où commence et où finit la techno-science ? Ce e extension du concept s’oppose à la tentative de cerner la réalité de la techno-science afin d’en décrire la singularité, et de séparer la confusion entre capitalisme et techno-science, ou ce que Michel Henri et Lyotard nomment ‘techno-capitalisme’. Si l’économique naît dans la vie, il tend à s’en séparer. Le capitalisme étant le stade ultime de ce e séparation d’avec la vie comme abstraction, elle signale le fait que la science devient pure e cience opératoire et coupe donc radicalement le lien à la vie comme auto-a ection, pour devenir une praxis immanente. C’est de la vie comme praxis néanmoins que la technique tient son nom. L’enjeu consiste à ne pas limiter la techno-science à une région du réel. Les phénomènes scientifiques et techniques révèlent que le rationnel est d’abord puissance, et que ce e puissance n’est pas en soi signifiante. Ce courant nous invite à une réflexion sur la spécificité des technologies à l’échelle humaine. La question majeure étant comment évaluer ces techno-sciences, dans un état d’incertitude et d’indétermination quant à ce qu’elles nous perme ront de réaliser. Il semblerait, en termes philosophiques et éthiques du moins, que l’approche conséquentialiste soit totalement inappropriée pour penser ce qui relève d’un discours sur un choix biopolitique. Si la raison est une idée supposée guider le comportement des agents dans l’espace public, les conflits d’intérêts autour des mêmes sciences et de leurs applications non régulées relèvent souvent de l’irrationnel. Le concept même de nanotechnologies étant confus, il semble donc important de clarifier son émergence du côté des discours, mélioriste et posthumaniste. Il serait irresponsable néanmoins de ne pas prendre au sérieux l’émergence de ces discours, qui accompagnent les thérapies mélioratives innovantes et les promesses d’améliorer la qualité de vie comme nouveau ‘religio’, sur lesquels les institutions créent du monde commun. 169 Dans la li érature spécialisée, en est-il de même des sciences face à toutes les technologies qui visent à dépasser les déterminismes biologiques humains : l’intelligence dans l’informatique, la mortalité par la biologie, etc. ? Le débat est trop souvent cantonné à l’évaluation des vies à des risques d’un point de vue des conséquences, alors que nous voudrions montrer que d’un point de vue épistémologique et déontologique les perspectives sont bien plus larges. C’est un schéma très commun dans le discours bioéthique, qui se limite souvent à une vue atomiste de la société alors que, paradoxalement, les nanotechnologies requièrent de repenser a minima la notion de bien commun avant de procéder à des arrangements, régulations et consensus en termes de décision. Nous traitons donc ici intentionnellement de deux concepts flous, les nanotechnologies et le posthumanisme, afin de penser l’intention entre les incertitudes et l’évolutionnisme d’un posthumanisme qui serait une réponse à l’idéal fixiste de ce que Fukuyama a appelé un facteur de X de l’humain. Contre le rêve H+ de l’homme amélioré, le discours posthumaniste, au contraire, est une idée relationnelle qui inclut dans son processus de repenser de manière fluide la relation de séparation conventionnelle entre humains, machines et animaux. Ce e approche empirique prend pour mesure des atomes qui nous constituent tous et qui met donc au défi l’anthropomorphisme dualiste qui fonde la supériorité des humains sur la conscience et le langage. Le posthumanisme s’inscrit épistémologiquement dans les catégories descriptives utilisées par la biologie et la postgénomique, qui visent à déconstruire les identités closes, perme ant d’autres associations, et forment une inventivité transgressive de la grammaire de l’humain. L’on pourrait rétorquer que ce e mécanisation du biologique pourrait être aussi une biologisation de la matière inerte, ce qui nous mènerait à une vision plus écologique de la nature. L’association des sciences constitue la possibilité d’émergence des nanotechnologies et fonctionne alors comme un paradigme de quelque chose qui permet le passage de l’idée à l’action dans un monde de plus en plus virtuel mais économiquement très dynamique. L’idée de posthumain exprime le désir paradoxal d’être délivré de l’humain, de ses contingences et déterminations biologiques, avec pour horizon le désir de réaliser le rêve immémorial d’immortalité. Il fonctionne précisément comme 170 l’e acement de la frontière entre matière et concepts, qui avait été exprimé déjà dans les mythes platoniciens de la caverne. Néanmoins, il faut ainsi insister sur la dimension contextuelle qui mène au succès de ce e idée parmi des philosophes scientifiques sérieux. Elle semble répondre aux besoins d’une utopie alternative après l’échec de l’humanisme du XXe siècle. Le problème de ces vues futuristes est qu’elle restent spéculatives et ne perme ent pas de se prononcer sur un quelconque devoir-être. Mais il nous faut séparer plusieurs niveaux d’utilisation de ces termes, puisque notre but est de donner une dimension réflexive aux conditions d’une évaluation normative en état d’incertitude dans un cadre techno-scientifique. Il faut se rappeler toutefois que l’intention éthique est de répondre au devoir-être, afin d’améliorer ce qui est, nécessairement comme entreprise idéaliste. Ce e approche anthropologique, malgré sa faiblesse opérationnelle, nous permet de questionner le procès du réalisme étroit d’une éthique conséquentialiste, qui polarise le jugement en faisant référence à l’analyse et ses conséquences en termes de toxicité, sans explorer les contextes culturels ou ses valeurs entrées en conflit. L’éthique, au-delà de l’évaluation procédurale des risques/bénéfices, doit certes donner sa place à la question du risque, mais peut-elle se limiter à celui-ci ? Comme le suggère Jean-Pierre Dupuy, la question du risque focalise le débat soulevé par les sciences mais le rend confus. Nous ne devrions pas confondre en e et le débat ontologique sur la prudence et les décisions procédurales relevant d’une éthique conséquentialiste. Les risques ne sont qu’un type d’e et parmi d’autres. Il y a certes des acteurs de ce e aventure que dérange tout discours jurisprudentiel et qui le transforment en un discours utopiste sur la fin de la rareté, de la vulnérabilité humaine, voire de l’éternité. Si cela était vrai, le futur n’aurait pas besoin de nous ou, pire, nous devrions fonctionner au service d’une élégie synthétique qui échapperait à nos moyens mais aussi à nos désirs. Ce n’est plus le discours de la science-fiction mais des technologies convergentes, visant à améliorer les performances humaines, alors que le discours européen a plutôt tendance à prome re la justice institutionnelle et se fonder sur la loi naturelle et les lois positives pour modifier le contrat social. La crainte demeure que les technologies fonctionnent comme un système qui soit totalement autonome d’une 171 culture de la signification, comme si les techno-sciences avaient leur propre autonomie, n’étaient que le miroir de l’auto-organisation de la nature. Les techno-sciences semblent abolir la distinction entre nature naturante et nature naturée, pour échapper au contrôle des humains, comme dans certains films de science-fiction, et de manière plus radicale dans le fait qu’il ne puisse y avoir d’extériorité ou de réflexivité possible par rapport à ces techniques. Cela suppose la vision pessimiste selon laquelle nous serions soumis au pouvoir des technologies plutôt que la vision optimiste nous rendant capables de multiplier les possibles. Pour Heisenberg, les techniques donnent le moyen de se projeter dans la nature et d’annihiler la relation de la nature à l’altérité, ce qui aurait d’énormes conséquences au niveau politique et épistémologique (Heisenberg 1958). Nous a rontons une asymétrie entre les représentations ontologiques et épistémologies que l’éthique est supposée articuler et traduire. Mais ces concepts ne peuvent adéquatement être décrits par un rapport scientifique qui réglerait l’usage des nanosciences. Les technophiles, tels Drexler, prome ent trop pour entrer dans le cadre d’un discours objectif et rationnel. Les risques ne sont réels que si l’on croit à ces promesses, et la dimension émotionnelle du désir d’échapper à nos déterminismes biologiques ne devrait pas être sousestimée. Il semblerait dès lors que les techno-sciences n’assument pas leurs responsabilités cognitives et sociales, et là le risque est réel, car émerge des mêmes intérêts précisément un discours de la fin de la maîtrise de la nature telle qu’on se la représente, et d’une capacité d’inventer de nouveaux possibles pour améliorer la nature telle qu’elle est donnée. D’un point de vue aristotélicien pourtant, c’est l’impossible qui invente les nouveaux possibles. L’évolution et l’auto-organisation requièrent une approche empirique fondée sur les seules conséquences. Le but ultime semble se limiter à rassurer le public sans pouvoir donner d’information objective. Néanmoins, ce e approche est très e cace en termes de développement économique, fondée sur l’a itude selon laquelle tout problème rencontré peut être résolu. Puisque les conséquences sont indéterminées, la seule chose dont nous puissions être certains est qu’elles compteront à la fois des bénéfices et des risques. Il nous faut dès lors distinguer, d’un point de vue pragmatique, les points de vue éthiques internes à une pratique. 172 Dans un monde pluraliste qui a besoin de régulation internationale, il n’est pas exclu que ces rêves humains de post-humain puissent être perçus par d’aucuns comme des menaces, pour des raisons qui ne se limitent pas à la simple ignorance, mais à la volonté de préserver un monde commun. La liberté de la recherche implique des risques qui ne peuvent être imposés, car le choix même du risque est un acte de liberté. Le posthumanisme est donc une position philosophique qui a sa propre cohérence et rationalité mais qui n’est qu’une position philosophique parmi d’autres, et qui doit elle aussi donner des raisons. Il est alors di cile d’élaborer une éthique de la discussion visant le consensus entre des positions philosophiques aussi irréconciliables, à moins d’opérer de manière pragmatique sur un mode procédural. La question reste de savoir comment ce e approche procédurale, basée essentiellement sur une évaluation risque-bénéfice est la plus appropriée pour a ronter la dimension ontologique quand aucune norme n’est partagée. La finitude est précisément ce que les technologies convergentes prétendent renverser. Cela dépasse les questions d’éthique procédurale et induit donc nécessairement des questions ontologiques et épistémologiques, auxquelles nous ne pouvons répondre rationnellement en termes de posthumanisme. La question biopolitique essentielle devient : comment protéger le pluralisme et la coexistence de modèles basés sur des événements chronologiques et un modèle qui a tendance précisément à déchronologiser les récits narratifs, et rendent nos principes éthiques totalement decontextualisés ? L’idée est que nous sommes libres de choisir et que nous confondons le choix libre et la destinée d’une prophétie auto-réalisatrice. Ainsi ce qu’on nomme bio-politique s’établit dans une forme de raison contre-factuelle. Lorsque nous tentons d’évaluer un événement futur en termes de conséquences nous obéissons à des normes que nous nous sommes données. Mais certains philosophes avancent que ce qui devrait être mesuré sur les e ets de ces technologies ne peut être qualifié de risque car ces mesures ne peuvent être qualifiées par aucun des points mentionnés ci-dessus. 173 La question de la prévention et la temporalité de la perception des risques Comment peut-on évaluer en termes de risques le changement de civilisation qui serait produit par la convergence de la biologie et des technologies de l’information ? Ne s’agit-il pas là d’un pari de Pascal, ce qui veut dire que c’est un risque ontologique libre de choisir l’un ou l’autre scénario, et que cela devient une question bio-politique de prendre ou de ne pas prendre ce risque de la liberté ? Qui décide devient la question la plus importante afin de pouvoir respecter l’autonomie des uns et de ceux qui assumeront les conséquences de la décision. Pour véritablement parler d’évaluation des risques nous devons avoir des éléments comparatifs dans une échelle temporelle, mais nous n’avons pas de données du futur. Nous devons alors être très a entifs à ne pas confondre incertitude et indétermination, afin de pouvoir développer une bonne prévention des risques, puisque la prévention requiert précisément d’agir afin d’éviter des possibles non désirés. Ainsi, l’avenir des nanotechnologies dépendra des réponses des citoyens aux anticipations de ce e vie future améliorée qu’elles proposent, ce qui requiert une évaluation normative continue de leur application. La prévention n’a pas beaucoup de sens dans une temporalité projetée, car elle repose essentiellement sur l’expérience passée et non pas sur une spéculation. Ainsi il semblerait que nous faisons face à un paradoxe qui condamne l’éthique à n’être qu’une promesse contre-factuelle, ou pire un discours contradictoire car, si l’on arrive à éviter les e ets d’un futur indésirable, le mythe de la neutralité de la science, tout autant que l’idée d’une rationalité universelle, se désavoue là encore. En d’autres termes, que peut la nanoéthique si ce n’est élaborer un processus de délibération qui donne suite à une approche empirique ? Ce qui rend le débat sur ces technologies si complexe est que le discours éthique semble imposer une vue universaliste de nulle part tout en utilisant les outils du pragmatisme. C’est trop souvent ce que fait le discours de gouvernance biopolitique de ces technologies, en choisissant d’éclipser le débat ontologique et en se concentrant pragmatiquement sur les procédures qui ne requièrent que l’élaboration d’un consensus. Ainsi, pour des raisons purement pragmatiques, le débat ontologique se développerait sans la crainte d’un posthumanisme 174 totalement mis de côté. Et on oublie que personne ne peut maîtriser toutes les questions scientifiques et les réalités multiples entourant le débat sur les nanosciences. Comment dès lors élaborer un discours cohérent et significatif ? Quelles sont les conditions d’une position réflexive sur l’application de la technologie à notre vie quotidienne ? Le terme lui-même de nanotechnologies est un concept étrange, un construit social. Comment pouvons-nous développer une stratégie de responsabilisation en situation d’incertitude ? Ce que la philosophie délibérative et la démocratie ont à o rir en éthique n’est pas un standard universel pouvant décrire le bien mais une simple procédure rationnelle d’argumentation visant un consensus menant à une décision. Le danger épistémologique de séparer les sciences des technosciences nous force à repenser nos représentations de la nature, de l’auto-organisation, du hasard et de la liberté, dans un monde contrôlé néanmoins par des rythmes biologiques que nous pourrions irrationnellement altérer en prétendant améliorer la nature. Pouvonsnous élaborer une éthique spécifique aux nanos sans risquer de confondre toutes les applications des nanotechnologies ? Ce e question dépasse très largement la question de savoir comment réguler l’usage des techno-sciences. Traduction entre technologies convergentes ? Confrontons-nous de nouvelles questions que la philosophie des technologies n’aurait pas soulevées ? Quand nous parlons de technologies convergentes, la di culté est de trouver un traducteur social entre ces disciplines, qui perme rait de partager une vue semblable de la responsabilité scientifique, au-delà de la seule évaluation des risques-bénéfices, qui est une perspective plus réductionniste et normative. Certains posthumanistes, comme James Hugues, assurent que dans les années à venir les thérapies mélioratives perme ront un nouveau modèle de qualité de vie et sur un ton très optimiste assurent que cela impliquera nécessairement des bénéfices sociaux profonds qui perme ront de ralentir le vieillissement et d’améliorer nos capacités cognitives. Mais la vraie question n’est-elle pas de savoir qui veut tout cela ? Les citoyens pourraient-ils refuser un tel présent si ce scénario ne rencontrait pas leur projet ? Est-ce que ces thérapies 175 et technologies mélioratives pourraient plutôt être évaluées en termes de capacité à fonctionner librement ou à nous aliéner plus encore ? Épistémologiquement, pourrions-nous dire tout simplement que tout ce débat est encore englué dans une métaphysique dualiste, qui perd précisément son sens dans le cadre des nanosciences, et qu’il est donc plus trompeur qu’il ne nous éclaire en termes de décisions pratiques ? Les nanosciences ne posent pas seulement des questions d’échelle et de toxicité accrue due à ce e échelle, mais soulèvent bien une question d’indétermination du jugement, qui met à mal nos modèles de décisions bioéthiques fondés sur la neutralité des valeurs. En e et, comment les nanoéthiques pourraient-elles prétendre à une stratégie de gestion de l’incertitude en termes responsables, sans un discours sur la prévention des risques ? Nous ne sommes pas dans un discours rationnel synchronique mais dans le cadre d’une rationalité instrumentalisée à des fins pratiques. En termes d’éthique, la philosophie délibérative ne peut o rir dans ce cadre un standard universel, mais bien une procédure rationnelle simple et non axiologique d’évaluation des risques. Elle peut ainsi prétendre arriver à une décision consensuelle sur des procédures, mais certainement pas sur le bien fondé ni la légitimation de ces technologies, car elle n’en maîtrise pas les conséquences et ne peut que proposer une multiplicité de scénarios en essayant d’orienter la recherche vers les scénarios les moins ‘risqués’, non seulement au niveau toxicologique mais aussi en termes de représentation de nous-mêmes. Il faut alors être capable de séparer l’impact futur de ces technologies sur notre santé et sur nos représentations existentielles, sans nécessairement placer la sécurité sanitaire comme finalité première, afin d’utiliser les outils d’évaluation les plus appropriés à des désirs, tant que ceux-ci peuvent demeurer pluriels, ce qui ne serait pas le cas si un danger à court et ou à long terme était évident ou inéluctable. Il faudrait pour cela pouvoir séparer des strates de vulnérabilités et de capacités que dessinent ces techno-sciences. Mais si nous considérons que la question éthique est di érente de la question de la gouvernance, nous ne pouvons nous en satisfaire. Sommes-nous capables de faire une telle évaluation à partir des outils dont nous disposons ? Ou, plus précisément, ne ferions-nous pas face à une évaluation mais à un choix existentiel qui n’aurait pas à donner ses raisons ? 176 Le discours bioéthique est historiquement un discours utilitariste qui a tendance à chercher un consensus menant à une décision, plutôt qu’à s’a acher à di érencier les niveaux de discours pour les articuler de manière cohérente à nos désirs. Ces évaluations sont liées au ‘risk assessment’ et j’espère avoir montré que ce dernier était inapproprié à l’évaluation des nanotechnologies, par leur complexité même qui exige un modèle d’évaluation encore à inventer. Contrairement à ce qu’avancent Beauchamp et Childress, la bienveillance nous impose d’avancer dans les recherches cliniques afin de promouvoir le bien sans véritables connaissances ni capacité de contextualisation de ces techniques. Les nanotechnologies sont à la fois une réalité et une construction sociale, et le discours de surhumanité une contre-narration qui n’a pas plus de validité en termes de vérité ou d’universalité mais exprime la volonté dépassée d’être les acteurs de nos vies. Ainsi, une autre rationalité instrumentale, basée sur nos capabilités, doit être définie pour perme re à une multiplicité de scénarios du futur d’être explorés, avant qu’un choix de gouvernance ne soit établi par des experts. La rationalité instrumentale ne peut plus être décrite comme répondant à une nécessaire vérité ou à un besoin universel de cohérence entre le réel et la représentation que nous nous en faisons. Ce stade de notre rapport à la nature comme irreprésentable requiert une contextualisation de l’imagination morale, une valorisation du care raisonnable. Il n’est pas inutile de rappeler dans ces débats que la plupart des questions soulevées par les nanomédecines négligent l’universalité du désir de savoir qui, depuis Aristote, rend possible la continuité entre les genres de connaissances. Face aux technosciences, tout se passe comme si la connaissance produisait un jeu de falsification continu et voilait le conflit des pulsions, des désirs dont elle résulte, et fait de la connaissance un lieu fondamentalement intéressé qui ne trouve plus sa fin en elle-même et n’est jamais que le moyen de satisfaire les instincts des plus forts. La connaissance n’est donc pas le produit de la paix rationnelle. Pour Spinoza, c’est dans l’urgence éthique que nous nous engageons dans la connaissance. La connaissance rationnelle donne une satisfaction du troisième genre, qui ne peut être soumission volontaire ou amour de ce qui nous asservit. Pour Spinoza, la connaissance serait joie et entreprise de destruction des a ects nuisibles de tristesse qui 177 nous asservissent. La cinquième partie de l’éthique consiste en un e ort patient de neutralisation des a ects passionnels. L’immanence de la constitution du réel dans ses multiples modifications humaines demeure la potentia, la puissance des individus, qui n’est pas la même pour tous. L’individu est un relais de ce pouvoir. L’éthique tente de jouer ce rôle artificiel de légitimation d’une inférence entre ce qui est et ce qui devrait être, qui perd sa pertinence lorsque l’inférence et la déduction semblent disparaître dans la convergence. Les enchaînements d’idées, même imaginatifs, des technophiles sont des a rmations de la pensée humaine à échapper à ses déterminismes. Le discours bioéthique a tendance à repérer la fable de l’universalité de l’âme humaine pour désamorcer tout conflit qui pourrait me re en cause l’alliance de la connaissance et des puissances politiques et économiques. Les nanotechnologies forment un enjeu politique et économique bien avant d’être un danger pour l’humanisme. Si le posthumanisme peut être responsable, il n’est qu’une évolution méliorative de l’humanisme, dont l’histoire ne pourrait se plaindre, car nous sommes des êtres d’histoires autant que des êtres de nature. Construire une éthique fondée sur des faits objectivables et démocratisables reste un défi. L’institutionnalisation des nanoéthiques me semble, pour ce e raison, être un discours qui précède les discours de perplexité et de consultation nécessaires au débat démocratique. Elle joue, comme tout le discours bioéthique, un rôle de jardin d’acclimatation et non de démocratisation des savoirs. Elle ne peut produire que des luddites ou des techno-prophètes, alors que nous avons besoin de scientifiques qui résistent à la confusion entre sciences et techno-sciences, nous faisant découvrir que ce que nous percevions comme notre vulnérabilité humaine était préférable à un état mécanique de posthumain. Il n’y a pas d’origine dans le jeu de lego des nanos, pas de continuité, mais une superposition de lexiques disciplinaires qui se contaminent ou se fécondent. Il ne reste que la nature humaine réduite à sa dimension biologique et matérielle. Comme l’écrivait déjà Levinas sur un ton critique : 178 « Le biologique, avec tout ce qu’il comporte de fatalité, devient plus qu’un objet de la vie spirituelle, il en devient le cœur. Les mystérieuses voix du sang, les appels de l’hérédité… toute structure sociale qui annonce un a ranchissement à l’égard du corps. » (Levinas 1997, p.17) Dans ce texte datant de 1934, Levinas annonce que « enchaîné à son corps, l’homme se voit refuser le pouvoir d’échapper à soi-même ». Ce e impossibilité est au cœur des pensées totalitaires. On ne peut plus prétendre aujourd’hui séparer ce qui relève du biologique et ce qui relève du politique. La biopolitisation de l’individu, en quoi se résume le posthumanisme, ne peut, adoptant les mêmes prémisses, être plus rassurante que la biopolitisation de l’Etat, qui a détruit les valeurs de l’humanisme. Elle semble re-naturaliser le fatalisme dont la mécanique cartésienne nous avait a ranchi. Les nanotechnologies, si elles soulèvent ce e question dans leur impact social, ne nous donnent pas les moyens d’y répondre. La réponse doit être d’ordre éthico-politique et non seulement scientifique. Là encore, le temps de la réflexion doit se contenter d’accompagner de manière critique leur implémentation. La recherche de légitimité des technologies convergentes, leur messianisme puis l’introduction des concepts de sustainability invitent à la prudence face au développement des nanotechnologies et à leur contextualisation (voir notamment Ferrari 2010). Il est clair qu’afin de prévenir une naturalisation des techniques qui modifie sans notre consentement le sens du projet humain, qui est historique, il reste à transformer l’implémentation des nanotechnologies, ou leur rejet, en un projet négocié sur des faits et les désirs de ces faits, et non une autre fausse promesse qui nourrisse notre impatience à nous arracher à la condition humaine. C’est en médecine que la question sera la plus aiguë, car il faudra subtilement distinguer entre innovation thérapeutique et expérimentation humaine ou sociétale, tout en étant confrontés à nos limites épistémologiques et à leurs e ets socio-éthiques. 179 Références Bachelard G., Le nouvel esprit scientifique, Paris, Les Presses universitaires de France, 1968 [1934]. Bendernson B., Transhumain, Paris, Payot, 2010. Descartes R., Discours de la méthode, Paris, Ed. 10/18, 1951 [1637]. Drexler E., Engins de création, Paris, Vuibert, 2005. Dupuy J.-P., Pour un catastrophisme éclairé, quand l’impossible est certain, Paris, Seuil, 2004. Esposito R., Communauté, immunité, biopolitique : Repenser les termes de la politique, traduction de Bernard Chamayou, Paris, Les Prairies Ordinaires, 2010. Ferrari A., « Developments in the debate of nanotethics : traditional aproaches and the need of a new kind of analysis », Nanoethics 4, 2010, pp. 27-52. Habermas J., La technique et la science comme idéologie, Paris, Gallimard, 1973 [1968]. Heisenberg W., « The Representation of Nature in Contemporary Physics », Daedalus 87(3), 1958. Ho ois G., Philosophie des sciences, philosophie des techniques, Paris, Odile Jacob, 2004. Huxley J., « Transhumanism », in New Bo les for New Wine, London, Cha o & Windus, 1957, pp. 13-17. Kurzweil R., The Singularity Is Near: When Humans Transcend Biology, NY, The Viking Press (Penguin), 2005. Levinas E., Quelques réflexions sur la philosophie de l’hitlérisme, Paris, Ed. Rivages poche, 1997. Vinge V., « Technological Singularity », VISION-21 Symposium sponsored by NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31, 1993 (h p://www-rohan.sdsu.edu/faculty/ vinge/misc/singularity.html). 180 Deuxième partie Les risques associés aux nanotechnologies Perception, epistemics, and ethics: a triple perspective on the specificity of nanotechnologies and their risks Céline Kermisch79 Introduction If we take a look at the huge investments made for the development of nanotechnologies, we can easily understand why so many people argue that nanotechnologies are the technologies of the future. Indeed, from the beginning of the National Nanotechnology Initiative, the United States has invested $14 billion (NSTC 2010). These investments are justified by the hope these technologies generate in various fields: sustainable energy technologies, healthcare, treatment of used waters, but also communication technologies, consumer products (textiles, cosmetics, sports gear…), aerospace or military applications. It is notable that only a small portion of those investments is dedicated to environmental risks, health risks and safety issues – approximately $117 million for the 2011 budget, compared with a total of $1,8 billion (NSTC 2010, p. 10). In the same vein, the societal impacts of nanotechnologies seem to be rather neglected. This is surprising considering the fact that these technologies come along with new societal concerns, new risks and new uncertainties, which are specific to nanotechnologies. In this context, it seems thus crucial to analyse and review these specificities. It is precisely the aim of this paper, which will highlight these particularities from three perspectives: from the perception standpoint, from an epistemic standpoint, and from an ethical standpoint. The paper is structured as follows. First I will briefly define “nanotechnologies” and summarize a typology that will be referred to (section 1). Then I will examine the characteristics of a itudes towards nanotechnologies and the specificities of the perception of 79 Fonds de la Recherche Scientifique/Universté Libre de Bruxelles 183 their risks (section 2). In a third part, I will analyse the particularities of nanotechnologies and their risks from an epistemic standpoint (section 3) and in the fourth part, from an ethical standpoint (section 4). Finally, I will proceed to a brief conclusion. What are we talking about when we talk about “nanotechnologies”? The Royal Society defines nanotechnologies as “the design, characterisation, production and application of structures, devices and systems by controlling shape and size at nanometre scale” (Royal Society 2004, p. 5). This definition is relatively clear and explicit and is one of the most cited. However, its breadth appears to be problematic. Indeed, it includes an extremely wide range of potential applications – food, chemicals, personal care products, medical devices, water quality, and so on (IRGC 2007, p. 8). It encompasses relatively simple nanomaterials such as stain-resistant co on fabrics or tennis balls, but also very complex – and hypothetic – technologies that are supposed to redefine the future of mankind, such as brain implants that would enhance human capacities. It appears thus irrelevant to consider “nanotechnologies” as a single technology and to consider all the di erent types of applications at once. In this perspective, let us introduce the classical typology developed by Roco (Figure 1), which is based on the idea of “generation of nanotechnologies” – which are progressively introduced over time (Roco 2004). 184 Figure 1 : Generations of nanotechnologies – inspired from (Roco 2004) This typology includes four overlapping generations (Roco 2004). • First-generation nanotechnologies correspond to passive nanostructures – passive because the behaviour of the material is supposed to be steady over time. Most frequently, it consists in adding a nanomaterial to another material in order to improve its performances. It is the case of materials with specific properties such as cosmetics or coatings – for example antibacterial materials based on nanosilver. Most of the current applications of nanotechnologies belong to this first generation. • Second-generation nanotechnologies are active nanostructures, which change their behaviour according to their environment. These active structures are thus able to perform functions, such as targeting drugs to specific parts of the body. Targeted cancer therapies illustrate concretely this second generation of nanotechnologies. • Third-generation nanotechnologies correspond to integrated 185 nanosystems, “systems of nanosystems”, such as artificial organs built from the nanoscale. According to Roco, these are supposed to arise from now on. Fourth-generation nanotechnologies are anticipated to be heterogeneous molecular nanosystems, “where each molecule in the nanosystem has a specific structure and plays a di erent role” (Roco 2004). It will include macromolecules “by design”, nanoscale machines and interfaces between humans and machines at the tissue and nervous system levels (Davies 2009, p. 11). They are supposed to emerge from 2015/2020. It is worth noting that this typology considers at the same time nanotechnologies that currently exist and others that are presently pure fiction. Moreover, the distinction between the last three generations is rather unclear. As Davies notes, “even knowledgeable experts have expressed di culty distinguishing among Roco’s last three generations” (Davies 2009, p. 11). This paper will mainly focus on the generation that is already widely developed, and only examine briefly the later generations. Let us first address the question of the specificities of a itudes towards nanotechnologies and of the perception of their risks. A itudes towards nanotechnologies and the perception of their risks One striking specificity of the perception of risks associated with nanotechnologies80 comes from the di erences among laypeople’s and experts’ perception of risks. Indeed, unlike “classical” technologies such as nuclear power, where scientists perceive lower risks than the general public, in the case of nanotechnologies, this pa ern is reversed, at least in the field of health and environment: scientists appear to be more optimistic about the benefits of nanotechnologies, but also more concerned about pollution and health problems (Scheufele 2007, p. 732-733). This might possibly be explained by the fact that, despite The studies about a itudes towards nanotechnologies and about the perception of their risks do not make a distinction between the generations of nanotechnologies. 80 186 national & NGOs e orts, the general public is still rather uninformed about nanotechnologies. The absence of opinion about nanotechnologies and their risks is indeed a second striking particularity. It is highlighted in the 2006 Eurobarometer dedicated to the perception of biotechnologies, which includes a section about nanotechnologies. This study compares the a itude of Europeans towards di erent types of technologies. In this perspective, Table 1 shows the answers to the question “will these technologies improve or deteriorate the quality of life?” (EC 2006). Table 1 (EC 2006, p. 10) We can see that the proportion of individuals answering that they don’t know if the impact of nanotechnologies will be positive or not is significant. Indeed, 42% of individuals are incapable of giving an opinion about it, whereas this percentage is much lower for other technologies: the next highest level is 22% in the case of biotechnologies. Moreover, we can also note that the a itude of Europeans towards new technologies is optimistic in general, even in the case of nanotechnologies (40% of positive a itudes against 5% of negative a itudes). Besides, Americans appear to be even more optimistic than Europeans towards nanotechnologies, thereby confirming their pro-technology bias (Gaskell 2005). 187 The same kind of pa ern can be observed in 2010, with 40% of people without opinion (Table 2). However, we have to note that the proportion of individuals considering that nanotechnologies will deteriorate the quality of life has doubled compared with 2006 (10% against 5%). This could possibly be explained by the greater media coverage of nanotechnologies. Table 2, (EC 2010, p. 10) The lack of opinion constitutes thus the main specificity of the a itude of Europeans towards nanotechnologies. This finding is corroborated by other studies (Siegrist 2010, p. 838) and might be explained either by a lack of knowledge about nanotechnologies, or by the fact that people cannot formulate a judgement despite their knowledge – this might be linked to the complexity and to the uncertainties surrounding nanotechnologies today. Nevertheless, we will favour the first option, considering the fact that the survey reveals further that only 46% of Europeans have heard about nanotechnologies (EC 2010, p. 38). Let us now focus on questions more specifically revealing how Europeans perceive nanotechnologies risks, and let us focus on their reactions facing the distribution of risks and benefits, the risks for future generations, as well as the sanitary and environmental risks (Table 3). 188 Table 3, (EC 2010, p. 42) Here again, the first particularity to notice is the large number of individuals opting for the “don’t know” answer (between 33 and 44% according to the questions, whereas in the case of GMOs, only 16 to 24% of the individuals are opting for this answer). This table shows also that an important proportion of Europeans consider that the inequity of risk and benefit distribution is patent (50% against 17% who think otherwise). On the contrary, when it comes to risks for future generations, sanitary risks and environmental risks, we have to note how small the gap is between the percentage of people who consider these technologies as risky and those who consider these as safe: it is respectively 2, 6 and 10% (against 37, 37 and 30% in the case of GMOs). This observation means that the opinion of Europeans is extremely divided when judging risks associated with nanotechnologies. These surveys are giving general information about the way European citizens perceive nanotechnologies. They do not take into account the potential disparities among perceptions of di erent types of applications, even though several studies have shown that food and medical applications were the ones perceived as being the riskier (Siegrist 2007, Pidgeon 2009). However, to our knowledge, none is based on the perception of the di erent generations of nanotechnologies, which would be an interesting lead of investigation. 189 Epistemic specificities Let us now examine the epistemic specificities of nanotechnologies and their risks and let us begin with the first generation of nanotechnologies. We know that these materials are characterized by chemical, physical, electromagnetic and biological properties that di er from the bulk structure composed of the same chemical elements – and it is precisely the uniqueness of these properties that makes nanotechnologies so a ractive. Hence, we might suppose that their toxicity is also very di erent from bulk particles. It is particularly the case when the toxicity itself is the property that is useful, such as in the case of nanosilver, which is bactericide. It is thus clear that we need to investigate the risks of these materials further. However, the crucial question of the definition of nanotechnologies arises immediately. How can we define these as substances, which are di erent from their non-nano-equivalent (Laurent 2010)? Intuitively, the size comes to mind first when we have to distinguish nano from non-nano. Usually, we speak of nanotechnologies when at least one dimension of the product is smaller than 100nm. However, one first problem comes up because it is not obvious that 100nm is the typical size when the material’s properties start changing: for some properties, there is a gradual transformation and for others, there are thresholds below which the properties change suddenly (Bell 2007 p. 3). Hence it is not sure that 100nm has a significant biological relevance (Shatkin 2008, p. 91). Besides, relying on this yardstick does not allow to take into account neither particles with specific properties – di erent from the bulk material – but with a size slightly above 100nm, nor aggregates of nanoparticles, which would also exceed 100nm. Another problem comes from the fact that relying solely on the particles size is insu cient: other specific physical features – such as shape – also influence drastically their properties. In the same vein, their environment and the fact that they may be associated to other components play also an important role in defining their characteristics. These are the reasons why it is so di cult to define nanotechnologies. The next problem consists in trying to give an existence at the statutory and at the legal levels to an object that cannot be properly defined. In order to develop a regulation specific to nanotechnologies, we would need to be able to define their identity (Laurent 2010). 190 At the risk level, with engineered passive nanoparticles, we are mainly facing environmental, health and safety issues. The focus is on expected physical damage. If these risks seem to be pre y close to classical chemical risks in their nature – as these technologies are supposed to behave steadily over time –, their understanding is currently very limited. At the safety level, we know, for example, that the higher surface reactivity and surface-area-to-volume ratio of nanoparticles increase the risk of dust explosions and the ease of ignition (Roco 2008). However, the processes involved are not well-known yet. At the environmental level, there is also a great deal of uncertainty. The impact of nanoparticles may be significant because of the potential for (Roco 2008): • bioaccumulation : due to their high mobility, nanoparticles can easily move in the air, water and soil, contaminate the fauna and flora and thus be transferred to the food chain; • persistence : creating non-biodegradable pollutants, which will be hard to detect, might lead to an important waste problem – even though nanotechnologies are o en presented as being intrinsically ecological. One way to address this problem is to adopt a life cycle approach to risk analysis and not only focus on the product when it is in use (Shatkin 2008, p. 93). Concerning health risks, it seems, at first sight, that classical risk assessment procedures can be conducted. It is the viewpoint of the International Risk Governance Council, amongst others (IRGC 2007). However, the situation is not so simple, as even the classical risk assessment framework raises many epistemic issues. Let us examine which are the main problems that arise. One first practical problem comes from the fact that current measurement techniques are not sensitive enough to measure the concentration of nanoscale substances (Shatkin 2008, p. 40-41). Measurements are thus not widely available and advancements in nanometrology are clearly needed. There is also a great deal of uncertainty about how nanomaterials can penetrate the body (through inhalation, ingestion, contact) and about their accumulation. 191 Another challenging problem specific to nanotechnologies comes from the fact that it is not obvious how exposure relates to toxicity: it is unclear how the chemical composition, the size, the shape, the surface area, the surface chemistry, the crystal structure and many other characteristics a ect the toxicity of nanomaterials (Oberdörser 2005; Shatkin 2008, p. 42). Whereas, traditionally, the chemical composition is su cient to determine the toxicity of a substance, in the case of nanotechnologies, the problem is much more complex from an epistemic standpoint. In fact, there seems to be a shi of paradigm in the field of toxicology as long as, with nanotechnologies, it is impossible to determine once for all “the right criteria” to take into account in order to assess nanotechnologies risks (Laurent 2010, p. 79). This undermines a recommendation that is o en made, which consists in requiring a standardized procedure. Here, it seems that a case-by-case approach would be needed, but this would be practically very di cult to conduct. Let us now briefly consider active nanotechnologies, which change their behaviour according to their environment. Basically, this second generation of nanotechnologies raises the same epistemic di culties as the ones that are highlighted for the first generation. However, beyond these problems and uncertainties, the second generation also raises a question of paramount importance, that is the control and the reversibility of these technologies, which are supposed to be able to evolve within their environment. It is more di cult to expand on the third and the fourth generations of nanotechnologies, as they are currently theoretical. All the issues mentioned above might be relevant, but the issue of control might probably be exacerbated. Without any doubt, the complexity of these systems and the uncertainties surrounding them will increase the number of issues. However, the aim of this paper is not to speculate about these. We will rather focus now on the specificity of nanotechnologies and their risks from an ethical perspective. Ethical specificities Let us first consider ethical issues associated with the first generation of nanotechnologies. 192 One important problem arises from the fact that the rhythm of introduction of new nanoproducts is so fast that it makes it impossible for control organisations to conduct analysis on each of these. In the same perspective, it is also di cult to frame those symbolically. Moreover, this rhythm makes the case-by-case approach very di cult to apply. This issue is not specific to nanotechnologies, but it is exacerbated in this precise situation. Moreover, several di culties are associated with the problem of defining nanotechnologies that was previously mentioned. The labelling issue is arising in a specific way in the case of nanotechnologies. Indeed we may wonder how to label these, as we have seen that taking into account only the chemical substance is insu cient: the size of the particles plays also a role in defining toxic properties, as well as other characteristics such as shape. Hence, we can easily understand why it is di cult to require labelling in these circumstances (Laurent 2010, p. 102). In the same vein, we may wonder how to demand the application of the precautionary principle, when we are unable to define the products at stake. This is particularly embarrassing considering the fact that the considerable uncertainties surrounding nanotechnologies would precisely require the application of the precautionary principle. Another di culty arises at the risk evaluation stage. Indeed, when it comes to the determination of the social acceptability of a risky technology, a risk/cost/benefit analysis is o en conducted. However, in the case of nanotechnologies, this classical utilitarian approach appears to be very problematic insofar as the risks are largely unknown, but the benefits are also di cult to assess. It is also worth mentioning that, in the case of nanotechnologies, the public debates are framed di erently compared with other technologies. Indeed, up to now, public debates have been conducted a er the introduction of new technologies and they have been the result of public demand. They have been framed in terms of risks and they have thus been mainly focusing on the downstream consequences of technological development. The underlying assumption is that public concerns are focused on potential risks and consequences rather than on human needs, aspirations and expectations (Mohr 2007). Of course, 193 risk analysis is an important aspect of the normative evaluation of a technology, but it is clear that it is not su cient (Dupuy 2004). In the case of nanotechnologies, there is, for the first time, a demand coming from governmental agencies, which are anticipating the public demand for debates. However, such e orts are o en made in order to pre-empt oppositions such as in the case of nuclear power or GM foods and to secure public support for these developments. The proposals of Roco and Renn can be interpreted in such a way, when they say “if (…) risk perception is not based on the best available knowledge, innovative opportunities may be lost” (Roco 2008). Besides these governmental e orts, several NGOs are also trying to involve the public in forums about nanotechnologies but with a more critical approach, which is maybe also less liberal and less devoted to economic growth at any price. The second generation of nanotechnologies raises the same ethical issues as the first generation. However, if we focus on advancements in nanomedicine, several particular issues concerning fundamental values are at stake. Indeed the problem of access to treatments will inevitably lead to equity issues and also the notion of informed consent could be called into question. The third and the fourth generations of nanotechnologies are also associated with specific issues. Indeed, the right to privacy and the protection of personal data could be threatened with the emergence of nanochips. The same problems as with other control technologies such as RFIDs arise, but they are exacerbated in the case of nanotechnologies insofar as the smallness of the chips could lead to watch individuals without informing them about it. Issues associated with human enhancement are also susceptible to arise with the developments of the third and fourth generations. Technologies that could be used to modify the physical, cognitive or emotional capacities of human beings involve threats to fundamental representations – symbolic risks (Bourg 2007) –, which are inherent to ideologies such as transhumanism. Moreover, human enhancement will lead to equity problems as well (see the paper of Dominique Bourg in this volume). Finally, metaphysical e ects are also susceptible to arise, as the distinction between categories – such as nature and artefact or living and non-living – could be blurred. 194 Conclusion We have seen that specificities of nanotechnologies and their risks can be found at the perception level, at the epistemic and at the ethical levels. Two specificities appear to be crucial. One first particularity consists in the di culty to define nanotechnologies, which has important consequences at the level of risk management, such as the di culties to label nanotechnologies or to require the application of the precautionary principle. A second striking issue comes from the considerable uncertainties associated with nanotechnologies. This is the case, of course, for the third and the fourth generations, which are still rather fictional, but it is also already the case for the first and the second generations, for which there is a very limited understanding of the processes potentially leading to damage – the relationship between exposure and toxicity for example. Together, these two issues imply that the classical procedures of risk assessment and risk management are not easily applicable. In view of these problems, some have been promoting the safety by design approach (Kelty 2009). This is certainly a valuable concept, which merits further development and a ention. In the same vein, we could struggle for an “ethical by design” approach, which would embed ethical values from the conception of the product. However, by themselves, these proposals will not be su cient, simply because in our competitive world, promoters are cu ing corners to win the innovation race. Therefore, it is more than ever urgent to gain a be er understanding of nanotechnologies and their risks – and to constantly call this knowledge into question –, so that we can construct procedures, which will be able to deal adequately with these uncertainties, beyond the economic competition. Acknowledgements The work presented in this paper has been supported by a postdoctoral grant from the Fonds de la Recherche Scientifique (FNRS). 195 Références Bell T., Understanding risk assessment of nanotechnology, 2007, available on h p://www.nano.gov/Understanding_Risk_Assessment.pdf. Bourg D. and Kaufmann A. (eds.), Risques technologiques et débat démocratique, Paris, La documentation française, 2007. Davies J., Oversight of next generation nanotechnology, 2009, available on www.nanotechproject.org/process/assets/files/7316/pen-18.pdf. Dupuy J. and Roure F., Les nanotechnologies : éthique et prospective industrielle, 2004, available on h p://www.ladocumentationfrancaise. fr/rapports-publics/054000313/index.shtml. European Commission, Europeans and Biotechnology in 2005 : Patterns and Trends, 2006, available on h p://ec.europa.eu/research/ press/2006/pdf/pr1906_eb_64_3_final_report-may2006_en.pdf. European Commission, Biotechnologie, 2010, available on h p:// ec.europa.eu/public_opinion/archives/ebs/ebs_341_fr.pdf. Gaskell G., “Imaging nanotechnology: cultural support for technological innovation in Europe and the United States”, Public understanding of science, 2005, pp. 81-90. International Risk Governance Council, Nanotechnology risk governance, 2007, available on www.irgc.org/IMG/pdf/PB_nanoFINAL2_2_. pdf. Kelty C., “Beyond implications and applications: the story of ‘safety by design’“, Nanoethics, 2009, pp. 79-96. Laurent B., Les politiques des nanotechnologies, Paris, Editions Charles Léopold Mayer, 2010. Mohr A., “Against the stream: moving public engagement on nanotechnologies upstream”, in Flynn R. & Bellaby P. (eds.), Risk and the public acceptance of new technologies, New York, Palgrave Macmillan, 2007, pp. 107-125. National Science and Technology Council (NSTC), The national nanotechnology initiative. Supplement to the President’s FY 2011 budget, 2010, available on www.nano.gov/NNI_2011_budget_supplement.pdf. Oberdörster G. et al., “Principles for characterizing the potential human health e ects from exposure to nanomaterials: elements of a screening strategy”, Particle and Fibre Toxicology, 2005. 196 Pidgeon N., Harthorn B. and Bryant K., “Deliberating the risks of nanotechnologies for energy and health applications in the United States and United Kingdom”, Nature nanotechnology, 2009, pp. 9598. Roco M., “Nanoscale science and engineering: unifying and transforming tools”, American institute of chemical engineers journal 50(5), 2004. Roco M. and Renn O., “Nanotechnology risk governance”, in Renn O. & Walker K. (eds.), Global risk governance, Berlin, Springer, 2008, pp. 301-325. Royal Society, Nanoscience and nanotechnologies: opportunities and uncertainties, Cardi , Clyvedon Press, 2004. Scheufele D. et al., “Scientists worry about some risks more than the public”, Nature nanotechnology, 2007, pp. 732-734. Shatkin J., Nanotechnology. Health and environmental risks, Boca Raton, CRC Press, 2008. Siegrist M., Cousin M. and Kastenholz H., “Public acceptance of nanotechnology foods and food packaging: the influence of a ect and trust”, Appetite, 2007, pp. 459-466. Siegrist M., “Predicting the future: review of public perception studies of nanotechnology”, Human and ecological risk assessment, 2010, pp. 837-846. 197 La toxicité des nanotechnologies en question. « Que sait-on des e ets des nanotechnologies sur l’individuation du vivant ? » Yannick Mwape81 Le développement des nanotechnologies constitue l’un des pôles de développement majeur de la recherche à l’heure actuelle. Les promesses qu’elles suscitent stimulent les investissements. L’échelle de manipulation inédite o re la possibilité de créer des objets aux propriétés nouvelles capables de révolutionner de nombreux secteurs des technologies. La biologie est elle aussi concernée : les êtres vivants, leur structure et leur organisation sont des sources inépuisables d’inspiration pour les ingénieurs de l’infiniment petit. Les matériaux biologiques, kératine des poils, structure des plumes, résistance des toiles d’araignées, structure des élytres de coléoptères ou écailles de papillons sont autant d’exemples d’architectures moléculaires dont les vertus peuvent être imitées et exploitées par l’entremise de nano-objets. D’autres techniques proposent d’intégrer les réseaux moléculaires des systèmes vivants pour les modifier ou les exploiter à toutes sortes de fins grâce à l’action de nano-machines. On parle de convergence Nano-Bio-InfoCogno (NBIC) pour le développement de nanotechnologies agissant à l’interface de la biologie moléculaire, de l’informatique, des sciences cognitives et des neurosciences (Roco 2007). La biologie synthétique est en ce sens une tendance lourde d’une nouvelle ingénierie du vivant. Néanmoins, la convergence interdisciplinaire à l’œuvre sous les auspices des nanosciences porte en elle des présupposés qui réaniment un réductionnisme quelque peu simplificateur qui consisterait à dire que la compréhension des vivants peut se ramener à leur seule dimension moléculaire ou atomique. On est donc en face d’un parti pris, coutumier des approches développées dans la 81 Université Libre de Bruxelles 199 perspective technocentrée, d’une vision qui privilégie le niveau des constituants plutôt que celui des systèmes et de leurs interactions avec l’environnement. Pourtant, si l’utilisation des nanotechnologies, avec la généralisation de nano-machines et de nanomatériaux, doit s’étendre, peut-elle se perme re l’économie de ne pas y penser ? C’est là ce que nous proposons de faire dans ce e présentation, et cela, en considérant la façon dont des objets de dimensions nanométriques entrent dans les systèmes vivants. A ce sujet, il nous faut tout d’abord préciser deux points dont la compréhension nous aidera à avancer. Ainsi, si le développement des nanotechnologies se constitue sur des conceptions techniciennes qui sont loin de considérer toute la complexité des phénomènes vivants, pouvons-nous accuser pour autant leurs concepteurs dans la mesure où les conceptions en vigueur en biologie ont longtemps laissé croire en la nature mécaniste et même réductible du vivant ? En ce sens, nous proposons d’appréhender les êtres vivants non plus comme des objets définis avec des propriétés fixes et déterminées sur lesquelles il serait possible d’agir où que l’on pourrait modifier selon des critères préétablis. Il s’agit plutôt de les comprendre selon leur être, selon leur dynamique propre. C’est-à-dire comme des systèmes fruits de processus d’organisation qui tendent à les faire émerger comme des unités autonomes et complexes jamais totalement réalisées. Cela implique également que la vivant n’est pas un système clos, il apparaît dans un environnement et établit avec lui des relations qui transforment à la fois son organisation propre mais aussi son milieu qui devient ainsi son monde propre. Nous parlons alors de processus d’individuation en référence à la terminologie de Simondon, pour désigner la phénoménologie de l’émergence du vivant. Dans ce e perspective, non seulement le vivant n’est plus réductible à ses seuls constituants mais ces constituants, notamment les molécules qui le composent, ne se comprennent plus seulement sur un mode réductionniste. S’il est un domaine pour lequel la prise en compte de la complexité du vivant s’avère une question de premier ordre, c’est bien la toxicologie et cela avec d’autant plus d’acuité que ce e discipline se trouve aujourd’hui en face de défis toujours plus conséquents. La toxicologie 200 avance encore aujourd’hui avec des présupposés classiques telle que l’étude des substances toxiques prises isolément ou le principe de la dose comme base de la toxicité, mais déjà l’approfondissement des recherches interpellent. En e et, de nombreuses questions sont venues enrichir les méthodes et la façon de concevoir le phénomène de toxicité. Les études sur les nuisances de particules de l’ordre du nanomètre ne datent pas du développement des nanotechnologies, mais elles ont gardé leur pertinence dans la mesure où leur approche peut nous aider à mieux saisir sur quelles bases considérer les relations entre les systèmes vivants et les nanotechnologies. Elles nous perme ent aussi de réfléchir aux risques que ces dernières peuvent faire peser sur la santé publique. Quel objet pour la nanotoxicologie ? Les nanotechnologies suscitent de nombreuses interrogations non seulement quant à leurs usages mais également quant à leurs e ets supposés sur la santé. Ces questions se posent avec d’autant plus d’insistance que la société a déjà connu de nombreux cas d’intoxication de masse liées à l’usage intensif de nouveaux matériaux. Il nous su t de considérer les cas de l’amiante, des particules fines issues de la combustion des hydrocarbures ou encore, plus récemment, des produits chimiques dans les articles de consommation courante. Avant tout autre chose, il convient de situer avec précision ce dont nous voulons parler. Le mot nanotoxicologie a été introduit dans l’éditorial d’une revue scientifique (Donaldson 2004) où les auteurs proposent la création d’une sous-discipline de la toxicologie qui traiterait de la toxicité des nanoparticules. Et de fait, la toxicité liée aux nanotechnologies porte très souvent dans les publications scientifiques qui se multiplient à ce sujet, sur ce que l’on désigne par le terme « nanoparticules ». Il ne s’agit pas de prendre en compte n’importe quel objet dont la taille se situerait dans l’ordre de grandeur « nano », c’està-dire du milliardième de mètre. Les nanoparticules, telles que nous les envisageons, concernent les produits issus de la nanotechnologie. C’est-à-dire, l’ensemble des techniques qui perme ent de créer, manipuler, visualiser et utiliser des objets de l’ordre du nanomètre. Par conséquent, la nanotoxicité que nous souhaitons aborder concerne l’étude de la toxicité des nanomatériaux et de façon générale des 201 objets manufacturés de ce e dimension. Cependant, toutes les études montrent qu’au point de vue de la toxicité, les nanoparticules issues des nanotechnologies peuvent avoir des e ets comparables à des nanoparticules produites de façon involontaires comme les particules fines et ultrafines issues de la combustion des hydrocarbures. Historiquement, les recherches dans ce domaine ont commencé par l’expansion de pathologies pulmonaires chez les ouvriers exposés à des particules minérales qu’ils pouvaient rencontrer sur leurs lieux de travail, essentiellement les mines. Il a ainsi fallu près de cent ans pour qu’on reconnaisse en France les pneumoconioses comme maladies professionnelles. Le développement considérable de l’utilisation de l’amiante durant la Seconde Guerre mondiale et les années qui ont suivi a vu l’émergence d’a ections qui n’ont suscité de recherches médicales que beaucoup plus tard (Sayer 1939, Lynch 1935, Doll 1955). L’amiante a mis en lumière un nouveau mode d’intoxication qui n’était plus liée, ce e fois-ci aux seules conditions de production comme les mineurs en présence de particules solides. Les victimes devenaient les utilisateurs des matériaux toxiques sur leur propre lieu de travail. On parle à ce sujet de deuxième vague d’intoxication qui lie la première vague de production à la seconde de consommation sur un lieu professionnel, à son tour suivi d’une troisième vague qui désigne les di érents modes d’exposition qui ont tous en commun de créer des situations d’exposition aux agents toxiques dans des lieux en quelques sortes non professionnels. C’est le cas des pollutions liées à l’émission de particules fines (PF) ou ultra fines (PUF) que l’on observe lors des pics de pollution urbaine. Ces particules fines sont d’une grande diversité chimique. Il y a le noir de charbon, l’oxyde de titane ou des hydrocarbures aromatiques polycycliques (HAP). On les regroupe selon leur diamètre aérodynamique (d.a.e.) dont les ordres de grandeur sont inférieurs à une dizaine de micromètres (PM10), inférieurs à 2,5 micromètres (PM2,5) ou encore inférieurs à 1 micromètre (PM1). Les particules ultrafines (PUF), quant à elles, sont d’une taille égale ou inférieure à 100 nanomètres. Les études actuelles de nanotoxicologie s’intéressent de plus en plus aux nouveaux matériaux issus plus directement des nanotechnologies. Parmi celles-ci, on peut citer les nanotubes de carbone existant sous la forme de nanotubes à simples feuillets ou de nanotubes à multiples feuilles ; aux fullerènes, à des nanoparticules à base de composés métalliques (cobalt, argent, cérium, titane, fer ou 202 zinc), les boîtes quantiques (quantum dots), ou encore les nanosphères cationiques de polystyrène ou des nanoparticules à base de silice. Quelles méthodes d’investigation pour la nanotoxicologie ? Les méthodes d’analyse ont considérablement évolué depuis leurs débuts dans les années 1950. Elles se sont principalement a achées à déterminer les e ets pathologiques des agents toxiques mais aussi à comprendre leur mécanisme moléculaire et cellulaire. De façon générale, en toxicologie expérimentale, qu’il s’agisse de nanoparticules ou de tout autre produit, le principe repose sur l’observation d’e ets obtenus par l’exposition d’individus, de tissus ou de cellules à des substances dont on souhaite connaître la toxicité. Ces observations sont comparées à des groupes témoins soumis aux mêmes conditions, les substances testées en moins. On travaille également en testant les substances dans deux situations distinctes : in vivo, c’est-à-dire en se servant de modèles animaux en laboratoire et in vitro, en se servant de cultures cellulaires principalement. Aujourd’hui, le développement de modélisations informatiques pour simuler par exemple, la distribution des agents toxiques dans l’organisme, permet de parler d’une troisième situation d’étude dite in silico. Les extrapolations sur l’être humain ne sont pas toujours aisées à faire, dans ce dernier cas, des études cliniques sur des volontaires peuvent venir compléter les analyses. L’étude toxicologique in vivo utilise des animaux dont les caractéristiques dépendent des objectifs de recherche. Ainsi, les animaux peuvent-ils être sains ou présenter des pathologies spontanées ou provoquées. Dans ce dernier cas, on peut avoir recours à des souches génétiquement modifiées. Ces types de modèles ont l’avantage de perme re l’évaluation de l’impact des nanoparticules sur le développement de processus pathogéniques comme les insu sances cardiaques, les cancers, les bronchites chroniques, les emphysèmes ou les allergies. C’est ainsi que des souris transgéniques déficientes en apolipoprotéine E sont utilisées pour l’étude du passage de nanoparticules à travers les barrières hémato-encéphaliques ; ou d’autres souches de souris déficientes en protéines p53, sensibles au cancer, servent à tester la toxicité des nanotubes de carbone. 203 Les objectifs essentiels de l’analyse in vivo consistent à déterminer comment les substances testées pénètrent dans l’organisme, puis de quelle façon elles se répandent dans ses di érents organes (la biodistribution). On a ainsi naturellement identifié plusieurs voies d’entrée qui sont la voie orale, respiratoire et cutanée. Dans le cas de certaines nanoparticules, à usage médical, il faudrait rajouter la voie parentérale (injection). Ensuite, la localisation des nanoparticules in vivo est une tâche di cile à me re en œuvre étant donné leur taille et leur quantité relativement modestes. La microscopie électronique n’est pas vraiment e cace. Il est possible d’utiliser des traceurs ajoutés comme des résidus radioactifs ou fluorescents dans la mesure où ils ne modifient pas les substances étudiées. D’autres techniques basées sur les propriétés physiques ou chimiques des nanoparticules sont utilisées, comme, par exemple le magnétisme de nanoparticules contenant de la magnétite (Fe3O4) détectable par résonance nucléaire (Al Faraj 2008). On mentionnera aussi l’utilisation des capacités d’autofluorescence des nanotubes de carbone, ou encore la spectrométrie d’Aman pour détecter ces mêmes nanotubes de carbone. Les études in vitro se sont considérablement développées ces dernières années afin de trouver une alternative éthique à l’expérimentation animale. Les modèles in vitro sont particulièrement adaptés pour l’analyse des détails des mécanismes d’action des toxiques sur leurs cibles cellulaires, en l’absence de toute interférence avec d’autres tissus. L’un de leur avantage et non des moindres, au point de vue pratique, est qu’ils perme ent de gagner du temps et de réduire les coûts. C’est pourquoi ce e technique est très largement utilisée. Mais l’une de leurs limites réside dans le fait que les conditions restrictives des milieux de culture cellulaire sont artificiellement éloignées des conditions internes aux organismes. Une autre critique porte sur le fait que ces études sont souvent très ponctuelles et analysent des cas de toxicité aiguë sans qu’il n’existe, pour l’instant, de méthode validée pour évaluer la toxicité à long terme. Ces di cultés n’ont pas pour autant empêché l’obtention de résultats à des recherches associant analyse in vitro et in vivo. 204 Quels résultats pour les études nanotoxicologiques ? Les premières études toxicologiques sur l’exposition à des particules dont la taille se rapproche de l’ordre nanométrique comme le noir de charbon, les particules de silice ou l’amiante, ont montré que ces dernières sont responsables d’e ets pathologiques avérés. Ainsi, les particules de charbon sont à l’origine des maladies pulmonaires comme la fibrose, les emphysèmes ou les bronchites chroniques. Les poussières de silice issues de l’extraction du charbon, de l’exploitation de carrière, du sablage sur chantier ou même du traitement des jeans, causent également des dégâts similaires au niveau pulmonaire. L’asbestose qui est une fibrose pulmonaire aboutissant à une insu sance respiratoire est due quant à elle à une exposition aux fibres d’amiante. Les études toxicologiques menées sur les nanoparticules présentes dans la pollution atmosphérique ont également démontré des résultats plus au moins analogues : des phénomènes de stress oxydant ou d’inflammations chroniques au niveau pulmonaire, ainsi que des e ets génotoxiques ou cancérigènes. Concernant les analyses portant sur les nanoparticules issues plus directement de nanotechnologies, les études in vivo ne sont pas encore très nombreuses même si elles ne se cessent de croître. Celles qui existent révèlent que l’introduction de nanoparticules dans l’organisme est susceptible d’entraîner des réponses inflammatoires aiguës, ou des fibroses et, dans certaines situations, toucher les systèmes cardio-vasculaires ou le système nerveux central. Ces études ont ainsi pu démontrer qu’il existe des possibilités de pénétration des nanoparticules via les voies cutanées, vers le système nerveux central par le nerf olfactif, à travers la barrière alvéolo-capillaire des poumons, par la voie transplacentaire, à travers la muqueuse intestinale ou encore à travers la barrière hémato-encéphalique. Malgré le fait que les détails des mécanismes toxicogènes restent encore mal compris, les analyses in vitro, quant à elles, tendent à montrer que les e ets des nanoparticules sont comparables à ce qui a été observé pour d’autres substances comme l’amiante ou les particules ultrafines, avec leur manifestation typique de stress oxydants, de réactions inflammatoires chroniques, de fibroses, de crises d’asthme, de bronchopneumonies chroniques et d’une toxicité sur le génome ou génotoxicité cancérigène. Cela est particulièrement vrai pour les 205 nanotubes de carbone dont la structure pourrait s’apparenter aux fibres d’amiante, avec les mêmes conséquences. De façon générale, le stress oxydant et les réponses inflammatoires semblent occuper une place de première importance sans qu’il ne soit évident de dire lequel du stress oxydant ou de la réponse inflammatoire déterminerait l’autre sous l’e et d’agents toxiques. Les résultats des études menées sur l’animal ne sont pas directement transposables à l’homme. Si les essais sur l’être humain sont rares, il existe néanmoins des investigations sur l’exposition aux particules atmosphériques notamment dont les dimensions sont de l’ordre nanométriques. Ces études donnent des arguments pour me re en cause l’influence de particules utra-fines dans l’apparition d’e ets respiratoires chroniques en milieu urbain ou professionnel (Maynard 2002, Pekkanen 2004). La li érature scientifique donne des résultats d’essais cliniques entre l’exposition aux PUF et des e ets cardiovasculaires et thrombogènes (Gold 2000, de Hartog 2003, Pekkanen 2002, Timonen 2005, Janssen 2005, Chuang 2005, Brunekreef 2005, Henneberger 2005, Delfino 2004) chez des sujets ayant une insu sance coronarienne, le développement de crises d’asthmes (Pen inen 2001a, Pen inen 2001b, von Klot 2002, Delfino 2005, Lwebuga-Mukasa 2005) ou des conséquences néfastes sur l’épithélium bronchique (Timonen 2004). Le tableau ci-dessous issu d’une compilation synthétique menée par Alain Bo a et Laïla Benameur, illustre de façon non-exhaustive quelques exemples de résultats d’enquêtes toxicologiques sur des nanoparticules manufacturées (Bo a 2010). 206 Nanoparticules/nanomatériaux Systèmes étudiés Nanotubes de carbone simples feuillets Kératinocytes épidermiques Stress oxydants Cellules embryonnaires humaines de reins Arrêt des multiplications cellulaires et apoptose Nanotubes de carbone avec résidus métalliques Poumons de souris Inflammation, stress oxydant, e et mutagène sur l’ADN. Shvedova & al. 2008 Nanotubes de carbone multifeuillets Cellules souches embryonnaires de souris Apoptose des cellules, arrêt de la multiplication cellulaire, lésion de l’ADN et e et mutagène sur l’ADN Zhu & al. 2007 Administration intratrachéale à des souris Lésions de l’ADN Muller & al., 2008 Cellules humaines (fibroblastes dermiques, astrocytes, cellules cancéreuses) Stress oxydant Sayes & al., 2005 Fullerène et nanotube simple feuillet en milieu aqueux Lignée de cellules épithéliales de poumons de souris Stress oxydant, lésions oxydatives de l’ADN Nanoparticules à base d’oxyde de titane TiO2 Lignées cellulaires épithéliales bronchiques humaines Lésions oxydatives de l’ADN, stress oxydants Fullerènes E ets observés Risques correspondants Génotoxicité dont les mécanismes exacts ne sont pas démontrés. Génotoxicité par une augmentation de mutations génétiques. Déstabilisation des cellules humaines, situations cancérigènes Références Shvedova & al. 2003 Cui & al. 2005 Jacobsen & al., 2008 E ets variables selon les conditions Gurr & al., 2005 207 Les boîtes quantiques (quantum dots) Cellules humaines du cancer du sein Réorganisation du noyau, induction de l’apoptose. E ets génotoxiques et modifications épigénétiques Choi & al., 2008. Nanosphères cationiques de polystyrène Macrophages de souris Stress oxydant, dans certains cas apoptose Risque encore non démontré Li & al., 2008. Nanoparticules à base de silice Cellules pulmonaires de rats pour la silice cristalline avec couverture protéique Inflammation, stress oxydant, lésions de l’ADN E ets génotoxiques mais pas dans toutes les situations. Albrecht & al., 2005. Les quelques cas répertoriés dans ce tableau semblent donc indiquer de réelles potentialités de toxicité des nanoparticules au niveau du noyau des cellules exposées (génotoxicité). Ce phénomène devrait se faire par la médiation du stress oxydant ainsi que par la réaction inflammatoire. Comment interpréter les relations toxicogènes ? La question que nous pouvons dès lors nous poser est de comprendre le sens de ces résultats. Qu’est-ce que cela peut nous apprendre sur la complexité du phénomène ? La situation paradigmatique de la réaction inflammatoire On considère généralement la réaction inflammatoire comme un mécanisme de défense de l’organisme utilisé par les animaux supérieurs (les vertébrés) contre des agressions physiques, chimiques ou biologiques. Typiquement, les étapes de ce mécanisme sont les suivantes : (1) reconnaissance de l’agression, (2) vasodilatation des vaisseaux sanguins, (3) activation de cellules immunitaires endothéliales et circulantes (polynucléaires, neutrophiles, mastocytes), 208 (4) libération de médiateurs destinés à éliminer l’agent pathogène, suivi de sa phagocytose, (5) enfin la réparation des tissus lésés notamment par la production de tissus conjonctifs. Si le processus a l’air particulièrement bien réglé pour répondre aux agressions externes, il semble pourtant qu’il ait un lien intime avec la toxicité des nanoparticules. Comment le système dont la fonction présumée semblait être de défendre l’organisme peut-il causer des e ets pathogènes ? Nous sommes en face de la même interrogation lorsqu’il s’agit de traiter de la formation des allergies ou des maladies auto-immunes. On s’aperçoit tout de suite que la réponse à ce e problématique réside précisément dans un changement de perception épistémologique profond. Ce n’est plus la fonction supposée du système qui est l’explication pertinente si nous voulons comprendre ce processus. Il nous faut nous placer à un tout autre point de vue. C’est en quelque sorte la révolution qu’a connue l’immunologie lors de ces dernières décennies qui nous apporte quelques éclaircissements. Selon la conception classique qui est encore couramment vulgarisée, le système immunitaire est considéré comme étant capable de faire la di érence entre le soi et le non soi de l’organisme. Il discrimine en quelque sorte ce qui lui appartient et ce qui en est exclu. Néanmoins, l’idée selon la quelle le système immunitaire serait une sorte de machine destinée à reconnaître des antigènes du non soi par opposition au soi se heurta rapidement à ses propres limites et non des moindres. Comment expliquer en e et le phénomène d’acceptation des antigènes de l’embryon puis du fœtus durant la grossesse ? Comment comprendre l’établissement des relations de symbioses existant entre l’organisme et les nombreuses espèces bactériennes dont la masse totale dans le corps humain dépasse celle des cellules issues du zygote d’origine ? L’expansion de maladies auto-immunes ou d’allergies, de façon générale, d’hypersensibilité du système immunitaire pose également question. Dans un tout autre domaine, la réflexion philosophique menée par Maurice Merleau-Ponty à propos du fonctionnement du système nerveux nous permet d’apporter une autre façon de voir. M. MerleauPonty, dans La structure du Comportement réalise une critique détaillée de l’explication des systèmes réflexes telle qu’elle était défendue par 209 Pavlov (Merleau-Ponty 2009 [1942]). Selon lui, il n’est pas pertinent de considérer l’existence d’un arc nerveux spécifique d’un réflexe en particulier comme une unité de fonctionnement. Le système nerveux n’est pas organisé comme la sommation d’unités fonctionnelles simples et spécifiques qui s’additionneraient pour former des comportements plus complexes. « En résumé, la critique de la théorie du réflexe et l’analyse de quelques exemples montrent que l’on devrait considérer le secteur a érant du système nerveux comme un champ de forces qui expriment concurremment l’état intraorganique et l’influence des agents externes ; ces forces tendent à s’équilibrer selon certains modes de distribution privilégiés et obtiennent des parties mobiles du corps les mouvements propres à cet e et. Les mouvements, à mesure qu’ils s’exécutent, provoquent des modifications dans l’état du système a érant, qui, à leur tour, provoquent de nouveaux mouvements. Ce processus dynamique et circulaire assurerait la régulation souple dont on a besoin pour rendre compte du comportement e ectif » (MerleauPonty 2009, pp. 48-49). M. Merleau-Ponty nous propose ainsi une vision avant l’heure d’un système complexe et souple dont les processus d’autoorganisation sont la clé de compréhension. C’est du moins selon cet angle de vue, que Francisco Varela proposa lui aussi d’interpréter les systèmes nerveux et immunitaires (Varela 1989 [1980]). Aujourd’hui les observations relatives à la plasticité phénotypique du cerveau et de l’organisation réticulaire du système immunitaire viennent également conforter ce changement de paradigme. F. Varela réalisa la même critique que Merleau-Ponty mais à l’égard de la conception classique du système immunitaire qui décrit l’existence dans l’organisme de lignées spécifiques de cellules immunitaires et d’anticorps correspondant à des antigènes extérieurs précis. Ce e théorie aussi appelée théorie de la sélection clonale élaborée par Burnet (1957) postula que les cellules capables de fabriquer des anticorps existent préalablement à tout contact avec l’antigène. Ce dernier se contente de sélectionner au sein de ces vastes populations de cellules celles qui lui correspondent. L’antigène par ce moyen de sélection détermine ainsi la multiplication d’une lignée cellulaire produisant les « bons anticorps ». Ce e théorie présupposait également que toute réaction immunitaire dirigée contre un antigène 210 de l’organisme est nécessairement délétère. Le problème consistait dès lors à déterminer comment la production de clones cellulaires pouvait éviter la formation d’anticorps capables de s’a aquer au soi. Burnet suggéra que les clones autoréactifs étaient éliminés durant certaines périodes critiques du développement, ce qui ne va pas sans poser quelques di cultés. En e et, F. Varela souligna plusieurs limites à ce e conception, comme l’immunotolérance observé chez les organismes adultes (Katz 1974), la présence d’anticorps auto-antigénique qui montrent que « l’horror autotoxicus » est dépassée. Non seulement l’autoréactivité existe, mais plus encore, elle est utile, à la fois pour bâtir la capacité du système immunitaire à reconnaître ses cibles antigéniques (son répertoire), et à contrôler la réponse immunitaire elle-même (Dubucquoi 2005). Varela, comme Merleau-Ponty à propos du système nerveux, insista selon ces termes sur « cet oubli de l’approche holiste, ce désir d’une causalité simple » qui empêche de voir « la nécessité d’une harmonisation, dans tout l’organisme, de l’activité des clones ». Figure 1. Illustration représentant l’ensemble des cellules immunitaires et des protéines suspectées d’êtres impliquées dans l’inflammation pulmonaire. (schéma adapté de : Spahn, J ; et al. J. Allergy Clin. Immunol. 2002 , 109 , S490-S502). C’est pourquoi F. Varela, s’inspirant des travaux de Niels K. Jernes, proposa une conception du système immunitaire comme un 211 réseau de cellules en interactions, « le système immunitaire doit être conçu comme une unité autonome, c’est-à-dire comme un réseau d’interactions cellulaires, qui, à chaque instant, détermine sa propre identité » et où « les récepteurs sont tournés vers l’intérieur, et où l’activité du système semble se replier et se refermer sur elle-même. » Varela appela connectivité du système l’ensemble de ces interactions qui donnent naissance au réseau immunitaire. Dans ce e perspective, le caractère antigénique d’une molécule quelle qu’elle soit n’est plus une propriété intrinsèque, mais dépend du contexte relationnel dans lequel elle s’insère au sein de l’organisme dans son entier. Leur caractère dépendra donc de la structure du réseau immunitaire, ce que Varela identifie au « soi immunologique ». De sorte que c’est dans le contexte de leurs interactions avec elle que les molécules acquièrent leur valeur antigénique. Ainsi « Il n’est pas facile de concevoir que l’organisme doive apprendre à distinguer entre le « soi » et le « non soi » ; il est à la fois beaucoup plus simple et beaucoup plus exact de supposer que l’organisation cohérente du système immunitaire définit le « soi » immunologique et détermine par le même processus l’éventail des stimuli qui sont pertinents pour lui. C’est parce que le système immunitaire répond constamment à des stimuli en provenance de lui-même qu’il peut reconnaître le soi du non-soi. Car en dernière analyse, la seule chose que puisse faire une molécule étrangère, en pénétrant à l’intérieur de l’organisme, c’est transformer la façon dont réagissent entre elles les cellules de l’organisme. Ce qui ne fait pas partie de l’ensemble des interactions entre composants du système lymphoplasmocytaire n’appartient pas à son domaine d’opérations, et est tout simplement privé de sens pour lui. La distinction fondamentale qu’opère le système lymphoplasmocytaire n’est pas entre le soi et le non soi ; elle se situe plutôt entre ce qui peut et ce qui ne peut pas interagir avec la structure immunitaire : c’est la distinction entre l’identité et le non-sens provenant du « bruit » immunologique » (Varela 1989, pp. 121-122). 212 Figure 2. Deux représentations schématiques du système immunitaire (a) rend compte des interactions locales de l’antigène et (b) représente son intégration à l’ensemble du réseau élargi en un arbre complet, mais dont l’aspect circulaire témoigne de ce que Varela appelait clôture opérationnelle. C’est-à-dire, les limites globales du système. (Schéma adapté de F. Varela, Autonomie et connaissance, p. 129) Il apparaît donc que la reconnaissance d’un antigène ne se fait pas selon un acte isolé par des lignées indépendantes de cellules spécifiques, prédestinées en quelque sorte à ce e rencontre fortuite. On a plutôt l’image de l’intégration de l’antigène dans une dynamique globale, un réseau de reconnaissance réciproque par le truchement des anticorps et qui ont pour e et d’influencer les états des cellules immunitaires, soit en promouvant soit en inhibant leurs activités comme leurs multiplications mitotiques ou leur production d’anticorps. L’idée de réseau cellulaire implique également une autre notion essentielle qui est sa plasticité. Tout comme c’est le cas pour l’étude des réseaux de neurones, il y a une capacité du système dynamique à répondre à une perturbation donnée par une réponse dont la forme est une modification de l’ensemble des activités et des interactions des composants du réseau et dont l’e et normal est de conduire le système vers un nouvel état stable ou d’équilibre. Merleau-Ponty faisait la même allusion lorsqu’il envisageait une nouvelle perception des symptômes comportementaux non selon la modalité d’une causalité linéaire qui en chercherait la cause localisable quelque part dans le système nerveux ; mais plutôt en considérant le symptôme comme la forme d’une réponse du système pris dans sa globalité, selon l’équilibre dynamique de la distribution de ses forces internes. 213 Le cas des perturbateurs endocriniens Récemment, la découverte du potentiel toxique de certains dérivés de plastiques a mis en relief la dimension complexe de la toxicologie et de la manière dont l’organisme est trop simplement considéré dans les études traditionnelles. C’est en 1989 qu’Ana Soto et Carlos Sonnenschein découvrirent fortuitement que le monylphénol, alors considéré comme un banal additif des plastiques, était responsable de la prolifération de cellules du cancer du sein. En 1991, 21 scientifiques rédigèrent la Déclaration de Wingspread qui montrait le lien entre substances chimiques anthropogènes relâchées dans l’environnement et des perturbations endocriniennes chez certaines espèces animales. Il s’avéra par la suite que ces mêmes substances pouvaient avoir des e ets non négligeables sur la santé humaine comme l’augmentation de la prévalence pour le cancer du sein ou la diminution de la fertilité masculine. On peut définir un perturbateur endocrinien comme une substance naturelle ou de synthèse qui, suite à une exposition dans l’environnement ou durant le développement, perturbe le système hormonal d’un individu. On classe typiquement dans ce e catégorie l’exposition des hormones naturelles administrées artificiellement (oestrogènes, testostérones, hormones de croissance, …), des hormones naturelles végétales ou phytoestrogènes, des molécules de synthèses à e et hormonal (les pilules contraceptives) et plus récemment une liste importante de molécules de synthèses destinées à l’industrie, à l’agriculture ou aux biens de consommation et pour lesquels l’e et hormonal n’était pas intentionnel. La particularité liée à la toxicité de ces substances réside dans la manière dont elles s’intègrent dans la dynamique d’individuation de l’organisme, c’est-à-dire dans les processus clés qui établissent continuellement son homéostasie et son devenir à travers les di érentes étapes du développement depuis l’embryogenèse jusqu’à la sénescence. Le cas du distilbène (DES), première hormone de synthèse prescrite aux jeunes femmes enceintes entre 1940 et 1980, est l’exemple du perturbateur endocrinien le plus emblématique puisque la toxicité embryonnaire ne s’est révélée que bien après la naissance des enfants et notamment des filles qui ont déclaré des cancers du vagin ou la stérilité. 214 Comme la théorie du système immunitaire développée par Varela ou dans le cadre théorique développé par Merleau-Ponty, la compréhension des e ets des perturbateurs endocriniens s’inscrit éminemment selon ce e logique systémique. L’un des enjeux de la recherche à ce sujet porte d’ailleurs sur la notion de dose minimale que les perturbateurs endocriniens qui miment l’action des hormones ne respectent pas, puisqu’en endocrinologie, la relation directement proportionnelle ou linéaire de la dose à l’e et toxique n’existe pas. L’action hormonale se fait ressentir à faible dose, alors que les doses trop importantes ont des e ets inhibant. La toxicité de ces molécules n’est plus fonction de propriétés intrinsèques mais de la manière et du contexte systémique dans lequel celles-ci s’insèrent. Leurs e ets dépendent largement de la façon dont réagi l’organisme, ou plutôt les processus incessants qui participent à sa constitution comme l’état des réseaux métaboliques. Ainsi, il apparaît que dans certaines conditions, une exposition à l’âge adulte peut être compensée par la régulation du système hormonal, ce qui n’est pas le cas lors de l’ontogenèse, rendant l’embryon ou le fœtus plus vulnérable. De façon générale, les altérations pathogènes apparaissent lorsque la dynamique des systèmes ou la plasticité des processus d’individuation de l’organisme ne parviennent pas à contrebalancer l’incidence des perturbateurs. Elles s’accompagnent alors d’anomalies plus au moins graves sur les fonctions reproductrices, le métabolisme (diabètes) ou l’apparition de tumeurs et même des troubles du comportement (hyperactivité). Un autre point s’ajoutant à la complexité des phénomènes est lié à la façon même dont le paradigme de la toxicité des substances était considéré. L’organisme en relation avec son milieu n’est jamais sensible à une substance isolée mais à un environnement complexe d’innombrables molécules capables d’interagir entre elle. L’e et de ces substances est à l’image des conditions complexes auxquels les organismes sont aux prises, contrairement aux conditions très restrictives des laboratoires. Ce n’est pas à une seule substance prise isolément que les organismes ont à faire. Il y a une combinaison de plusieurs molécules à faible dose, présentes dans toutes sortes de produits de consommation courants ou disséminés dans l’environnement, et non sur une courte durée mais sur de longues périodes d’exposition répétées. On parle d’e et cocktail pour désigner cet état de fait. 215 Nous ne sommes donc plus face à des situations de causalités simples et linéaires où une cause détermine un e et clairement établi et proportionnel (comme le suggère le principe de la dose critique). Ainsi, la systémique des processus d’individuation des organismes fait qu’une molécule peut induire une cascade de modifications des réseaux dans lesquels elle est capable de s’insérer. Et dans ces conditions, des faibles doses de polluants pourraient être plus nocives que des plus grandes quantités qui entraînent des réponses adaptées des systèmes hormonaux. Les perturbateurs endocriniens, outre leur e et direct sur la santé, montrent également comment la question de la toxicité se pose aussi au point de vue de la façon dont le monde propre des organismes peut se trouver modifié. Les hormones sont en e et des médiateurs chimiques qui sont interprétés par les cellules et qui, selon le contexte, modifient leurs états. Ces hormones sont présentes dans le milieu intérieur, le plasma sanguin ou pour d’autres organismes dans leur environnement. Ces polluants n’ont donc pas seulement des e ets directs dans le métabolisme cellulaire, dans la mesure où ce n’est pas eux qui mécaniquement causeront les dommages observés. C’est la manière dont ces molécules interagissent avec les cellules et, par la suite, les modifications sur leurs activités qui peuvent s’accompagner d’éventuelles altérations. L’e et ne peut donc pas être directement visible, mais il ne sera sensible que sur le long terme, même bien après le temps d’exposition. C’est précisément le type de développement des maladies chroniques telles que le cancer. Nous voyons donc que l’étude en pleine expansion de ces nouveaux types de polluants nous interroge une fois de plus sur la manière dont nous considérons l’organisme et sur la façon dont celui-ci est en relation avec son environnement. Que nous apprennent les études toxicologiques ? Le paradigme systémique tel qu’il a été présenté plus haut o re un cadre de compréhension des mécanismes de toxicité des nanoparticules. Leur caractère toxique se comprend par leurs interactions avec les systèmes vivants et la manière dont elles sont intégrées aux processus à l’œuvre dans l’organisme. Ce sont ces modes d’interactions qui vont conditionner leurs e ets. 216 Ainsi lorsque les nanoparticules entrent en contact avec les fluides biologiques dans l’appareil respiratoire, digestif ou dans le sang, des protéines seules ou associées à des lipides peuvent recouvrir leurs surfaces formant ce que l’on appelle une corona (Cedervall 2007). Celle-ci modifiera les capacités d’interaction des nanoparticules et donc les réponses tissulaires et inflammatoires. On a ainsi observé que l’albumine ou le fibrinogène avait une forte a nité. Les nanoparticules, selon leurs voies d’entrée ou la manière dont elles interagissent avec les protéines de la corona, sont reconnues comme des antigènes par des molécules du système immunitaire comme les opsonines (protéines de la phagocytose) ou des cytokines (signaux moléculaires de l’inflammation). Ces interactions aboutissent généralement à des réponses en cascades dont les e ets se répercutent dans tout le réseau immunitaire et tissulaire concerné. Les rôles et la nature de ces interactions sont encore mal connus. Des études montrent l’extrême complexité des interactions dans lesquelles les interférences des nanoparticules peuvent s’observer (Lynch 2008). Elles sont d’autant plus di ciles à étudier qu’elles dépendent de l’état global de l’organisme, de sa situation systémique, c’est-à-dire de l’évolution de l’environnement protéique des milieux a eints. Des protéines, très abondantes à certains moments de l’existence, peuvent progressivement être remplacées par d’autres qui présenteront une autre a nité avec les nanoparticules. Ces modifications liées à la dynamique interne de l’organisation du vivant selon ses périodes de développement (son individuation) influenceront non seulement les processus d’inflammation mais aussi la distribution des nanoparticules au point de vue de leur bioaccumulation ou de leur translocation dans di érents tissus. Lorsque les cellules épithéliales situées au niveau du système respiratoire ou digestif (dans l’intestin) sont mises en présence des particules exogènes qui ont tendance à s’accumuler dans leur environnement, celles-ci peuvent les internaliser et éme re des signaux dits pro-inflammatoires qui a irent des cellules immunitaires. Les macrophages phagocytent massivement ces particules. Mais si les nanoparticules s’accumulent, pour des raisons liées à leur capacité d’interaction avec leur milieu ou entre elles, les phagocytoses trop importantes finissent par abîmer les macrophages et léser les cellules environnantes. Ce e situation au cours de laquelle les réponses cellulaires s’avèrent ine caces déclenche une série de réactions 217 produisant des molécules dérivées de l’oxygène (ERO) très réactives. C’est le stress oxydant. Ces molécules, libérées dans le cytoplasme et dans le milieu extracellulaire, endommagent les cellules et les tissus, ce qui a pour conséquence de libérer de nouvelles molécules qui amplifient les processus inflammatoires sans qu’ils ne parviennent à retrouver une situation d’équilibre. Ces situations, qui, d’une part, déséquilibrent le système immunitaire et d’autre part perturbent le métabolisme cellulaire, finissent par a eindre le noyau des cellules au risque de provoquer des dégâts sur l’ADN et favoriser l’apparition de cellules cancéreuses. Des nanoparticules de silice, par exemple, s’insèrent également dans ces réseaux d’interactions. La phagocytose de ces particules par les macrophages entraîne une déstabilisation et la destruction des cellules. Les protéines que ces dernières libèrent dans le milieu extracellulaire sont suje es à d’autres phagocytoses qui amplifieront les voies pro-inflammatoires. Les cellules ayant internalisé la silice, sans être détruites, peuvent également activer des signaux inflammatoires comme les cytokines, chemokines, les facteurs de croissance et les résidus du stress oxydants qui recrutent des neutrophiles et reconfigurent tout le réseau immunitaire pour aboutir aux processus inflammatoires (Scheppers 1963, Hamilton 2008, Mossman 2006). En outre, une fois de plus, des études ont montré que la dynamique de réorganisation ne se limite pas au système immunitaire mais s’étend à d’autres cellules du tissu conjonctif des poumons, les fibroblastes. Il s’avère en e et que les macrophages produisent des facteurs stimulant leur prolifération et la production de collagène (Adamson 1991, Benson 1986). Tous ces processus suite à l’intoxication aux particules de silices peuvent se comprendre comme une dynamique globale au cours de laquelle les systèmes vivants tendent à retrouver un état d’équilibre sans pour autant y parvenir. Ce e incapacité expliquerait alors les fibroses et l’augmentation des cas de maladies auto-immunes chez les personnes exposées à la silice. 218 Figure 3. Mécanismes de toxicité de l’ozone et des particules atmosphériques dans les voies aériennes. L’ozone et les particules atmosphériques sont intégrés aux mêmes systèmes cellulaires au niveau de l’épithélium pulmonaire. L’ozone réagit fortement avec les anti-oxydants présents en abondance dans le liquide périciliaire, alors que le transport mucociliaire et la phagocytose par les macrophages sont les principales voies d’élimination normale des particules atmosphériques (PM). Cependant, leur accumulation dans les tissus, la réactivité de surface et la présence de métaux de transition dans leurs compositions peuvent être à l’origine de la production extracellulaire d’espèces réactives à l’oxygène (ERO) qui à leur tour provoque un stress oxydant comme l’ozone, en diminuant la protection des anti-oxydants. Au contact des cellules épithéliales, ces particules peuvent être phagocytées et, éventuellement, et arriver dans le tissu conjonctif et dans le plasma sanguin. Dans la cellule, les voies de signalisation impliquées dans la réponse proinflammatoire sont les mêmes que pour l’ozone. (Schéma adapté de Armelle Baeza, 2007). Les systèmes se réorganisent suite à la perturbation induite par l’agent toxique, mais la nature de la réorganisation peut être ou non adaptée. Ainsi les fibroses résultent de la synthèse accrue de tissus fibreux, de collagène et de protéines du tissu conjonctif telles que des fibronectines ainsi que d’une multiplication plus importante de cellules du tissu conjonctif, fibroblastes dans les parenchymes pulmonaires (autour des bronches notamment), en réponse aux lésions tissulaires 219 et aux facteurs émis lors de l’inflammation par les macrophages et les neutrophiles. Les particules perturbent donc l’ensemble du réseau immunitaire et conjonctif. Des études montrent que ce processus s’étend également aux pneumocytes de l’épithélium respiratoire. L’aspect systémique des mécanismes toxicologiques a donc pour corollaire important, dans la recherche, de définir les critères d’interaction entre les nanoparticules et les systèmes vivants et, en lien avec ceci, leurs conséquences sur les types de relations qui en découlent. Ainsi la taille des particules est bien sûr le premier critère puisque l’échelle nanométrique augmente considérablement le rapport surface/volume et donc la surface relative d’interaction des particules. L’augmentation de la surface réactive est un facteur accroissant la toxicité intrinsèque des nanoparticules (Donaldson 2004). Des substances déjà testées mais à des dimensions supérieures ont pu être considérées sans e et toxique alors que leurs équivalents nanométriques sont toxiques aux mêmes doses (Oberdörster G et al 2000). La composition reste un critère d’interaction toxicogène important (Donaldson 2004). Les e ets du noir de carbone sont plus sévères que ceux du dioxyde de titane (Renwick 2004). Pour di érentes nanoparticules à composition chimique variable (chlorure de polyvinyle, TiO2, SiO2, Co, Ni), seul, le cobalt a induit des e ets proinflammatoires sur des cellules endothéliales (Peters 2004). La forme est un autre paramètre d’importance même si son évidence n’est pas encore totalement acquise, dans le cadre des études toxicologiques. La structure fibreuse qui est celle de l’amiante par exemple mais qui se trouve également être celle des nanotubes de carbone fut de première importance pour déterminer leurs e ets toxiques sur les tissus. Le diamètre ou la longueur est en lien étroit avec leur pénétration dans les tissus respiratoires, dans leur potentiel inflammatoire mais aussi avec leur élimination ou leur accumulation (biopersistence tissulaire). Des publications récentes ont ainsi démontré, à partir d’analyse in vivo, que des nanotubes de carbone à simple paroi (single-wall carbon nanotubes, SWCNTs) pouvaient induire la formation de granulomes dans la trachée (Lam 2004, Warheit 2004). 220 Quelles conclusions tirer ? Les nanotechnologies sont riches de potentialités et fortement chargées d’enjeux divers tant économiques, que sociaux, scientifiques ou philosophiques. L’impact sur la santé que nous avons tenté d’aborder dans ce e présentation nous révèle déjà l’existence de risques qui ne sont pas négligeables mais l’ampleur des recherches reste importante et avec elle des questions qui ont une portée non seulement dans le domaine restreint de la toxicologie mais aussi sur la façon dont est conçu le vivant. Les investigations portant sur les nanoparticules qui ne sont pas forcément liées aux nanotechnologies ainsi que les avancées réalisées sur les perturbateurs endocriniens, au cours ces dernières années, ont renouvelé le débat scientifique et nous montrent à quel point une conception du vivant s’avère nécessaire. À l’heure où certains développements des nanotechnologies pourraient nous laisser croire en la pertinence d’un réductionnisme qui détiendrait la clé des systèmes vivants par la maîtrise parfaite des niveaux atomiques ou moléculaires en utilisant des machines de cet ordre, la nanotoxicologie nous montre que le vivant dispose de sa dynamique propre qui ne se résout pas dans la composition pièce par pièce de ses molécules. Les problèmes toxicologiques nous donnent une image tout autre qui, si elle se retrouve dans l’idée de réseaux ou de système, montre que leur logique et leur complexité ne repose plus sur les mêmes postulats. Les e ets liés à la toxicité ne se comprennent plus seulement selon les propriétés des particules ni selon des doses critiques. Ils deviennent des manifestations des processus globaux et de la manière dont les systèmes vivants se réorganisent pour répondre aux perturbations qu’ils occasionnent. Nous avons utilisé le terme d’individuation non pas seulement dans le sens d’une particularisation d’un individu par rapport à un autre, ni uniquement pour désigner les processus d’ontogenèse mais pour qualifier la dynamique globale qui comprend ces deux aspects mais aussi l’ensemble du devenir des systèmes vivants qui tendent à réaliser des unités autonomes. C’est dans ce e dynamique où les molécules qualifiées de perturbateurs endocriniens où les nanoparticules viennent s’insérer et acquérir un e et toxique, non par elles-mêmes mais à travers justement l’inadéquation des réponses des systèmes qu’elles a ectent. Ces inadéquations se manifestent par l’ensemble des symptômes et des problèmes qui ont été identifiés : 221 stress oxydants, inflammation, cancérogenèse pour un bon nombre de nanoparticules étudiées à ce jour. Les perspectives de la recherche sont autant de portes ouvertes à la réflexion philosophique qui nous o re également une occasion de voir les sciences travailler autrement avec le vivant. Non plus, dans ce cas-ci, dans une perspective technicienne qui trouve son compte dans un réductionnisme simplificateur très utile au point de vue de la mise au point de toutes sortes d’applications pratiques, mais dans une approche qui se doit d’aborder la manière dont le vivant a à faire avec son environnement et avec lui-même, car c’est bien de cela dont il s’agit lorsque nous nous penchons sur la toxicité. Références Adamson I.Y.R., Letourneau H.L. et BOWDEN D.H.. “Comparaison of alveolar and interstitial macrophages in fibroblast stimulation a er silica and long or short asbestos”, Laboratory Investigation 64, 1991, p. 339-344. ALBRECHT C. et al., “The crucial role of particle surface reactivity in respirable quartz-induced reactive oxygene/nitrogen species formation and APE/Ref-1 induction in rat lung”, Respiratory Research 6, 2005. Al Faraj A. et al., “Longitudinal 3He and proton imaging of magnetite biodistribution in a rat model instilled nanoparticles”, Magnetic Resonance in Medecine 59, 2008, p. 1298-1303. BAEZA A. et MARANO F., “Pollution atmosphérique et maladie respiratoires : un rôle central dans le stress oxydant”, International Journal of Medical Sciences 23, 2007, p. 497-501. Benson S.C., Belton J.C. et Scheve L.G., “Regulation of lung fibroblast proliferation and collagen synthesis by alveolar macrophages in experimental silicosis. I. E ect of macrophage conditioned medium from silica instilled rats”, Journal of Environemental Pathology, Toxicology & Oncology 7, 1986, p. 87-97. Bo a a. et Benameur L., “Mécanismes de Nanotoxicité des nanoparticules génotoxiques”, dans les Nanosciences 4. Nanotoxicologie et nanoéthique, 2010, p. 165-170. Brunekreef B. et al., “Personal, indoor, and outdoor exposures to 222 PM2.5 and its components for groups of cardiovascular patients in Amsterdam and Helsinki”, Research Report Health E ects Institute 127, 2005, p. 1-70; discussion p. 71-9. BURNET F.M., “A modification of jerne’s theory of antibody production using the concept of clonal selection”, Australian Journal Sciences 20 (2), 1957, p. 67-69. BURNET F.M., The Clonal Selection Theory of Acquired Immunity, Cambridge (Mass.), Cambridge University Press, 1959. Cedervall T. et al., “Understanding the nanoparticles-protein corona using methods to quantify exchange rates and a nities of proteins for nanoparticles”, Proceedings of the National Academy of Sciences of USA 104, 2007, p. 2050-2055. CHOI A.O. et al., “Quantum dot-induced epigenetic and genotoxic changes in human breast cancer cells”, Journal of Molecular Medicine 86, 2008, p. 291-302. Chuang K.J. et al., “Associations between submicrometer particles exposures and blood pressure and heart rate in patients with lung function impairments”, Journal of Occupational and Environmental Medicine 47(11), 2005, p. 1093-8. CUI D. et al., “E ect of single wall carbon nanotubes on human HEK293 cells”, Toxicology Le ers 155, 2003, p. 73-85. Delfino R.J. et al., “Association of FEV1 in asthmatic children with personal and microenvironmental exposure to airborne particulate ma er”, Environmental Health Perspectives 112(8), 2004, p. 932-41. Delfino R.J., Sioutas C. et Malik S., “Potential role of ultrafine particles in associations between airborne particle mass and cardiovascular health”, Environmental Health Perspectives, 113 (8), 2005, p. 934-46. Doll R., “Mortality from lung cancer in asbestos worker”, British Journal of Medicine 12, 1955, p. 81-86. Donaldson K. et al., “Nanotoxicology”, Journal of Occupational and Environmental Medicine 61, 2004, p. 727-728. Dubucquoi S., “Auto-immunité physiologique et pathologique dans les maladies neurologiques”, Revue Neurologique 161(12), décembre 2005, p. 1163-1176 Gold D.R. et al., “Ambient pollution and heart rate variability”, Circulation 101(11), 2000, p. 1267-1273. Gurr J.R. et al., “Ultrafine titanium dioxide particles in the absence of 223 photo-activation can induce oxidative damage to human bronchial epithelial cells”, Toxicology 213, 2005, p. 66-73. Hamilton R.F., Thakur S.A. et Holian A., “Silica binding and toxicity in alveolar macrophages”, Free Radical Biology & Medicine 44, 2008, p. 1246-1258. de Hartog J.J. et al., “E ects of fine and ultrafine particles on cardiorespiratory symptoms in elderly subjects with coronary heart disease: the ULTRA study”, American Journal of Epidemiology 157(7), 2003, p. 613-623. Henneberger A. et al., “Repolarization changes induced by air pollution in ischemic heart disease patients”, Environmental Health Perspectives 113(4), 2003, p. 440-446. JACOBSEN N.R. et al., “Genotoxicity, cytotoxicity, and reactive oxygen species induced by single-walled carbon nanotubes and C(60) fullerenes in the FE1-Mutatrade markMouse lung epitjelial cells”, Environmental and Molecular Mutagenesis 49, 2008, p. 476-487. Janssen N.A. et al., “Associations between ambient, personal, and indoor exposure to fine particulate ma er constituents in Dutch and Finnish panels of cardiovascular patients”, Journal of Occupational and Environmental Medicine 62(12), 2005, p. 868-877. KATZ D.H. et BENACERRAF B., Immunogical Tolerance : Mechanisms and Potential Clinical Applications, New York, Academic Press, 1974. KATZ D.H. et BENACERRAF B., “The Function and Interrelationships of T-Cell Receptors, ir-Genes and Other Histocompatibility Products, Transplantation Review 22, 1975. LAM C.W., JAMES J.T., McCLUSKEY R. et HUNTER R.L., “Pulmonary toxicity of single-wall nanotubes in mice 7 and 90 days a er intratracheal instillation”, Toxicological Sciences 26, 2003, p. 1-21. LAM P.K., CHAN E.S., HO W.S. et LIEW C.T., “In vitro cytotoxicity testing of a nanocrystalline silver dressing (Acticoat) on cultured keratinocytes”, British Journal of Biomedical Sciences 61 (3), 2004, p. 125-7. Lhami M., Marano F. et Houdy P. (éds.), Les nanosciences. Nanotoxicologie et nanoéthique, Paris, Belin, 2010. Lwebuga-Mukasa J.S., Oyana T.J. et Johnson C., “Local ecological factors, ultrafine particulate concentrations, and asthma prevalence rates in Bu alo, New York, neighborhoods”, Journal of Asthma 224 42(5), 2005, p. 337-348. Lynch, I. et Dawson K.A., “Protein-Nanoparticle interactions”, Nano Today 3, 2008, p. 40-47. Lynch K.M. et Smith W.A., “Pulmonary asbestosis. III. Carcinoma of lung in asbestos-silicosis”, American Journal of Cancer 24, 1935, p. 56-64. Maynard A.D. et Maynard R.L., “A derived association between ambient aerosol surface area and excess mortality using historic time series data”, Atmospheric Environment 36(36-37), 2002, p. 5561-7. Maurice Merleau-Ponty, Structure du Comportement, 3ième édition « Quadrige », 2009, Presses Universitaires de France, Paris (1942 pour la 1ère édition). Mossman B.T., Lounsbury K. M. et Reddy S.P., “Oxidants and signaling by mitogen-activated protein kinases in lung epithelium”, American Journal of Respiratory Cell and Molecular Biology 34, 2006, p. 666-669. MULLER J. et al., “Clastogenic and aneugenic e ects of multi-wall carbon nanotubes in epithelial cells”, Carcinogenesis 29, 2008, p. 427-433. OBERDÖRSTER G., FINKELSTEIN J.N. et al., “Acute Pulmonary Effects of Ultrafine Particles in Rats and Mice”, HEI Research report 96, August 2000, Health E ects Institute. Pekkanen J. et Kulmala M., “Exposure assessment of ultrafine particles in epidemiolgoc time-series studies”, Scandinavian Journal of Work, Environment & Health 30, Suppl 2, 2004, p. 9-18. Pekkanen J. et al., “Particulate air pollution and risk of ST-segment depression during repeated submaximal exercise tests among subjects with coronary heart disease: the Exposure and Risk Assessment for Fine and Ultrafine Particles in Ambient Air (ULTRA) study”, Circulation 106(8), 2002, p. 933-938. Pen inen P. et al., “Number concentration and size of particles in urban air: e ects on spirometric lung function in adult asthmatic subjects”, Environmental Health Perspectives 109(4), 2001a, p. 319323. Pen inen P. et al., “Ultrafine particles in urban air and respiratory health among adult asthmatics”, European Respiratory Journal 17(3), 2001b, p. 428-435. 225 Peters K. et al., “E ects of nano-scaled particles on endothélial cell function in vitro: studies on viability, proliferation and inflammation”, Journal of Materials Science : Materials in Medicine 15 (4), 2004, p. 321-325. Renwick L.C. et al., “Increased Inflammation and altered Macrophage chemotactic Responses Caused by Tow Ultrafine Particle type”, Occupational Environmental Medicine 61, 2004, p. 442-447. Roco M.C., “National Nanotechnology Initiative : Past, Present, Future”, dans William A. et al. (éds.), Handbook on Nanoscience, Engineering and Technology (2nd ed), CRC Press, 2007, p. 3.1-3.26. SAYES C.M. et al., “Nano-C60 cytotoxicity is due to lipid peroxidation”, Biomaterials 26, 2005, p. 7587-7595. Sayer R.R. et Dreessen W.C., “Asbestosis”, American Journal of Public Health and the Nation’s Health 29, 1939, p. 205-214. SchepperS G.W., “Lung disease caused by inorganic and organic dust”, Journal of Diseases of the Chest 44, 1963, p. 133-140. SHVEDOVA A.A. et al., “Exposure to carbon nanotube material: assessment of nanotube cytotoxicity using keratinocyte cells”, Journal of Toxicology Environment Health 66, 2003, p. 1909-1926. SHVEDOVA A.A. et al., “Inhalation vs aspiration of single walled carbon nanotubes in C57BL/6 mice : inflammation, fibrosis, oxidative stress, and mutagenesis”, American Journal of Physiology Lung Cell and Molecular Physiology 295, 2008, p. 552-565. SPAHN J. et al., “Asthma: addressing consistency in results from basic science, clinical trials, and observational experience”, Journal of Allergy and Clinical Immunology, 109, 2002, S490-S502. Timonen K.L. et al., “E ects of ultrafine and fine particulate and gaseous air pollution on cardiac autonomic control in subjects with coronary artery disease: The ULTRA study”, Journal of Exposure Analysis and Environmental Epidemioogly 16(4), 2006, p. 332-341. Timonen K.L. et al., “Variation in fine and ultrafine particulate air pollution and urinary concentrations of lung Clara cell protein CC16”, Journal of Occupational and Environmental Medicine 61(11), 2004, p. 908-914. Varela F., Autonomie et Connaissance, essai sur le vivant, éditions du Seuil, Paris, 1989 (pour la 1ère édition : Principles of Biological Autonomy, Elsevier, 1980. 226 von Klot S. et al., “Increased asthma medication use in association with ambient fine and ultrafine particles”, European Respiratory Journal 20(3), 2002, p. 691-702. WARHEIT D.B.,“Nanoparticles: health impacts?”, Materials today 7(2), 2004, p. 32-35. WARHEIT D.B. et al., “Comparative pulmonary toxicity assessment of single-wall carbon nanotubes in rats”, Toxicological Sciences 77, 2004, p. 117-125. ZHU L. et al., “DNA damage induced by multiwalled carbon nanotubes in mouse embryonic stem cells”, Nano Le ers (American Chemical Society Publications) 7, 2007, p. 3592-3597. 227 Troisième partie La gouvernance des nanotechnologies sur le plan international 230 Les nanotechnologies et l’éthique Politiques et stratégies Philippe Busquin82 Introduction Les nanotechnologies sont actuellement l’une des disciplines où les techniques se développent le plus rapidement, avec de nombreuses applications prome euses dans des domaines aussi variés que la médecine, l’énergie, l’industrie et la communication. Comme toute technique nouvelle, elles posent des problèmes éthiques ; leurs bienfaits et leurs inconvénients éventuels font l’objet de plus en plus de débats, ainsi que leurs implications pour les relations internationales en matière de politiques scientifiques et technologiques. L’UNESCO peut prendre des initiatives pour dresser un état planétaire des dimensions éthiques des nanotechnologies et en étudier les implications pour les États membres en même temps que les initiatives que pourraient prendre l’Organisation. A cet e et, l’UNESCO a demandé dès 2003 au COMEST (Commission mondiale d’éthique des connaissances scientifiques et des technologies) composé de 18 membres venant de tous les continents choisis pour leur expérience scientifique et leur connaissance des liens entre la science et la société sur le plan de l’éthique. Avec l’aide d’un groupe d’experts, un premier rapport83 a été proposé en 2008 et est en voie de réactualisation vu la rapidité des développements et l’extension de la réflexion aux technologies convergentes : nano, biologie, informatique, sciences cognitives (NBIC). 82 Commission mondiale d’éthique des connaissances scientifiques et des technologies de l’UNESCO (COMEST) 83 COMEST, Nanotechnologies and ethics: policies and actions, 2008, available on www.unesco.org. 231 D’un point de vue général, la réflexion éthique doit s’intéresser aux bienfaits et inconvénients potentiels des nanotechnologies mais, surtout, elle doit évaluer et discuter sur la scène publique les buts auxquels ces technologies serviront, à l’heure où la science et la technologie peuvent être mises à profit pour répondre aux besoins les plus pressants de l’humanité. Pour accroître la pertinence des initiatives prises, trois catégories de parties prenantes ont été associées à l’étude des dimensions éthiques et activités internationales : philosophe-éthiciens, scientifiques et décideurs. Caractéristiques des nanotechnologies Une façon de caractériser les nanotechnologies c’est souligner qu’elles ont une dimension interdisciplinaire. Il n’y a pas de technologie particulière à qui reviendrait l’exclusivité d’être appelée « nanotechnologie » puisque le mot désigne plusieurs technologies et sciences. Du point de vue scientifique, les nanotechnologies reme ent en cause les distinctions habituelles entre les disciplines scientifiques. De surcroît, c’est un domaine où la distinction entre science et technologie est très di cile à maintenir, puisque scientifiques et ingénieurs sont amenés à travailler dans les mêmes équipes. Enfin, les frontières mêmes entre sciences exactes et sciences humaines s’estompent sitôt qu’on se place à l’échelle nanométrique. Les interactions constructives entre sciences exactes et sciences humaines doivent donc être renforcées si l’on veut éviter les fausses représentations mutuelles et les quiproquos. Du point de vue éthique, certaines singularités des nanotechnologies ne laissent pas d’être particulièrement préoccupantes : a) Invisibilité : du fait de l’invisibilité des applications des nanotechnologies, il est di cile d’en maîtriser et d’en localiser les e ets (elles sont sur ce point semblables au nucléaire). b) Rapidité du développement : du fait du développement rapide des nanotechnologies, il est di cile d’en repérer les impacts éventuels et d’y réagir, en particulier sur le long terme. 232 c) Utilisations militaires et à des fins de sécurité : les nanotechnologies étant susceptibles d’utilisations militaires ou à des fins de sécurité, elles pourraient être incompatibles avec l’exercice des droits de l’homme. d) Impact mondial : impacts éventuels sur des pays et sociétés même lorsqu’ils ne participent pas à la mise au point de nanotechnologies. e) Risque d’une « fracture nanotechnologique » : renforcement éventuel des inégalités entre pays en développement et pays développés. D’autre part les nanotechnologies sont une chance à saisir dans les nombreux domaines. Elles o rent d’immenses possibilités. Elles exigent donc une approche holistique, qui suppose un dialogue authentiquement interdisciplinaire. Cela vaut pour toutes les initiatives proposées ici : débats, éducation, recherche et action publique. Inversement, l’élaboration des nanotechnologies peut o rir l’occasion de renforcer la coopération entre les disciplines scientifiques ainsi que la coopération transnationale, contribuant ainsi à satisfaire l’une des exigences les plus fondamentales de l’éthique des sciences et technologies. Mise en place du cadre éthique Transparence et responsabilité face au public Les principes de transparence et de responsabilité face au public dans les décisions concernant les investissements et la recherchedéveloppement en matière de nanotechnologie doivent être bien dégagés, en accordant une a ention particulière aux implications et aux risques que représentent des intérêts militaires. Il convient également de modéliser l’application de ces principes au sein de la société. L’importance de concepts d’éthique organisationnelle telle que la responsabilité sociale des entreprises doit être relevée. La prise de décisions en matière de nanotechnologies doit également prendre en compte le partage des bénéfices, l’accent étant mis sur la promotion de la paix et le règlement des conflits. 233 Renforcement des capacités en matière éthique L’UNESCO doit promouvoir le renforcement des capacités pour que les États membres et le public en général soient à même d’aborder les questions éthiques que posent les nanotechnologies, et ce en me ant en place une première base de données sur les politiques en vigueur, les codes de conduites et les directives des organisations professionnelles, organes de prise de décisions et instituts de recherche et en faisant de ce e base un centre de prospective. Participation du public La participation du public à la formulation des politiques en matière de nanotechnologies doit être renforcée, en faisant davantage intervenir les associations de la société civile, notamment celles qui s’intéressent à l’environnement, à la santé ou à la sécurité publique, ainsi que les syndicats. Il faut insister davantage sur la nécessité de stimuler encore l’élaboration de modèles de débats publics portant sur les politiques en matière de nanotechnologies. Dans les États membres, en particulier dans les pays en développement, il faudrait aussi renforcer la capacité de faire participer le public. L’UNESCO doit intervenir dans le débat public sur la question des nanotechnologies pour s’assurer que le dialogue est interdisciplinaire et équilibré et qu’il prend en compte la diversité des opinions. Le dialogue sur les politiques en matière de nanotechnologies doit également être encouragé au niveau régional, compte tenu des di érents degrés de développement et des préoccupations sociales de chaque région. Campagnes médiatiques sur les questions éthiques Les campagnes médiatiques sur les questions éthiques que posent les nanotechnologies sont une chose nécessaire, et des personnalités éminentes du monde des médias doivent être invitées à informer le public sur ces questions. 234 Coopération internationale L’UNESCO doit coopérer étroitement avec les autres organisations internationales qui s’intéressent aux nanotechnologies, notamment l’OCDE et l’ISO, pour élaborer un cadre éthique d’ensemble pour les nanotechnologies. Commission internationale des nanotechnologies et de l’éthique Compte tenu du fait que les nanotechnologies se développent très rapidement, l’UNESCO devrait créer une commission internationale des nanotechnologies et de l’éthique, qui serait chargée de soume re à un examen suivi l’évolution des problèmes éthiques et l’apparition de nouvelles problématiques dans ce domaine ainsi que d’apporter des réponses en temps utile. Nécessité de sensibiliser l’opinion et de promouvoir le débat sur les nanotechnologies Nécessité d’un débat public équilibré, interdisciplinaire et reposant sur des informations appropriées Pour que le débat public soit équilibré, interdisciplinaire et repose sur des informations appropriées, il faut partir de la constatation que les nanotechnologies suscitent de nombreuses a entes et craintes de nature à peser sur l’évolution du dialogue éthique dans un sens positif comme dans un sens négatif. Il convient de promouvoir un débat réaliste qui s’appuie sur des informations appropriées et sur un examen méthodique de toutes les données à mesure que les nanotechnologies se développent ; on veillera à ce que des conclusions positives ou négatives ne soient pas tirées en l’absence d’éléments su samment probants. Il faut apporter des informations très nuancées, objectives et précises pour guider le public et les décideurs. L’UNESCO devrait sensibiliser l’opinion publique aux risques comme aux bienfaits des nanotechnologies (en particulier dans les 235 États membres qui n’ont guère de capacités dans ce domaine), à la responsabilité des scientifiques et ingénieurs qui doivent veiller à un développement maîtrisé des nanotechnologies, à la responsabilité qui incombe au public de rechercher des informations exactes et de participer à l’élaboration des politiques en matière de nanotechnologies, ainsi qu’à la nécessité de remédier aux e ets potentiellement déstabilisateurs des nanotechnologies sur les communautés en voie de transformation sociale. Ce débat devra prendre en compte les Objectifs du Millénaire pour le développement. Impact environnemental et problèmes sanitaires Dès le départ, il devra y avoir un débat public qui s’appuie sur des informations exactes et qui soit de nature interdisciplinaire en ce qui concerne l’impact environnemental et les problèmes sanitaires en vue de tirer le maximum de profit des nanotechnologies. Il faudra me re en balance les possibilités et les risques que présentent les nanotechnologies dans les produits et applications qui supposent un contact avec l’être humain ou qui sont de nature à a ecter l’environnement. La di culté, c’est que la toxicité éventuelle des nanomatériaux est, scientifiquement, d’une incertitude très grande. En fait, c’est la définition même de la toxicité de ces matériaux qui fait problème. En outre, on ne voit pas bien comment ce e toxicité, à supposer qu’elle soit définie, pourrait être mesurée de façon scientifiquement indiscutable. Enfin, nombre de matériaux n’ont pas fait l’objet de tests scientifiques systématiques de toxicité. L’un des thèmes abordés pourrait être le fait que ce e toxicité peut prendre du temps à se manifester, comme ce fut le cas avec l’amiante dans un autre contexte. Par conséquent, il faudra étudier la question de l’applicabilité du principe de précaution, sans que les incertitudes scientifiques amènent à éluder ou à repousser le débat nécessaire. Nécessité d’une évaluation des risques Les questions d’analyses des risques et de normalisation doivent donner lieu à une étude éthique approfondie, et pas seulement 236 à une étude scientifique. Il faut que l’UNESCO coopère avec des organisations comme l’OCDE, qui est actuellement en train d’élaborer des normes d’évaluation des risques. Il faut informer les scientifiques et ingénieurs qui travaillent dans le domaine des nanotechnologies de la nécessité de procéder à une évaluation des risques et leur présenter le concept de probabilité en matière d’évaluation des risques, et ce par des initiatives de sensibilisation et d’éducation éthique. On pourrait également à ce e fin promouvoir la prise en compte des impératifs de gestion et d’identification des risques comme élément à examiner dans les procédures d’octroi de bourses de recherche en nanotechnologies. Nanomédecine Appliquées à la médecine, les nanotechnologies posent divers problèmes, qui doivent être examinés à l’avance à partir d’informations appropriées et de façon interdisciplinaire et publique. La facilité d’accès aux nouvelles méthodes de diagnostic est un problème (par exemple la possibilité de mesurer la prédisposition aux maladies) ; les perspectives d’amélioration du corps humain posent d’autres questions (par exemple la question de savoir ce qui fait véritablement partie du corps, ce qu’est une amélioration et l’instance qui la définit). L’UNESCO peut promouvoir l’application à la nanomédecine des principes de bioéthique inscrits dans la Déclaration universelle sur la bioéthique et les droits de l’homme, et examiner les données techniques nécessaires pour prendre en compte les questions éthiques que les nanotechnologies posent dans le domaine des soins de santé. Confidentialité Un débat public précoce, informé et interdisciplinaire pourrait également être consacré aux concepts juridiques et éthiques fondamentaux qui ont trait à la protection de la vie privée et de la confidentialité En e et, les nanotechnologies perme ent des systèmes de surveillance sans précédent (depuis les nanocaméras jusqu’aux nanomarqueurs repérables par GPS), et il faut se demander si pareils dispositifs sont acceptables, et à quelles conditions. 237 Propriété intellectuelle Un débat public précoce, informé et interdisciplinaire pourrait aussi être organisé sur les problèmes de propriété intellectuelle liés aux nanotechnologies. L’une des raisons en est que les nanotechnologies rejoignent la biotechnologie, et que la question de la brevetabilité des organismes vivants et des gènes intéresse aussi les nanotechnologies. Une autre raison est l’e acement des limites entre sciences et technologie qu’entraînent les nanotechnologies : si le savoir scientifique est un bien commun, les pratiques technologiques ne le sont en général pas. De plus, la multiplication des brevets risquerait d’aggraver la « fracture nanotechnologique ». Par conséquent, la brevetabilité des innovations dans les domaines liés aux nanotechnologiques devrait être de plus en plus contestable et ce e question devrait être abordée sous forme d’une évaluation des risques et bénéfices. Actions en cours La prise de conscience est mondiale, la quatrième réunion annuelle du projet « nano » initié par la direction générale santé et consommateurs de l’U.E. tenue à Bruxelles : « Safety For Succes Dialogue » (29-30 mars 2011) a permis de mesurer la mondialisation de la réflexion, sa complexité, du besoin de coopération internationale (définitions, approches, etc…. ), les aspects juridiques. L’Union Européenne, aussi bien la Commission que le Parlement tente de définir un code de conduite commun sur tous les aspects des nanotechnologies, le domaine des cosmétiques étant déjà réglementé. Il y a une certaine urgence à définir des codes de conduite (des directives étant ine caces vu l’évolution rapide des connaissances et la complexité des définitions adoptées) car se profile un débat plus long et plus di cile encore sur ce que certains qualifient de « transhumanisme » lié aux technologies convergentes (NBIC). A cet égard les travaux du groupe d’éthique Européen sous la présidence de Goran Hermerén s’interroge dans ses recommandations : 238 Une approche fondée sur le principe de précaution constitue-t-elle une solution ? Une telle approche doit être clarifiée, afin d’éviter des malentendus. Le principe de précaution suppose l’existence d’un risque, l’éventualité d’un préjudice et une incertitude scientifique sur la survenue e ective de ce préjudice. Mais le principe de précaution ne signifie pas pour autant « ne rien faire », car cela peut également comporter des risques. Il n’exige pas non plus une situation à « risque zéro ». Aucun progrès ne serait possible, si ce e exigence était prise au sérieux et appliquée strictement. De la même manière, il importe de mesurer que : Les défis à relever s’adressent tant à la communauté des chercheurs qu’aux décideurs politiques et à l’opinion publique concernée. Une approche intégrée, impliquant l’ensemble des acteurs, doit être engagée le plus tôt possible. L’objectif est d’éviter les erreurs liées à de mauvaises interprétations autant qu’à de faux espoirs. La science-fiction est, en e et, susceptible d’exagérer la dimension tant des espérances que des inquiétudes. En conclusion Bien que les nanotechnologies soient prome euses, les conséquences éthiques et politiques liées à une telle recherche ne sont pas radicalement di érentes de celles auxquelles nous avons déjà été confrontés mais elles donnent l’occasion de les aborder en connaissance de cause et avec plus de succès que par le passé. Les règles qui en découlent peuvent être élaborées selon un processus constructif perme ant de transformer ces défis en opportunités pour l’ensemble des habitants de la planète. Nos démocraties doivent se réapproprier ce type de débats cruciaux dans leur choix de société Lors du colloque, j’ai été aussi frappé par le fait qu’on évoque peu la recherche militaire dans ce domaine stratégique. Aux EtatsUnis les budgets de recherche en nanotechnologies et technologies convergentes (NBIC) sont a ectés principalement au département de la Défense et dépassent largement les e orts de nombreux États 239 membres de l’Union Européenne. Il est vraisemblable que des budgets importants frappés du sigle « Secret Défense » se développent aussi dans d’autres puissances militaires. Ces recherches et développements ne sont pas soumis aux mêmes contraintes légitimes d’éthique et mériteraient une interpellation politique ainsi qu’un débat de société comparable au thème de l’Espace dans les années 80 (Reagan : guerre des étoiles). 240 Europe’s collective experiment with nanotechnologies as a construction of possible futures : political and ethical stakes Jim Dratwa84 Introduction : what to look forward to? At the end of this sentence, take a break, just close your eyes, and imagine the world 50 years from now. How would you like it to be? This paper is about the future, about alternative futures. More specifically it is about the ways in which futures are made – and made to come to pass. What world do we want to live in together? How to construct that together? More specifically still, this paper is a reflexion and a critical appraisal as to the role of “engagement” (that is, ethics and social sciences engagement as well as public engagement) in shaping the future with nanosciences and nanotechnologies. Firstly, we explore the relations of the European Union (EU), of the European project, with the future – with the very endeavour of constructing futures. Then we examine the import of sciences and technologies (S&T) in this endeavour. In section 3 we go on the ground, on the terrain of the EU headquarters, to see nanosciences and nanotechnologies in the flesh not in the research lab but in the research policy lab, that of the European institutions and more particularly the European Parliament and the European Commission. There we also scrutinize contrasting “nano narratives” – or “short stories” – projecting nanosciences and nanotechnologies in the past and in the future. Section 4 consists in a critical appraisal of ethics and social sciences engagement as well as of public engagement in the collective experiment with nanoparticles, nanomaterials, nanoproducts, 84 Facultés universitaires Saint Louis/European Commission 241 nanosciences, nanotechnologies (nanos)85, taking stock as to the “engagement” strides in regard to the nanos strides. The final section looks back and looks forward. It concludes on the Gi and the Gegengi , on the growing danger and where grows what saves, and thus opens ways forward for di erent engagements. Future progressive Futures (and Europe) Imagined Communities The European Union, the European project, was founded on the smoking ashes of the Second World War. From a fraught past, it was to build a be er future. From terrible divisions, it was to build togetherness, to build a community. It is a project of further integration and of further enlargement. Further integration, with a common market, a common currency, common rules and regulations, common policies in many areas. Further enlargement, going from 6 member countries to 9, to 27 member countries and more. The achievements have been remarkable. Both integration and enlargement have been – and are again – faced with considerable di culties, but it changes nothing to this. The European project is at bo om a project, a projection in the future. And this comes to the fore particularly prominently at certain junctures in the political cycles (Dratwa 2009). (Fore)seeing like a State In March 2000 at the European Council in Lisbon, the Lisbon Strategy was set out, aiming to make the EU – by 2010 – “the most competitive and dynamic knowledge-based economy in the world capable of sustainable economic growth with more and be er jobs and greater social cohesion”. 85 Since I will have to use this shorthand for short, I want to insist again on the importance of unpacking the shorthands and actors and hypostases, be they “nano”, “Europe”, “the public”, or “the future”. 242 A decade on, a er the revised Lisbon Strategy had tossed aside ma ers of environment or sustainability to make way for a focus on growth and jobs, and a er the later highlights on climate change (reports, films, Nobel prizes, a rising tide on the crest of striking meteorological events) had paved the way for a green new deal en route to a low-carbon economy, in March 2010, a new 10-year strategy or vision was set out, EU 2020, highlighting “smart, sustainable, and inclusive growth”. In fact we are now in a moment of intense soul-searching for the European Union. A search for driving force, grand project, rationale, raison d’être. And in fact many visions, many futures, are emerging. Strategies, action plans, roadmaps, with among others: the Roadmap 2050 to a low-carbon economy, the 2020 Energy Strategy, the Strategic Nanotechnology Action Plan 2015, the Horizon 2020 framework for research and innovation (which was very nearly named “Discover 2020” or “Imagine 2020”) and indeed the more forthrightly termed EU 2020. The European Project In a way, Europe’s goal of rebuilding and reconciliation is already achieved. It is accomplished and remains so “for richer or poorer, for be er or worse, for as long as it may live”. In a way, just as much, it is a project of ever further integration and enlargement that thus cannot ever be more consummate than a “work in progress”, “under construction”. In a way, a third way unremi ingly following the second, it is an endeavour constantly under threat, under scrutiny, under question: what are the natural borders of Europe, when is more integration too much integration, what are the contours of Community added value or the optima of subsidiarity (i.e. for each policy issue what is the most appropriate level of intervention, supranational, national or subnational, and what should be the division of labour between the actors at those di erent levels) (Dratwa 2009). From all three follow this fourth perspective: not only is the European project by nature a “project”, a projection into the future, in permanent expectation geared towards further horizons like a figure from one of Zeno’s paradoxes, it is in fact an endeavour constantly in search of its goals, of its very (i.e. of pu ing forward rather than 243 merely of achieving or reaching) “single market” or “fi h freedom” or “man on the moon” – in search of what to search for. In search of its project. The EU, this strange construct, embodies perhaps more vividly than any other the insights of John Dewey as to the necessarily experimental process of formation of a State, “the experiment must always be retried; the State must always be rediscovered” (Dewey 1927, p. 33). Futures (and S&T) The narrative of Progress upholds an intimate connection between scientific and technological advances and human, social advances. Such is the classic contract or oath of Science, holding together truth and be erment. And Research, as the term implies, is turned towards the future in that one does not know exactly what one will find – and what “the future holds”. Hence this duet lying ahead: on the one hand the catastrophe, on the other hand the promise. And with this promise can come dynamics of hype and hubris and a premium on constant novelty. S&T are at the heart of the democratic state. In e ect S&T are at the heart of the notion of legitimacy as the relation between the public and the state. This powerful finding – dating back to Max Weber and even Aristotle – has been compellingly documented in the work of James C. Sco as well as Yaron Ezrahi86. In fact the grand mobilizing visions – the “Man on the Moon” and the “Cure for Cancer” and their likes – involve both the State and S&T, together and all along. The European Union as a body of bodies, having to compound with its member countries, has found a peculiar stance with regard to this commixing of Science and the State (Dratwa 2006, Muldur 2007, Dratwa 2011a). It has been characterized on the international scene by a careful blend of technological development incitement and environmental concern and protective mindfulness. 86 (Sco 1998, Ezrahi 1990). His is a characterization of the democratic state as ceaselessly seeking to legitimate itself through scientific and technological performances (e.g. large scale projects, “modernisations”, institutionalisation of scientific expert advice). 244 Such contrastive approaches – habitually devolved to di erent ministries or political leanings – have been embraced together, and together with a commitment to openness. Furthermore, the EU scene has fervidly embraced singular phrases (variably oxymoronic) encapsulating these diverse strands, such as “sustainable development”, “precautionary principle”, “responsible innovation”. Now, having conceived of Europe, we will meet it in the flesh, on the ground, to trace nanos’ progress not in the research lab but in the research policy lab, at the European Parliament. Nano stories No big deal I stride through the palatial yet labyrinthine corridors of the European Parliament. March 2008 and I am going to a special hearing at the Parliament – “Nanotechnology: threat or opportunity?” – set up by a grouping of research and industry organizations. The background paper for the seminar dramatizes the ma er at hand as follows: “Nanotechnology is growing worldwide. Huge investments are made by the USA, Europe and Japan, and new players like China and India are joining in. Like other new technologies, nanotechnology is the subject of great hope and fear. Proponents envision revolutionized healthcare, consumer goods and construction industries. Opponents show nightmare scenarios of self-replicating nano-scale robots and a new asbestos crisis”. Yet the main initial presentation – by the director of the Nanotechnology Industries Association – o ers a much more benign and irenic perspective. A gecko and a bu erfly. Lush foliage, graceful creatures, beautiful pictures. The gecko lizard can climb walls with great ease. The blue bu erfly shimmers with coruscate colours. Such is the familiar yet dazzling beauty of nature. Such is the power of nanoparticles (on the lizard’s toes and on the bu erfly’s wings). Nanos – nanoparticles, nanomaterials, nanoproducts, nanosciences, nanotechnologies – are nothing out of the ordinary. They are natural. They are no big deal. They are all around us. 245 Here let us pause and stand vigil in silent memory of the GMOs (genetically modified organisms) narratives whereby “this is nothing new”, “we have been practising it (i.e. hybridization) for generations” (salted to taste with “but how could you possibly have a respectable view on the ma er, you who do not understand, you who know not even that tomatoes have genes!”). And above all, “it is natural”. The above underscores a particular historical narrative about the emergence of nanos: as ahistorical, as having “always already” been around. The classical account of their history, starring Feynman and Taniguchi and Eigler (and sometimes also Rocco and Bainbridge as well as the NNI, the United States’ National Nanotechnology Initiative), with the various junctures of the emergence and development of nanosciences and nanotechnologies, are addressed in other chapters of this volume. Europe has its founding myths, demos and weidentity (Dratwa 2011a) – and so do nanos. As we will see, in fact, the latest strands of these evolving narratives can even at times be actively intermeshed. To that e ect we will proceed further ahead in time to delve further back in history. A big deal a er all We begun at the European Parliament with the fable of the gecko and the bu erfly (whose moral could be that “it goes without saying”), dated March 2008 yet of times immemorial. Three years later, in March 2011, the Parliament having addressed a succession of formal questions (following on its Resolution of 24 April 2009 on regulatory aspects of nanomaterials) to the European Commission, the Commission – custodian of the Treaties and of the European general interest – is presenting its argument at another hearing. It goes as follows87: “The markets for nanotechnology enabled products are expected to grow rapidly, and the projected annual growth rates (between 16 and 46 %) are significantly exceeding those of other enabling technologies, such as biotechnology. The upper end of these predictions imply a global nanotechnology market value of USD 2.5 trillion by 2015 with a potential for creating hundreds of thousands of new jobs”. 87 The series of arguments in inverted commas presented in this section (3.2) are those that were presented on that occasion. 246 The opening statement sets the scene: growth, markets, jobs – prediction and potential. It also positions nanotechnology alongside its ill-fated sidekick, prodigal son or lost sheep, kindred spirit or haunting figure: biotechnology. It’s presence or absence (like that of asbestos and of the mad-cow crises, Dratwa 2004) is a key feature of EU discourse on nanos. This name shall not be invoked in vain. “Europe entered the nanotechnology race early. The European Commission’s ‘Nanosciences and nanotechnologies: An action plan for Europe 2005-2009’ (COM(2005) 243) has played a catalytic role in influencing advances in nanotechnologies in ‘an integrated, safe and responsible’ approach”. Here it is the trope of the race which is introduced, bringing with it images of leader and laggard, with the need to catch up or to maintain one’s lead, and the notion that one cannot stop albeit for a moment. Time, and all the others, are playing against us. On that backdrop, the notion of responsible innovation/deployment/development/advances/ approach is called forth in the same breath as EU action. “The global nanotechnology landscape today is not the same as it was five years ago when the Action Plan 2005-2009 was conceived. The emphasis has shi ed from basic research towards innovation, new product development and commercialisation”. “On the innovation front, competition by other global players such as the US, Japan, Taiwan, and increasingly by China, is intense. Despite Europe’s excellence in nanoscience, we have started to fall behind the competitors in commercializing nanotechnology”. Close on the heels of the race, the theme of the gap – preferably widening and to be closed – opens onto the slump, the decline or the fall. It is another incitement for mobilization. “Europe’s enterprises, consumers and the society at large will miss out on the opportunities provided by nanotechnology unless the innovation gap is closed rapidly. Europe can not a ord to be relegated into a technology follower status yet in another enabling technology field”. ”Yet in another enabling technology field” reminds us that it is not only the disillusionment with bio in the second half of the 2001-2010 decade 247 that marks the European vision of nano – it is also the disillusionment with info in the decade’s first half. Indeed, se ing the goal for the EU to become the most competitive knowledge based economy in the world by 2010, the heads of state and government gathered in Lisbon for the European Council of March 2000 had then placed their collective faith in the internet bubble – just before its burst. “However, technology leadership is a necessary but not a su cient condition for nano-technology innovation to take root in Europe. R&D e orts must be supported by a favourable policy environment – ‘a world class regulatory system’ – which ensures high levels of consumer, worker and environmental protection and creates a stable and predictable environment for enterprises to invest and innovate. Achieving world leadership in regulatory and standardisation e orts would also give an important competitive advantage to European industries. This however requires a strategic framework within which EU would assert its position and negotiate a favourable outcome”. The argument closes with an interesting exploration of di erent avenues as regards regulation and consumer protection. “World leadership” in regulation is thus beneficial in terms of consumer protection; of innovation-enabling environment; and even of competitive advantage. But then regulatory and consumer concerns suddenly loose their shine in the face of the ratcheting-down argument. Only loss awaits those who do not abide by the law of sheer speed. “Consumer trust in nanotechnology products is a further pre-requisite for nanotechnology innovation in Europe. As the GMO debate in Europe has shown – no trust, no market. In order to avoid repeating the mistakes made in handling the GMO debate, Europe must adopt an open a itude stressing the true advantages of nanotechnology but underlying the need for regulation where appropriate”. “Nevertheless, the safety, regulatory and consumer concerns which we have in Europe do not necessarily have the same weight in all regions of the world that are investing in nanotechnology development. Globally, the development of nanotechnology will surely continue even if Europe would decide to apply the brakes. This would result in loss of future markets, jobs and ultimately knowhow”. 248 Who controls the past controls the future As we see on the field from the references to “avoiding repeating past mistakes” and “the safety, regulatory and consumer concerns” underpinning the “no trust, no market” syllogism showcased by the GMO debate/debacle, the narrative is resolutely one of learning from the past. Hence the future – here the way the nano issue is to be tackled – is infused with the past – here in particular what “the GMO debate in Europe has shown”. The future is infused with the past firstly in the sense that lessons are drawn from past experience to be er face future challenges. But, as we see, it goes much further: the future is conceived as past. The Weltanschauungen forged through previous experiences are those with which the future is conceived. Secondly, thus, the future is mirrored on the past. When it is faced “in the light” of the past, that “light” does indeed have the form of past experiences. And by that light I mean here what is to be thrown into sharp relief and what is le in the shade, what is illuminated and what is not shone upon, the chiaroscuro. The circle is complete – the Ouroboros metonymically eats its tail – in the case at hand as the past story is retold, reshaped, to fit the newly emerging challenge (or to be more precise, to highlight particular features of a thusly identified challenge and of a proposed course of action). Thirdly, in other words, the past is hence retrofi ed to meet the future. This is where the “no trust, no market” dilemma fully come to bear. The “mistakes made in handling the GMO debate” are not only about maltreating the public at large and botching “the safety, regulatory and consumer concerns”. They are also about having failed to secure “an important competitive advantage for European industries”, this nebulous nexus of market shares, progress, jobs and growth: “the opportunities provided”. And in this narrative it is that failure that cannot be a orded. 249 Storytelling till the end Before tacking stock – in the next section – of the “engagement” strides in regard to the nanos’ strides, we should briefly review the above from the perspective of nanos’ ontology and prospects. In the gecko and bu erfly fable, nanos are part of life, part of our nature, nothing to worry about. In the canonical story, they are an exciting and promising domain of inquiry and innovation; a rising, enabling, rewarding new world. In the “ethical, legal and social issues” (ELSI) or “ethical, legal and social aspects” (ELSA, which I will use for short) narrative, they are an emerging breed, rich with potential, carrying potential benefits as well as risks; yet for all to go well they must be tamed and propitiated, which takes deliberating, which in turn takes time and good will. But wait a moment : they are already here! The latest estimates88 have identified over 1200 products containing nano-materials currently on the market. From sunscreens to electronic devices, from paints and coatings to food and beverages, in Europe too, they sit without any fuss on the shelves. While some were busy telling the story – and others busy listening – nanoproducts have peacefully crept onto the market, on our skins, in our mouths, all around us. Gecko and bu erfly. Taking stock On the one hand, a remarkable change must be acknowledged and celebrated as regards the way emerging technologies are now handled in many societies. No pasarán. The mobilisation against a wave of GMOs due to “terminate” a host of other forms of life (be they conceived as land use, biodiversity, individual plant or animal species, rural livelihoods, independent cultivation practices or geopolitical assemblages) has succeeded in averting a particular set of looming futures. 88 See h p://www.nanoshop.com/ and h p://www.nanotechproject.org/ inventories/, last accessed 30 November 2010. 250 Another world was possible – and another world has come to pass. That is the story with GMOs and we now consider nanos: a remarkable change must be acknowledged and celebrated as regards the way nanosciences and nanotechnologies have been surrounded –padded or indeed “aggrandized”– by a host of reflections and deliberations, of precautions and double-checks (with considerable mobilization of social sciences and participatory exercises), notably under the head of “responsible development”. One of the chiefest achievements has been the unscrewing of the “scientific certainty” Leviathan. At the very least, to avoid acting on a false sense of scientific certainty is undeniably a move away from irresponsible practices in many instances. On the other hand, however… Well on the other hand there is a thin layer of sunscreen which I only now realize contains nanoparticles. So first of all we should pay tribute to the thinking, the sophistication, the learning (Stilgoe 2007), the lesson-drawing. And then second of all, right now, we should pursue a more interrogative reflection: on ethics and social sciences engagement as well as on public engagement. Taking stock, what have been the achievements of this engagement. Lip service While the cat is (blabbing) away… As indicated above, e orts to involve stakeholders and citizens at large have multiplied in a wide process of “democratizing S&T” and “bringing S&T into democracy”, and the challenges of scientific uncertainty for S&T policy (and for public policy more broadly) are increasingly recognized. Indeed this evolution is particularly remarkable with regard to nano-S&T. Yet at the very same time that this “nice story” was unfolding, products based on nano-S&T were entering the market! Dynamics of 251 innovation and commercialization were largely going on blissfully una ected by – albeit not unaware of – this razzamatazz. Nano could o er the actualization – in practice and on a grand scale – of a “thing”, a ma er of concern, in the “thing”, the multifarious set of hybrid forums a uned to hammering it out (Dratwa 2002). A Parliament of Things (Latour 1991, Latour 1999a, Latour 1999b) or more humbly a collective appraisal bringing together – rather than keeping apart – risk assessment and technology assessment and foresight, integrating appraisals of available knowledge (including knowledge production, validation and policy use) and a diversity of deliberative approaches extending beyond the “grand unifying schemes” of policy, thus comprising a persistent (rather than caducous or spasmodic) and evolving review of alternatives – that is, of alternative futures (Dratwa 2002). But as it happens, the collective experiment with nanos had deficient rules of procedure (Latour 2004, Dratwa 2011b). In e ect nanos have entered our world – indeed entered the market – in absence of much debate about social desirability. This must stand as the gravest criticism of the “engagement” (ethics and social sciences engagement as well as public engagement). The proverbial cat was there we were told, and yet while there has been much blabbing away, the mice have gone on playing. From always too early to never too late Repeated critiques of the NNI in the 2001-2010 decade pertained to its slow response to considering nanos’ environmental, health and safety (EHS) risks. The NNI did not begin to fund EHS research in a concerted way until 2005 and, another half-decade on, it now presents its reaction to this initial failing as one of its great learning achievements. ELSI research, however, was integrated into the funding early on, building on practices from the Human Genome Project. Echoing classic law-lag discussions with regard to emerging technologies (though too rarely drawing upon the co-production line of reasoning and of inquiry (Jasano 2001, Latour 1991, Dratwa 2002)), many ethical analyses of nanos have addressed the misconception that it is too early days, too upstream, “too soon to tell what the social and ethical issues are” (Sandler 2009, p.6). 252 Yet the focus on refuting that notion leads to this: “Every emerging technology o ers us a new opportunity to engage stakeholders in a social and ethical debate. The nanotech revolution is still beginning and we still have time for an open and public discussion of its consequences…” (Rejeski 2009). The overarching leitmotiv in that analysis, the prime target of rebu al, is the notion that “it’s too early to discuss ethics”, too early to engage, to deliberate. So much so that in fact – as showcased in the quote above – the main message ends up being that “it’s never too late”. But at some point it is. Nanos are here now. Diverse rationales for engagement It is useful to recognize that nanos policy in the EU contends with a triple set of tenets, three drivers or desires: participation, precaution, and penetration (i.e. penetration of new products, in new markets, if not in our houses and bodies and cells; building on innovation with its associated promises of market shares, growth and jobs, and new ways to address societal challenges). These divergences (trade-o s or irreconcilabilities), as highlighted in the long excerpt above, help understand the positioning of EU action with respect to nanos. In view of the initiatives launched to date (while in the absence of new legislation on novel foods for instance), it can broadly be captured by the “so law” catch-all. However, considering the fact that choices are not e ected – and preferences or priorities not assigned – between the di erent motives (such as the three values distinguished above), it is more elucidating to talk of a regime of action which appertains to the oxymoron or to the interstice. On this backdrop, within the EU as well as beyond, there are diverse rationales for (funding) public engagement and ELSA research. From the seemingly simplest to the lo iest, they can be summarized as follows: being able to claim that it was done (which, at its basest, already constitutes a concession, a recognition that it ought to be done); ge ing “buy-in”, i.e. acceptance, acquiescence, quiet acquiescence, public understanding of science, trust; ge ing “buy-in” in terms of market, in terms of users; and then the rate of rationales which can be set under the head of “doing things right” (issues of taking into 253 account, of listening to the voices and making them heard, of layexpert divides, of democratizing S&T, of social and environmental and epistemic justice). The nanos experiment, it is important to note, was seen early on as a fantastic experiment in co-production. For ELSI and STS scholarship this seemed a golden opportunity to participate, not only to gain “access to the field” and to come in early and upstream in the process, but also to lend reflexivity to emerging forms of research and governance (Macnaghten 2005, Kearnes 2006) and indeed to engage in the co-production (Jasano 2001, Jasano 2011) of science and social order. But they were to face far more zealous co-productionists then themselves. In 2001 already, Mihail C. Roco and William Sims Bainbridge envision – under the head of Strategies for Transformation – an ambitious programme of nano (and social) engineering under which social sciences are o ered an important role in preparing and monitoring society in its necessary transformation (Roco 2001)89. This diversity of rationales is a crucial consideration to bear in mind when probing – and going for – such engagement (cf. also Stirling 2008). Lips at your service: di using and defusing It is a crucial consideration notably in view of the fact that the situation is direr than an “ine ectual engagement” would imply. Indeed it now clearly appears (Kearnes 2009) that this engagement (this mobilization of social sciences and professional ethics as well as of public participation) has enabled technological development rather than constraining it, facilitated technological development rather than complicating it. This brings us beyond the initial critique (what is the point of all this mobilization, of all this engagement, if it makes no change, if the nano-products come in regardless). This brings us beyond “no change”: engagement has actually been a facilitator for unhampered 89 Also to note as part of this programmatic appeal: “We must find ways to address ethical, legal, and moral concerns, throughout the process of research, development, and deployment of convergent technologies. This will require new mechanisms to ensure representation of the public interest in all major NBIC projects (…)” (Roco 2001, p. 8). 254 technological development, a means to pursue and expand businessas-usual. In other words engagement can be instrumentalized to foster the di usion of nanos, laboriously making good on the inept promise of the “di usionist model” of innovation (rebu ed in Latour 1987), that of an unproblematic free-flowing roll-out of innovations through society. Finally thus, engagement can be instrumentalized in order to defuse controversy (rather than enriching it) and dissensus (rather than eliciting it). Tightness of framing Nanoscale or big picture I have analysed elsewhere the setup of political and cosmopolitical epistemologies (Dratwa 2007a, Dratwa 2008), showing in particular how the risk frame proceeds in pruning dishevelled rhizomatous issues to construe them – and “treat” them – as risks. There the coin of the realm, the decision, is premised on the carving and divides, the incisions. The ontology of issues or controversies, tangled and rhizomatous, does not fit neatly in such tight frames (thus requiring various measures of cu ing, disinvolving, or obfuscating to be held in; and conversely, allowing the inquiry to test and escape the frames). Yet if they are too narrowly construed, issues themselves can also produce e ects of cu ing, disinvolving, and obfuscating on the inquiry. And ELSA scrutinies of nanos have too o en, adhering to that intrinsic “nano-S&T” frame, failed to extend to questions about science policy or the research agenda more broadly (about agenda-se ing and the organization of diverse – or competing – priorities and of diverse principles and values). Nanoscale but great divides Indeed the “engagement” (the mobilization of ethics and social sciences as well as public engagement) has o en re-enacted the classic 255 modern division – and division of labour – between science and society, nature and culture, facts and values. Simply put: scientists do the science and the others do the talking around. This is how the funding for ELSA was organized and justified. This is the role in which the “engaged” were cast and which they accepted and dutifully performed. Great divides and the actors themselves It is important to underscore that these great divides have not been an extraneous world-view or a tenuous ether in which the “engagement” was set – they have marked the division of labour on the ground, in research teams and collaborative projects. Akin to embedded journalists during the 2003 invasion of Iraq, ethicists and social scientists were embedded in nano-S&T research teams. And on the ground, whether spoken or not, the practical questions arise: are you one of us? Are you with us or with them? And do you want to be invited again? Take a moment and think of this situation. In such a se ing, the embedded o en succumbed to the “lure of the yes”. Between sense of belonging and sense of betrayal, the ethicists’ ethics would lean towards the facilitator position discussed above: tackling the hurdles on the way rather than eliciting “no’s” to development. This role-based predicament sheds a di erent light on calls for “communication and deliberation between all actors” with respect to responsibilities concerning nano-S&T. Indeed there may only be a limited potential for negotiation of responsibilities because the sectors, the disciplines, the roles themselves are made the platform for the deliberation. In other words this is a framing where renegotiation of one’s role; emancipation from one’s role; merely questioning one’s role, one’s job description; and thinking as oneself, as an individual are made impossible, or “frame-breaking”, or a betrayal. 256 Conclusion : alternatives to the inevitable Despair Let us go back to the future, the vision, the promise. In the nanos collective experiment to date, ethics and social sciences have been enrolled to patrol the rims of the promises, the “applicability of the applications”. ELSA has flourished and nanoethics has developed as a discipline through classic dynamics of professionalization (journals, societies, funding, etc). All the while, ELSA research has focussed on its invariable checklist (risk assessment, cost-benefit, safety and security, privacy and individual freedom, human enhancement, social justice) and the a endant illusion of tractability and all-embracingness. ELSA has not questioned the credibility of the promises, let alone the preferences and imaginaries fuelling their formulation. Ethics in this situation has been reduced to a utilitarian cost-benefit calculation, to a consequentialism lending credence to the promises it should have questioned, even turning improbable futures into irrefutable necessities, if not reduced to a “problem-solving” ethics tasked to pave the way for technological roll-out and societal change. The emergence of the notion of “responsible nanotechnology development” parallels the troubled relation with the troubled past discussed above with nano and bio at the European Parliament. As formulated crisply on the other side of the Atlantic, the idea was to “get it right, this time” (in terms of integrating societal studies and dialogues) “from the very beginning” (Roco 2001). In his address on “Responsible nanotechnology development” at a workshop organized by SwissRe in 2004, this was the ethical creed professed by Philip Bond, the US Under-Secretary of Commerce: “Given nanotechnology’s extraordinary economic and societal potential, it would be unethical, in my view, to a empt to halt scientific and technological progress in nanotechnology” (Bond 2005). As regards the finesse of the G. W. Bush administration in plying the precautionary principle (Dratwa 2007a), it should be noted that the above proposition consists in its rudimentary reversal, or rather in a very rudimentary cost-benefit analysis where one side of the ma er eclipses any others (in this respect, see the discussion of EU and US “no regrets” policy and error types in (Dratwa 2007a)). More balanced presentations cannot dispel the notion’s unresolved ambivalences. Consider the appreciation in 257 the National Research Council’s 2006 review of the NNI: “Responsible development of nanotechnology can be characterized as the balancing of e orts to maximize the technology’s positive contributions and minimize its negative consequences. (…) It implies a commitment to develop and use technology to help meet the most pressing human and societal needs, while making every reasonable e ort to anticipate and mitigate adverse implications or unintended consequences” (NRC 2006, p. 73). The characterizations of responsible development consist in a juxtaposition of “the good” (or the benefits) and “the bad” (or the costs or risks). As above, some have gone as far as presenting these as trade-o s. The prioritizations between competing values, however, were well avoided (and yet, in the quote above for instance, they are clear: the “maximization” and the “commitment” come first). It is also striking to see how these formulations corresponded to restricted ethical approaches, premised on consequentialism and utilitarianism. This only added further strength to the running narrative positing the inevitability of new technological developments. Building on the leitmotivs of Progress and with the resources examined above (race, gap, need, promise, if-not-us-then-themanyway, responsibility, learning, markets and jobs and addressing societal challenges notably), new technological developments were not only posited as inevitable but as inevitably good. “Responsible development” itself looms as an irresistible inevitable “strange a ractor”, a dark hole which no alternative thought or step back can escape. Who is against it? Whereas social justice or the precautionary principle can be termed “essentially contested concepts” – in that they are concepts whose very essence is to be contested, subject to dissensus and elicitation – responsible development can rather be termed an “essentially uncontested concept”. It is posited as an unproblematic desirable goal, self-evident and incontrovertible. The oxymoron which once haunted sustainable development does not come to bear here – the “engaged” are already on board. However unwi ingly, they have walked right into the participation trap. As to the “involved citizens”, the few that were enrolled found themselves framed in various formats of participation, deliberation, and aptly named “consensus conferences”. On this backdrop, lack of 258 “uninvited” (by the public – and private – authorities) or “unintended participation” was also to be deplored (cf. Wynne 2007, Doubleday 2011). This lack of uninvited public engagement parallels the domination by organized exercises of the new demand for public inclusion (exercises themselves organized and dominated by a handful of specialized institutions such as Involve and Demos in the UK), while “upstream engagement” was explicitly recommended (in RS/RAE 2004) in the context of responsible development to anticipate in the present – indeed defuse – “possible futures controversies which can be resolved through consensus building” (Doubleday 2007, p. 169). These participation exercises were premised on consensus and operating as manufactories of “reasonable” (i.e. favourably disposed) citizens. Indeed Javier Lezaun and Linda Soneryd have shown how the norm for those organized exercises consisted in searching not for involved and interested citizens but for uninterested participants (Lezaun 2006). STS has also been enrolled in this embedding, with ELSA and without. On other terrains, STS (science and technology studies – or science, technology, society) scholarship has documented how scientific controversies allow to re-open the black boxes of science made, as well as how fruitful they can be for the advancement of scientific knowledge. Likewise, these public or societal controversies can be learning processes in at least two important respects. Firstly, they lead to the production and confrontation of new knowledge (from a variety of scientific disciplines as well as from “lay experts”), to the investigation of known unknowns, the recognition of unknown unknowns, or the taking up of unknown knowns (on this typology of knowns and unknowns, see (Dratwa 2007a)). Secondly, they allow learning as to setups of expertise and decision making by opening the black boxes of decisions made, the black boxes of known knowns and framings and implicit assumptions, thus bringing these to the fore and requiring a work of explication, of acknowledgement, of justification, and probably of reworking. In contrast, in the case of nanos’ emergence, black boxes have taken shape around S&T – and public policies – still very much in the making, building on the regime of the promise (with the notable aid of professional ethics reifying those envisioned futures so 259 as to find a grip for its consequentialist analyses). But STS must now continue and resist with its own strengths, the attention to the practices, to what takes place on the ground, to the actors themselves – the dynamics at play in the policy lab as well as the research lab – as well as to the “things”, the “pragmata”, to the very processes and products which those actors imagine and develop. A political ethnography of silences, obfuscation, absences, exclusions and preclusions as well as emergences. This is what STS has always meant to me as I learnt the ropes, engaging in it and reflecting upon it with Isabelle Stengers, Bruno Latour, Michel Callon, Sheila Jasano , Andrew Barry, Arie Rip, Andy Sterling, Brian Wynne, Pierre-Benoît Joly, Les Levidow, Silvio Funtowicz, Paras Caracostas, Nicole Dewandre, Angela Liberatore, Shobita Parthasarathy, Jessie Saul, Josh Greenberg, Javier Lezaun, Fabian Muniesa, Vincent Lepinay, Dominique Linhardt, Albena Yaneva, Noortje Marres, Emilie Gomart, Valérie November, Christelle Gramaglia, Olivier Thierry, Martin Rémondet, Cédric Moreau, Ariane Debourdeau, Eleonore Pauwels, Edwin Zaccaï, François Mélard, Kaushik Sunderrajan, Jay Aronson, Rob Doubleday, David Winicko , Jeanny Reardon and so many others. A sociology of divergences and emergences, a tracing and a tracking, an inquiry into ma ers of fact and ma ers of concern, a choreography and an ontology, a study of disentanglements and articulations. A thing of a achments. So the question has to be asked of the nano-endeavour in all its diversity: what does it make possible? (What does it bring to light and what does it shadow, which possibilities – which worlds – does it open up and which does it foreclose? (Barry 2001, Stirling 2008, Dratwa 2008)). And the same question has to be asked of the “engagement” as well90. A salient issue in this regard is the question of commodification, merchandization, privatization – the “selling out”. The “selling out” 90 Have we, have ethics and the social sciences, fallen prey to a diversion, to a lure, to a wholly di erent form of participation trap ? Indeed besides the participation trap associated to specific participatory exercises, we should also point to a meta-participation-trap (and to the overarching “lure of the yes”, i.e. the “yes” to collaboration itself) in terms of buying into – and thus granting credibility and sustenance to – the “responsible and participative governance of innovation” discourse (and setup). 260 of life, of the state, of one’s – or others’ – soul, of S&T, of Progress, of values, of the past and the future, of knowledge, of the nanoscale. At play here is the appropriation of our imaginaries, of our desires, reduced to possessing, to amassing, to purchasing, to discarding, to destroying, to “consuming”. Such is the ceaseless consumption and termination of the new, of the future – even of the self. This constitutes what I call the “scorched earth” polity (Dratwa 2011b) or cosmogram, mobilizing every instrument and resource (from Freudian theory to viral marketing) in the endeavour of reducing and commandeering our desires, our imaginaries, our futures. The other ma er in this regard, its correlate, is resistance. And where would the resistance – the alternatives – come from? Not only from STS and other social scientific and ethics research as indicated above but also from the researchers themselves, from citizens at large, from each and everyone of us – and ultimately from the “things” themselves that have a nagging tendency to resist the tight and smooth frames in which they are set. What had been hidden from sight is becoming increasingly blatant and – as it should – unbearable. That is the case for S&T innovation as well as for innovation in financial products (in terms of commodification and securitization), for engineering – genetic, nuclear, geo... and nano – as much as fiscal engineering. Legerdemains of influence and control, interest captures, political machines, organized irresponsibility or powerlessness, venue shopping, ratcheting down (or sheer dismantling or detaining) of regulation, and the capture of value(s). Earthily put: the fact that some are to pay – and pay dearly – for the reckless follies of others. The last 15 years, with the turn of the century from bio to nano91, has been marked by a flurry of activity in science governance, and more specifically by a strong and increasing take-up in EU institutions of STS inputs and insights regarding the relationship between science, society and policy. It is not clear exactly how much this had to do with the narrative of GM debacle, needing to learn, and the advent of nano. But it clearly had to do with key civil servants-cum-academics within the European Commission (themselves trained in STS), who adverted and roped in those thoughts and thinkers (cf. Caracostas 1997, EC 2001, Muldur 2007, Felt 2007). 91 Not allowing this stenography to undervalue the importance of technological convergences – nor indeed the rise of (nano-)synbio. 261 Hope We acknowledged and celebrated a remarkable change as regards the way emerging technologies are now handled in many societies. No pasarán. The mobilisation against a wave of GMOs due to “terminate” a host of other forms of life has succeeded in averting a particular set of looming futures. Another world was possible – and another world has come to pass. But the celebration, albeit in order, is far from untarnished. Learning has taken place, in every quarter, and now new technologies are knocking on the door (or indeed coating it already). More care, more precaution, more deliberation, more service (lip and otherwise) being paid. It seems that indeed juggernauts can no longer roll out una ended. They come along with a whole throng of flag-bearers, scouts, interpreters and palm leaf wavers. They come in peace. The path they thread is rich with speed bumps and forks and scenic points. Juggernauts can no longer roll out una ended. Unless they are very very small, that is. The basest framing of the organized “engagement” is that it is premised on consensus and on the decisionist model (Dratwa 2008). We have seen how the leitmotiv of the participation trap weighs on the “engagement”, as regards the public at large, ethics and the social sciences, and individual researchers that are embedded and confined to a given role. Here it is useful to conceive of responsibility as recalcitrance, recalcitrance with regard to instructions or to an imposed disciplinary, sectoral, institutional, profession- or role-dictated “logic of appropriateness”92. There is an increasing realization in professional ethics regarding the limitations of ELSA. Rather than focussing on risks and costs and benefits, ethics is to reflect on how these are and can be distributed. More than that, rather than tackling hurdles standing in the way of further technological development, what ethics and social sciences are embarking upon is a far-reaching inquiry on what future we 92 For an exploration of the diverse meanings of responsibility in the EU context and beyond, cf. (Dratwa 2008, Eberhard 2008). 262 want to live in together, how that vision can be constructed, and how that future can be constructed. This endeavour is rooted in the “things” themselves, the objects of nano-research with their ins and outs rousing the practices and practicians to which the inquiry pertains on the ground. This endeavour is also rooted in values (of researchers, of agenda-se ers, of all of us together) in a triple sense: that of a deliberation on “our common future”, on what do we value (or care for) and how, on our values, explicit and implicit; that of individual reflexivity, questioning, evaluation and valuation; and that of the commixing of facts and values that is those very “things” (what values do they embody and do they convey, what worlds do they make possible and do they foreclose) (cf. also Dratwa 2007b)93. L’imagination au pouvoir means above all that our imaginaries and alternatives – our futures – cannot be entrusted to the few, whatever their lab, whatever their intentions. Human enhancement, military applications, grim wildcards should all be embraced in the valuation, but not confiscate the imaginaries and h ack the a ention away from what is actually going on on the (research and research policy) lab floors. Here again we must draw lessons from the big lure, from the metaparticipation-trap, and recall the curious disconnect between the plethora of nano-enabled products on the market and the debates focussed on objects that are not only far from reality but also conjured up by the few rather than the many. This can thus be developed succinctly in a series of three incitements or safeguards: hegemonic risk discourses cannot be let to crowd out reflections about desirable goals; neither catastrophic threats nor beguiling promises can be let to crowd out alternative imaginaries (alternative science – and other – fictions); and the envisioning of the future, especially when it tends to become absorbed in forecasting and back-casting utopian/dystopian visions, cannot be let to crowd out the here and now (just like a ention to future generations cannot be paid in the ignorance of present generations, however absent). 93 It is in that perspective that innovation needs to bring “added value” and that it ought rightly to be termed a “creation of value”. Be it under the head of co-production or users’ involvement, S&T innovations can and should o er those who are in contact with – or a ected by – them “handles” or means of (re)appropriation. Such was the great failing in the GM case, epitomized by the terminator figure, where value(s) were captured by the few. Indeed such is the darker side of “collective experimentations”, with the imbalances between the experimenters and the experimentees. 263 As regards “responsible development”, policy statements posit it as the adopted approach or as an achievable good state to be a ained through deliberation among all actors, public participation and social sciences’ “engagement”. In either case, it is presented as desirable and unproblematic. But in fact it should be questioned in every way. Firstly as regards its achievability: it is be er to see it as a constant struggle (if not puzzle), a constant call to reflection and a ention, a horizon. Secondly and more fundamentally as to its substantive implications: what is its actual meaning and what are the practices that it hosts (and who, if anyone, does it hold to what account). Thirdly and most radically as to the drivers and desires which underpin it: who wants this and why? Is this what we want? Responsible innovation, and in particular the responsible development of nano, cannot be taken to imply a form of responsibility extended to all (which is to say, to no one); it cannot be taken to convey the advent of nano’s benefits without their risks and the equitable distribution of those benefits throughout societies (“good nano for all”94); it cannot be taken to resolve the twin predicament of Weber’s ethics of responsibility (the intractability of consequences and the disjunction between actual answerability and future answerability (i.e. the intractability of those to answer to)). Quite the contrary, it is precisely about recognizing the aporetic nature of these three claims, about recognizing that these promises cannot be made good on. And indeed it is one of the main achievements of the current debates on emerging technologies – in STS, in ELSA, and in the science policy community at large – to have led to the increasingly widespread recognition of these limits. This represents a valuable step back from the ultimate promise, a step back from the brink. And a move towards precaution, towards the acute awareness of the doubting alongside the acting. 94 To quote and pay tribute to the key concern highlighted on the front page of Upstream Nano, the email list for public engagement research on nanotechnology, h p://upstreamnano.wordpress.com/about/ last retrieved 30 November 2010. 264 Références Barry A., Political Machines: Governing a Technological Society, London, The Athlone Press, 2001. Beck U., Gegengi e: die organisierte Unverantwortlichkeit, Frankfurt am Main, Suhrkamp, 1988. Beck U., Giddens A. and Lash S., Reflexive Modernization: Politics, Tradition and Aesthetics in the Modern Social Order, Cambridge, Polity Press, 1994. Bond P.J., “Responsible Nanotechnology Development”, in Swiss Re (ed.), Nanotechnology: ’Small Size – Large Impacts ? ’, Zürich, Swiss Reinsurance Company, 2005, pp. 7-8. Caracostas P. and Muldur U., Society, The endless frontier, Luxemburg, OPOCE, 1997. Dewey J., The Public and its Problems, Athens, Ohio University Press, 1927. Doubleday R., “The laboratory revisited: academic science and the responsible governance of nanotechnology”, Nanoethics 1(2), 2007, pp. 167-176. Doubleday R. and Wynne B., “Despotism and democracy in the UK: experiments in reframing relations between the state, science and citizens”, in Jasano S. (ed.), Reframing rights: constitutional implications of technological change, Cambridge, MIT Press, 2011. Dratwa J., “Taking Risks with the Precautionary Principle: Food (and the Environment) for Thought at the European Commission”, Journal of Environmental Policy and Planning (Special Issue on Risk and Governance) 4(3), 2002, pp. 197-213. Dratwa J., “Social learning at the European Commission and the Codex Alimentarius”, in Reinalda B. and Verbeek B. (eds.), Decision Making within International Organizations, London and New York, Routledge, 2004. Dratwa J., “Risque, Rixe, Rhizome : Guerre et Paix avec l’Analyse des Risques et les Organisations Internationales”, in Kermisch C. and Ho ois G. (eds.), Techniques et Philosophies des Risques, Paris, Vrin, 2007a. Dratwa J., “Analysing public policies for research and innovation: adding value with Europe”, in Piech K. (ed.), Knowledge and innova265 tion processes in Central and East European economies, Warsaw, The Knowledge & Innovation Institute, 2007b, pp. 63-82. Dratwa J., “Public Action and Collective Experimentation: What Europe Through Proof?”, in Eberhard C. (ed.), Traduire nos responsabilités planétaires, recomposer nos paysages juridiques, Bruxelles, Bruylant, 2008, p.377-405. Dratwa J., “Analysing Community Policies”, in Muldur U. et al. (eds.), European Science And Technology Policy, London, Edward Elgar, 2009, pp. 87-103. Dratwa J., “Representing Europe with the Precautionary Principle”, in Jasano S. (ed.), Reframing rights: constitutional implications of technological change, Cambridge, MIT Press, 2011a. Dratwa J., “Doublethink, the strength of ignorance, and controlling the past: Alternative Collective Experiments and Cosmopolitical Epistemologies”, in Eberhard C. (ed.), Le courage des alternatives : perspectives juridiques et philosophiques - The courage of alternatives: legal and philosophical perspectives, Bruxelles, Bruylant, 2011b. Dratwa J. and Muldur U., “Impact Assessment: What For?” – “Analyse d’Impact : Pour quoi faire ?”, Cahier du GRASPE (Groupe de Réflexion sur l’Avenir du Service Public Européen) 8, 2006. European Commission (EC), White Paper on European governance, COM(2001)428, 2001. Ezrahi Y., The Descent of Icarus: Science and the Transformation of Contemporary Democracy, Cambridge, Massachuse s, Harvard University Press, 1990. Felt U. et al., Taking European Knowledge Society Seriously, Report of the Expert Group on Science and Governance to the Science, Economy and Society Directorate, Directorate-General for Research, European Commission, EUR 22700, 2007. Jasano S., “In a Constitutional Moment: Science and Social Order at the Millenium”, in Joerges B. and Nowotny H. (eds.), Yearbook of the Sociology of Sciences, Dordrecht, Kluwer, 2001. Kearnes M., Grove-White R., Macnaghten P., Wilsdon J. and Wynne B., “From Bio to Nano: Learning Lessons from the UK Agricultural Biotechnology Controversy”, Science as Culture 15(4), 2006, pp. 291–307. Kearnes M. and Rip A., “The Emerging Governance Landscape of Nanotechnology”, in Gammel S., Lösch A. and Nordmann A. (eds.) 266 Jenseits von Regulierung: Zum politischen Umgang mit der Nanotechnologie, Berlin, Akademische Verlagsgellscha , 2009. Latour B., La science en action : Introduction à la sociologie des sciences, Gallimard, Paris, (1995) [1987 for the US edition], 1989. Latour B., Nous n’avons jamais été modernes, la Découverte, Paris, 1997 [1991]. Latour B., “Esquisse d’un parlement des choses”, Ecologie politique 10, 1994. Latour B., “Moderniser ou Ecologiser ? A la recherche de la ‘septième’ cité”, Ecologie politique 4(1), 1995. Latour B., Politiques de la Nature, la Découverte, Paris, 1999a. Latour B., Pandora’s Hope, Cambridge, Harvard University Press, 1999b. Latour B., “From ‘ma ers of facts’ to ‘states of a airs’: Which protocol for the new collective experiments?“, in Schmindgen H., Geimer P. and Dierig S. (eds.), Kultur im Experiment – Experimental Cultures, Berlin, Kulturverlag Kadmos, 2004. Lezaun J. and Soneryd L., “Government by Elicitation: Engaging Stakeholders or Listening to the Idiots?” Discussion Paper No. 34, London, CARR, London School of Economics, 2006. Lezaun J. and Soneryd L., “Consulting citizens: technologies of elicitation and the mobility of publics”, Public Understanding Science 16, 2007, pp. 279–297. Macnaughten P., Kearnes M. and Wynne B., “Nanotechnology, governance and public deliberation: what role for the social sciences?”, Science communication 27(2), 2005, pp. 268-291. Muldur U. et al., A New Deal, The Hague and New York, Springer, 2007. National Research Council, A Ma er of Size: Triennial Review of the National Nanotechnology Initiative, Washington, D.C., National Academies Press, 2006. Rejeski D., “Preface”, in Sandler R., Nanotechnology: The Social and Ethical Issues, Washington DC, Woodrow Wilson International Center for Scholars, 2009. Roco M. and Bainbridge W.S. (eds.) Societal Implications of Nanoscience and Nanotechnology, Boston, Kluwer, 2001. 267 Royal Society/Royal Academy of Engineering (RS/RAE), Nanoscience and Nanotechnologies: Opportunities and Uncertainties, Report from the Royal Society and the Royal Academy of Engineering, London, 2004. Sco J., Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed, New Haven, 1998. Stirling A., “’Opening up’ and ‘closing down’: Power, Participation, and Pluralism in the Social Appraisal of Technology”, Science, Technology & Human Values 33, 2008, pp. 262-294. Stilgoe J., Nanodialogues — Experiments in public engagement with science, Demos, London, 2007. Wynne B., “Public Participation in Science and Technology: Performing and Obscuring a Political-Conceptual Category Mistake”, East Asian Science, Technology and Society 1(1), 2007, pp. 99–110. 268 The quest for the “right” impacts of science and technology. An outlook towards a framework for responsible research and innovation René von Schomberg95 Introduction In this contribution I will proceed by placing Technology Assessment within the context of a broader societal quest for the “right” impacts of science and technology and the imperative of governmental bodies to make “impact assessments” part and parcel of the planning and justification of their major activities. I will do that from a European perspective. The basis of a systematic use of various assessments and foresight will pave the way for a framework for responsible research and innovation on which I will make a proposal. In the context of European policy making, Technology Assessments, ideally, have to merge with other types of impact assessments, now the success or failure of major public policies increasingly depend on anticipated impacts of chosen scientific and technological options. Practically, this merging is taken place, both driven by a «policy pull» for impact assessments and by the practice of «assessors» itself. This can be illustrated as follows: 1. The European Commission has to deliver general impact assessments on all its major legislative proposals within the framework for be er regulation since the year 2000. This includes also ex-ante impact assessments for the Framework Programmes for Research. These impact assessments include among other, social, environmental and economic impacts. These circumstances also bring in focus the interwoveness of Technology Assessment with broader impacts: results of Technology Assessments can and should, namely, feed into impacts assessments of prospective, planned research activities. There 95 European Commission 269 is in other words, a certain «policy pull» to merge and use impact assessments of various nature. 2. In the tradition of Technology Assessment, there has been a preoccupation with assessing the intended and non-intended consequences of the introduction of new technologies. TA practitioners had, in order to be able to deliver such assessments, increasingly to interfere with or work together with academic work relating to other assessment activities such as environmental and sustainability impact assessments. Vice versa, those who were engaged with sustainability assessments or even with public policy evaluation or broad impact assessments of important legislative proposals cannot ignore the role of science and technology and had to turn to the outcomes of technology assessments. In other words, the practices of «assessors» already show a certain interwovenness of the various assessments. The «policy pull» dimension has, however, a reconfiguring impact on the «type» of impacts we wish to assess. Whereas technology assessments have traditionally addressed the “negative consequences” in terms of risks and adverse e ects of technologies, the focus of a ention within policy is predominantly to demonstrate potentially positive impacts of future outcomes of public policy including research policy. «Negative impacts» are dealt within the context of broader cost-benefit analysis or within specialized fields of policy, such as risk management and risk assessments. The quest for positive or the «right» impacts is a much more overarching feature of public policy. This brings us naturally to the question: what are the «right» impacts and how can policy legitimately pursue this quest for the «right» impacts? The subsequent question is then of course how these impacts should be assessed on the basis of various impact assessments including technology assessments. In the following, I will answer these questions and how they can be tackled within a new framework for responsible research and innovation. Defining the “right” impacts of science and technology policy Some philosophers of technology have recently argued that science should move beyond a contractual relationship with society and join 270 in the quest for the common good. In their view, the “good in science, just as in medicine, is integral to and finds its proper place in that overarching common good about which both scientists and citizens deliberate” (Mitcham 2000). This view may sound a ractive, but it fails to show how various communities with competing conceptions of the “good life” within modern societies could arrive at a consensus and how this could drive public (research) policy. Moreover, an Aristotelian conception of the good life is di cult to marry with a modern rights approach, whereby, for instance in the case of the European Union, the European Charter of Fundamental Rights provides a legitimate and actual basis for European Public Policy. Nonetheless, their point of departure remains challenging: “We philosophers believe that publicly funded scientists have a moral and political obligation to consider the broader e ects of their research; to paraphrase Socrates, unexamined research is not worth funding” (Frodeman 2007). The US National Science Foundation makes assessment of proposals in terms of «broader impacts» in the framework of considering research proposals worth of funding. Under the European Framework Programmes for Research, there is a long tradition of awarding research grants, among others, on the basis of anticipated impacts. Indeed, already at the stage of evaluation of research proposals we are looking for particular impacts. Currently, expected impacts of research topics which are subject of public calls for proposals, are listed in the work programmes of 7th Framework Programme. But what are legitimate normative assumptions to make these expected impacts, the right impacts allowing us to steer public research agenda’s?96 We can’t make an appeal to conceptions of the good life, but we can make an appeal to the normative targets which we can find in the Treaty on the European Union. These normative targets have been democratically agreed upon and, in fact, provide the legitimate basis for having a public framework programme for research at the European Level. From the Treaty on the European Union [in particular article 2] we can derive the following: - “The Union shall (…) work for the sustainable development of Europe based on balanced economic growth and price stability, 96 Duncan den Boer, Arie Rip and Sylvia Speller propose the use of a new methodology, a so called fictive script, which could improve the formulation of expected impacts of research agendas and research proposals. See (den Boer 2009). 271 a highly competitive social market economy, aiming at full employment and social progress, and a high level of protection and improvement of the quality of the environment. It shall promote scientific and technological advance. - It shall combat social exclusion and discrimination, and shall promote social justice and protection, equality between women and men, solidarity between generations and protection of the rights of the child. - To promote (…) harmonious, balanced and sustainable development of economic activities, a high level of employment and of social protection, equality between men and women, sustainable and non-inflationary growth, a high degree of competitiveness and convergence of economic performance, a high level of protection and improvement of the quality of the environment, the raising of the standard of living and quality of life, and economic and social cohesion and solidarity among Member States”. Rather than pre-empting views and conceptions of the “good life”, the European Treaty on the European Union thus provides us with normative anchor points. Those normative anchor points and their mutual relationship provide thus a legitimate basis for defining the type of impacts, or the “right” impacts of research and innovation should pursue (see Figure 1 below). The subsequent question is how the normative anchor points are reflected [or neglected] in the development of technologies. A short historical perspective can shed some light on this question. The responsible development of technologies: A historical perspective The formation of public opinion on new technologies is not a historically or geographically isolated process; rather, it is inevitably linked to prior (national and international) debate on similar topics. Ideally, such debates should enable a learning process – one that allows for the fact that public opinion forms within particular cultures and political systems. It is therefore not surprising that, in the case of 272 relatively new technologies, such as nanotechnologies, the nature of public debate and its role in the policy making process is articulated against a background of previous discussion of the introduction of new technologies (such as biotechnology), or that specific national experiences with those technologies become important. In particular, the introduction of genetically modified organisms (GMOs) into the environment is a frequent reference point within Europe (whereas more frequently absent in such debates in the USA). This historical development of policy frameworks can be followed through the ways in which terms are used and defined: initially, definitions are o en determined by the use of analogies which, in the initial stages of the policy process, serve to “normalise” new phenomena. In a number of countries, for instance, GMOs were initially regulated through laws which deal with toxic substances. Subsequently such analogies tend to lose their force as scientific insights on the technology grows and distinct regulatory responses can be made. GMOs, for example, eventually became internationally defined as “potentially hazardous”, and, in the European Union, a case-by-case approach was adopted under new forms of precautionary regulation. This framework was developed over a period of decades, and thereby took into account the ever-widening realm in which GMOs could have e ects (developing from an exclusive focus on direct e ects to eventually include indirect and long-term e ects). It is not, however, solely the scientific validity of analogies which determines definitions and policy: public interest also plays an important role. Carbon dioxide, for instance, has changed from being viewed as a gas essential to life on earth to being a “pollutant”. (The latest iteration of this evolution came just prior to the Copenhagen summit on climate change in December 2009, when the American Environmental Protection Agency defined greenhouse gases as a “threat to public health” – a definition which has important implications for future policy measures.) In the case of relatively new or emerging technologies, such as nanotechnology policy, then, it seems likely that we are still in the initial phases of development. There are not, so far, any internationally agreed definitions relating to the technology (despite repeated announcements of their imminence), and nanoparticles continue to be defined as “chemical substances” under the European regulatory framework REACH. (Analogies are also made with asbestos, as a way 273 to grasp hold of possible environmental and human health e ects, but these are contested. There is no certainty that they will become the definitive way to frame risk assessments.) To cite one topical example, nanotechnology in food will not start its public and policy life with a historically blank canvas but will be defined as a “novel food” under a proposal for renewing the Novel Foods regulation. (The Novel Foods regulation came into existence in the 1990’s with foods containing or consisting of GMO’s in mind). Recent proposals for renewing regulation on food additives (a er a first reading of the European Commission’s proposal in the European Parliament in April 2009) have made this the first piece of regulation to include explicit reference to nanotechnology. Public debate that articulates particular interests and scientific debate on the validity of analogical approaches to nanotechnologies will inevitably continue to shape the ways in which nanotechnologies are addressed in regulation and policy. But the governance of the technology, as well as debate around it, has to be seen within its historical context. How did stakeholders behave in previous cases, and what can we learn from these cases with regard to new technologies such as nanotechnologies? One answer to this question might point to a learning process around the governance of new technologies, and the development of a consensus that early involvement of both stakeholders and the broader public is of the utmost importance. The European Commission has responded to this with its adoption of a European strategy and action plan on nanotechnologies, which addresses topics from research needs to regulatory responses and ethical issues to the need for international dialogue. This strategy above all emphasizes the “safe, integrated and responsible” development of nanosciences and nanotechnologies – something which the European Research project DEEPEN has drawn upon in articulating how “responsible development” might take its course within deliberative fora97. We can conclude that the “safe, integrated and responsible” development gives us a new, overarching anchor point for making for instance, nanotechnology policy. Obviously, this has to be built on the basic anchor points in the treaty, concerning “a high level of protection of the environment and human health”, applying precaution etc. 97 See the projects contribution in (von Schomberg 2010). 274 These normative anchor points, in their mutual interdependency, should guide the impact assessments of technologies, and also the notion of desirable expected impacts of research. This brings us to how we can identify these “right” impacts of research and technologies. The use of foresight and ability to identify plausible outcomes becomes then indispensible. Identifying Plausibility and use of Foresight One can distinguish, within the thought tradition of Charles Sander Peirce, the plausibility of knowledge claims from the predictability of individual statements in the context of scientific discourse (von Schomberg 1993). For instance, I have characterized epistemic discussions in science as discussions triggered by controversies arising from the acquisition of new scientific knowledge, whereby scientific methods and the fundamental understanding of the nature of the subject ma er o en become subject to dispute themselves. In such cases, the authorities within scientific disciplines are mutually challenged in terms of which discipline can claim to o er the best solution to the problem in question. Recent examples of epistemic discussions in science include the debates between molecular biologists and ecologists on the risks of GMO’s, the debate on climate change as either being induced by human interventions or as caused by natural cycles, and the debate between K. Eric Drexler and Richard Smalley on the plausibility of molecular nanotechnology and engineering. Typically, epistemic discussions induce public debate long before any scientific closure on the issue is to be expected and provides a significant challenge for developing reasonable public policy. Which group of scientists can we believe and should we endorse? Plausible, epistemic approaches on the acquisition of knowledge in science are associated with problem-definitions, which in turn frame (although, o en, only implicitly) policy approaches. Unidentified and unacknowledged epistemic debate can result in unbalanced public policy: the until recently not uncommon «wait and see» character of public policies of nation states on climate change or the concentration on the promises and blessings of all kinds of new technologies provide examples whereby public policy takes sides prematurely in a scientific debate that is still unfolding. 275 It is therefore of utmost importance to be able to identify such epistemic discourses and knowledge gaps within the various plausible options on the table in order to be able to have a more robust outlook on potential technological solutions — and in order to keep open the possibility for alternative developments. Foresight projects can make a contribution towards the possibility that alternative developments might remain in sight for possible public policy responses and towards enabling democratic choices at early stages of technological development. The use of foresight projects can help us to overcome the o en too narrowly conceived problem definition scientists implicitly work with. Social scientists could do some heuristic work by spelling out these problem definitions. For example, an imaginary nanotechnology enabled product of a «disease detector» (a device which would enable disease detections before symptoms emerge) is probably based on a problem definition that it is a medical imperative that any «disease» needs to be identified, irrespective of available treatment and irrespective whether the individual in question would define himself or herself as ill and possibly sidetracks preventive approaches based adopting particulars lifestyles. Moreover, problem definitions scientists implicitly work with o en correspond to a centuries old, general standard list of fundamental human needs (which represent overarching problem definitions) to which new technologies will presumably provide answers in a given future: food and energy supply, human health, security and since a half a century also “the environment.” The case of recent technologies such as nanotechnology is in no way di erent, especially if one considers the public reasons for its funding. Because of its enabling and diverse character, it would open a future with very e cient solar energy, nanorobots cleaning our blood vessels, water sanitation solutions for the «third world», etc. The link between options, which may only look plausible at a particular stage of development in science and technology, and particular ways of social problem solving, is a perplexing one. For instance, it seems obvious that our world food problem is principally not a technological problem but a political-economic distribution problem. Yet, the increase of land use for biofuels may well cause a situation whereby a political-economic solution could become increasingly less likely, if not impossible, before it ever arrived at a (world) policy level in a historic time period in which this type of 276 solution still was an option. Pu ing our a ention — and with it our hopes and/or fears — primarily on an accelerated form of innovation by (nano) technological means is therefore irresponsible. In order to help mitigate this, foresight projects could benefit from a prior analysis of potential relationships between types of plausible technological pathways and particular (social) problem-definitions, rather than starting with “naïve product scenes,” which are, as Selin98 outlines them, “short vigne es that describe in technical detail, much like technical sales literature, a nano-enabled product of the future,” thereby methodologically ignoring the underlying problem definitions. It is also important to make an analysis of the linkages between technological pathways and social problem definitions and how they may well get the support of particular stakeholders or give a boost to particular ideologies within public policies. A process of “negotiating plausibility” eventually means reaching consensus on such problem definitions. Minimally, we could help to avoid continually funding developments which are later shown to be fictious; but more constructively, we could create deliberative forms of decision making on the problem definitions themselves and place them in a wider perspective. Deliberative approaches to the policy making process Public engagement projects such as the Nanofutures99 or the Nanosec project100 adopt both a foresight and a deliberative approach, which is to be welcomed. It is, however, important to note that the reason for this approach is not limited to the normative rationale of a more democratic and transparent decision making process. The deliberative foresight approach can also improve the quality of the 98 Cynthia Selin, Negotiating Plausibility : Intervening in the Future of Nanotechnology, Arizona State University, h p://www.cspo.org/projects/ plausibility/files/read_Selin-Negotiating-Plausibilty.pdf 99 h p://cns.asu.edu/program/r a3.htm 100 Nanotechnologies for tomorrow’s society (nanosoc): The nanosoc research consortium seeks to understand and address these issues by calling for an early and informed dialogue between nanotechnology researchers, social scientists, technology assessment experts, industry representatives, policy makers, non-governmental agencies, and interested citizens in Flanders, Belgium. h p://www.nanosoc.be/ResearchDesign-en.asp 277 decision-making process and help to identify knowledge gaps for which we would need to go back to science. A part of this potential “quality” gain gets lost when we limit deliberation to stakeholder or public deliberation, although these constitute necessary components. An immediate normative deficiency of stakeholder deliberation is that the involved actors do not necessarily include the interest of nonincluded actors. That said, foresight exercises need to be progressively embedded in public policy in order to make a real qualitative step forward. We cannot rely on stakeholder and/or public deliberation as such, since epistemic debate in science is immediately mirrored by stakeholder and public dissent in society. Policy makers are equally challenged by dissent in science as by dissent among stakeholders and the public. If we deal unreflexively with public debate induced by epistemic debate, an improper politicising e ect inevitably occurs and translates into an irrational struggle concerning the “right” data and the “most trustful and authoritative scientists” in the political arena. Interest groups can pick and choose the experts which share their political objectives. A functional deliberative approach, apart from public and stakeholder deliberation, includes a deliberative extension of the science-policy interface. Such an interface institutionalises particular deliberation based on normative filters such as notions of proportionality and precaution (or as we have in the EU, the requirement to implement the precautionary principle in policy frameworks), various forms of impact analysis, such as sustainability impacts, cost-benefit analysis, environmental policy impact analysis etc., the application of particular consensual norms or prioritisation of norms (for instance that health and environment takes precedence over economic considerations) and the application of normative standards for product acceptability. These normative filters are in themselves results of public and policy deliberation and enable consensual decision making at the public policy level. Although democratic societies have these deliberative filters in place, they need to be consciously applied and be subject of public monitoring. Currently I see a procedural gap, especially, when it comes to identification of knowledge gaps and the assessment of the quality of the available knowledge. I have, therefore, argued for a deliberative form of “knowledge assessment” at the science-policy interface to allow for a qualified knowledge input (von Schomberg 2007). 278 Moreover, in the context of scientific uncertainty and production of knowledge by a range of di erent actors, we need knowledge assessment mechanisms which will assess the quality of available knowledge for the policy process. We are currently forced to act upon developments [in terms of public policy] while at the same time being uncertain about the quality and comprehensiveness of the available scientific knowledge and the status of public consensus. A deliberative approach to the policy-making process would complement and connect with deliberative mechanisms outside policy. The outcomes of ongoing knowledge assessment101 should feed into other assessment mechanisms and into deliberation on the acceptability of risk, the choice of regulatory frameworks or the measures taken under those frameworks (see Figure 2). Knowledge assessment following the result of foresight exercises would then be important tools in se ing out arguments for the necessity and nature of future legislative actions. Figure 2 : A non-directional cycle of assessment mechanisms within the policy making process fed by knowledge assessment processes. At the same time, we have to ensure that science policies are consistent with other public policies: The challenge is not only to focus on the conditions for good and credible science but to make knowledge production, dissemination and use a key factor for virtually all public policy goals. Both impact assessments and assessments of expected 101 In accordance with the procedures developed in (von Schomberg 2007, von Schomberg 2005). 279 impacts of research should reflect this. In the following section I will describe the necessary elements for a framework for responsible research and innovation which systematically takes up the quest for «the right impacts». Responsible Research and Innovation I propose the following working definition for Responsible Research and Innovation Definition: Responsible Research and Innovation is a transparent, interactive process by which societal actors and innovators become mutual responsive to each other with a view on the (ethical) acceptability, sustainability and societal desirability of the innovation process and its marketable products (in order to allow a proper embedding of scientific and technological advances in our society) There is a significant time lag (this can be several decades) between the occurrence of technical inventions (or planned promising research) and the eventual marketing of products resulting from RTD and innovation processes. The societal impacts of scientific and technological advances are di cult to predict. Even major technological advances such as the use of the internet and the partial failure of the introduction of GMOs in Europe have not been anticipated by governing bodies. Early societal intervention in the Research and Innovation process can help to avoid that technologies fail to embed in society and/or help that their positive and negative impacts are be er governed and exploited at a much earlier stage. I see two interrelated dimensions: the product dimension, capturing products in terms of overarching normative anchor points and a process dimension reflecting a deliberative democracy. The normative anchor points should be reflected in the product dimension: - ethically acceptable: refers to a mandatory compliance with the fundamental values of the EU charter on fundamental rights [right for privacy etc] and the safety protection level set by the EU. This may sound obvious, but the implementing practice of ICT technologies have already demonstrated in various cases the neglectance of the fundamental right for privacy and data protection; 280 - sustainable: contributing to the EU’s objective of sustainable development; - socially desirable: «socially desirable» captures here the relevant normative anchor points in the Treaty, among other, quality of life, equality among men and women etc. It has to be noted that a systematic inclusion of these anchor points would go clearly beyond simple market profitability, although the la er could work out as a precondition for the products’ viability in market competitive economies. However, it would be consistent with the EU treaty to promote such product development through financing RTD actions. In other words, at this point Responsible Research and Innovation would not need any additional policy guidelines, but simply would require a consistent application of the EU’s fundamentals to the research and innovation process reflected in the Treaty on the European Union. Product dimension Products which are marketed throughout a transparent process should thus be defined in terms of a high level of protection to the environment and human health, sustainability (environmental and economically) and societal desirability. Deployment of Methods: 1. Use of Technology Assessment and Technology Foresight in order to anticipate positive and negative impacts or, whenever possible, define desirable impacts of research and innovation both in terms of impact on consumers and communities. Se ing of Research priorities with their anticipated impacts need to be subject to a societal review. (This implies broadening the review of research proposals beyond scientific excellence and includes societal impacts). Particular Technology Assessment methods also help to identify societal desirable products. The advantage is that Technology Assessment and Technology Foresight can reduce the human cost of trial and error and make advantage of a societal learning process of stakeholders and technical 281 innovators. This will lead to products which are (more) societal robust. 2. Application of Precautionary Principle The precautionary principle is embedded in EU law and applies especially within EU product authorization procedures (e.g. REACH, GMO directives, etc). The precautionary principle works as an incentive to make safe and sustainable products and allow governmental bodies to intervene with Risk Management decisions (such as temporary licensing, case for case decision making, etc.) whenever necessary in order to avoid negative impacts. As argued above, the responsible development of new technologies must be viewed in its historical context. Some governance principles have been inherited from previous cases: this is particularly notable for the application of the precautionary principle to the field of nanosciences and nanotechnologies. This principle is firmly embedded in European policy, and is enshrined in the 1992 Maastricht Treaty as one of the three principles upon which all environmental policy is based. It has been progressively applied to other fields of policy, including food safety, trade and research. The principle runs through legislation that is applied to nanotechnologies, for example in the “No data, no market” principle of the REACH directive for chemical substances, or the pre-market reviews required by the Novel Foods regulation as well as the directive on the deliberate release of GMOs into the environment. More generally, within the context of the general principles and requirements of the European food law it is acknowledges that “scientific risk assessment alone cannot provide the full basis for risk management decisions”102 – leaving open the possibility of risk management decision making partly based on ethical principles or particular consumer interests. 102 Regulation (EC) no 178/2002 of the European Parliament and of the Council of 28 January2002 laying down the general principles and requirements of food law, establishing the European Food Safety Authority and laying down procedures in ma ers of food safety states “(19)it is recognised that scientific risk assessment alone cannot, in some cases, provide all the information on which a risk management decision should be based, and that other factors relevant to the ma er under consideration should legitimately be taken into account including societal, economic, traditional, ethical and environmental factors and the feasibility of controls”. 282 In the European Commission’s Recommendation on a Code of Conduct for nanosciences and nanotechnologies research, the principle appears in the call for risk assessment before any public funding of research (a strategy currently applied in the 7th Framework Programme for research). Rather than stifling research and innovation, the precautionary principle acts within the Code of Conduct as a focus for action, in that it calls for funding for the development of risk methodologies, the execution of risk research, and the active identification of knowledge gaps. Under the Framework Programme, for example, an observatory has been funded to create a network for the communication and monitoring of risk. 3. Use of demonstration projects: moving from risk to innovation governance These projects should bring together actors from industry, civil society and research to jointly define an implementation plan for the responsible development of a particular product to be developed within a specific research/innovation field, such as information and communication technology or nanotechnology. Responsible innovation should be materialised in terms of the research and innovation process as well as in terms of (product) outcomes. The advantage is that actors can not exclusively focus on particular aspects (for instance CSO addressing only the risk aspects) but have to take a position on the innovation process as such. Thus allowing a process to go beyond risk governance and move to innovation governance. Process dimension The challenge is to arrive at a more responsive, adaptive and integrated management of the innovation process. A multidisciplinary approach with the involvement of stakeholders and other interested parties should lead to an inclusive innovation process whereby technical innovators become responsive to societal needs and societal actors become co-responsible for the innovation process by a constructive input in terms of defining societal desirable products. Deployment of Methods 1. Deployment of Codes of Conduct for Research and Innovation. 283 Codes of Conduct in contrast with regulatory interventions allow a constructive steering of the innovation process. It enables the establishment of a proactive scientific community which identifies and reports to public authorities on risks and benefits in an early stage. Codes of Conduct are particular useful when risks are uncertain and when there is uncertain ground for legislative action.( Nanotechnology for example) Codes of Conduct also help to identify knowledge gaps and direct research funds towards societal objectives. Policy development treads a fine line: governments should not make the mistake of responding too early to a technology, and failing to adequately address its nature, or of acting too late, and thereby missing the opportunity to intervene. A good governance approach, then, might be one which allows flexibility in responding to new developments. A er a regulatory review in 2008, the European Commission came to the conclusion that there is no immediate need for new legislation on nanotechnology, and that adequate responses can be developed – especially with regard to risk assessment – by adapting existing legislation103. While, in the absence of a clear consensus on definitions, the preparation of new nano-specific measures will be di cult, and although there continues to be significant scientific uncertainty on the nature of the risks involved, good governance will have to go beyond policy making focused on legislative action. The power of governments is arguably limited by their dependence on the insights and cooperation of societal actors when it comes to the governance of new technologies: the development of a code of conduct, then, is one of their few options for intervening in a timely and responsible manner. The Commission states in the second implementation report on the action plan for Nanotechnologies that “its e ective implementation requires an e cient structure and coordination, and regular consultation with the Member States and all stakeholders”104. Similarly, legislators are dependent on scientists’ proactive involvement 103 However, the European Commission will give follow-up to the request of the European Parliament to review all relevant legislation within a period of two years, to ensure safety over the whole life cycle of nanomaterials in products. 104 Commission of the European Communities (2009) Communication from the commission to the council, the European Parliament and the European Economic and Social Commi ee. Nanosciences and Nanotechnologies: An action plan for Europe 2005-2009. Second Implementation Report 2007-2009, Brussels, 29.10.2009, COM (2009) 607 final (citation on page 10). 284 in communicating possible risks of nanomaterials, and must steer clear of any legislative actions which might restrict scientific communication and reporting on risk. The ideal is a situation in which all the actors involved communicate and collaborate. The philosophy behind the European Commission’s code of conduct, then, is precisely to support and promote active and inclusive governance and communication. It assigns responsibilities to actors beyond governments, and promotes these actors’ active involvement against the backdrop of a set of basic and widely shared principles of governance and ethics. Through codes of conduct, governments can allocate tasks and roles to all actors involved in technological development, thereby organising collective responsibility for the field105. Similarly, Mantovani et al106 propose a governance plan which both makes use of existing governance structures and suggests new ones, as well as proposing how they should relate to each other. The European Commissions’ recommendation on a Code of Conduct also views Member States of the European Union as responsible actors, and invites them to use the Code as an instrument to encourage dialogue amongst “policy makers, researchers, industry, ethics commi ees, civil society organisations and society at large”(recommendation number 8 to Member States, cited on page 6 of the Commission’s recommendation), as well as to share experiences and to review the Code at the European level on a biannual basis. It should be considered that such Codes of Conduct would in the future extend its scope beyond research and also address the innovation process107. 2. Ethics as a “Design” factor of Technology Ethics should not be seen as being only a constraint of technological advances. Incorporating ethical principles in the design process of technology can lead to well accepted technological advances. For instance, in Europe, the employment of Body Imaging Technology at Airports has raised constitutional concerns in Germany, among others. 105 Commission of the European Communities (2008), Commission Recommendation of 7 February 2008, on a code of conduct for responsible nanosciences and nanotechnologies research, 7 february 2008 106 See their contribution in (von Schomberg 2010). 107 The European Project NANOCODE makes this point concerning nanosciences and nanotechnologies, see: h p://www.nanocode.eu/ 285 It has found to be doubtful whether the introduction is proportional to the objectives being pursued. The introduction of a “smart meter” at the homes of people in the Netherlands to allow for detection of and optimalisation of energy use, was rejected on privacy grounds, as it would allowed individuals to monitor whether people are actually in their homes. These concerns could have been avoided if societal actors would have been involved in the design of technology early on. “Privacy by design” has become a good counter example in the field of ICT by which technology is designed with a view on taking privacy as a design principle of the technology itself, into account. Yet, practicing it is still rare. 3. Deliberative mechanisms for allowing feedback policymakers: devise models for responsible governance with Continuous feed back from information from Technology Assessment, Technology Foresight and demonstration projects to policy makers could allow for a productive innovation cycle. In addition, as outlined above, “knowledge assessment” procedures have to be developed in order to allow assessing the quality of information within the policy process, especially in areas in which scientific assessments contradict each other or in cases of serious knowledge gaps. (The EC practices this partly with its impact assessments for legislative actions). Knowledge assessment would integrate the distinct cost-benefit analysis, environmental and sustainability impact assessments). In short : models of responsible governance have to be devised which allocates roles of responsibility to all actors involved in the innovation process. 4. Public debate Ongoing public debate and monitoring of public opinion is needed for the legitimacy of research funding and particular scientific and technological advance. Ongoing public platforms should replace one-o public engagement activities with a particular technology and, ideally, a link with the policy process should be established108. 108 This article was the basis of a key note speech at the first annual conference organised by the Netherlands Organisation for Scientific Research on Responsible Research and Innovation, in The Hague, 18-19 April 2011. Appears also in M.Dusseldorp et al., „Te nikfolgen abs ätzen lehren. Bildungspotenziale transdisziplinärer Methoden“. VS Verlag, 2011. 286 FEATURES OF RESPONSIBLE RESEARCH AND INNOVATION Product dimension Process dimension Institutionalisation of Technology Assessment and Foresight Use of Code of Conducts Application of the precautionary principle; ongoing risk assessment; ongoing monitoring Ethics as a design principle for technology Use of demonstration projects: from risk to innovation governance Normative models for governance Ongoing Public debate Références den Boer D., Rip A. and Speller S., “Scripting possible futures of nanotechnologies: A methodology that enhances reflexivity”, Technology in Society 31, 2009, pp. 295–304. Frodeman R. and Holbrook J. B., “Science’s Social E ects”, Issues in Science and Technology, Spring 2007. Mitcham C. and Frodeman R., “Beyond the Social Contract Myth: Science should move beyond a contractual relationship with society and join in the quest for the common good”, Issue in Science and Technology Online, Summer 2000. von Schomberg, R. (ed.), “Controversies and Political Decision Making”, Science, Politics and Morality: Scientific Uncertainty and Decision Making, Dordrecht, Kluwer Academic Publishers, 1993. von Schomberg R., Guimaraes Pereira A. and Funtowicz S., Deliberating Foresight Knowledge for Policy and Foresight Knowledge Assessment, Working document of the European Commission Services, 2005. von Schomberg R., From the ethics of technology towards and ethics of knowledge policy, Working document of the Service of the European Commission, 2007 h p://ec.europa.eu/research/science-society/pdf/ethicso nowledgepolicy_en.pdf. von Schomberg R. and Davies S. (eds.), Understanding public debate on nanotechnologies. Options for Framing Public Policy, Luxembourg, Publication o ce of the European Union, 2010. 287 Nanotechnologies et « innovation responsable » : sur la gouvernementalité d’un concept François Thoreau109 Introduction « Ce paradoxe-là n’est pas le moindre : une révolution des détails qui exige de combiner l’innovation la plus échevelée avec les précautions les plus a entives. » B. Latour, « En a endant Gaïa », Libération, 29 juin 2011 Les nanotechnologies sont l’occasion d’un déplacement des catégories de l’éthique dans le domaine des politiques publiques. Et pour cause, leur développement procède au premier plan d’une volonté politique (Bensaude-Vincent 2009a, pp. 605-606) ; à elle seule, ce e nouvelle donne justifie une appréhension nouvelle des enjeux sociétaux. L’investissement massif des pouvoirs publics est à la hauteur du défi qu’ils entendent relever : s’assurer que l’irruption progressive des nanotechnologies dans la société se fasse de manière « responsable ». Lentement, mais sûrement, l’idée générale d’une « innovation responsable » fait son chemin dans les politiques publiques, en parallèle, et à l’occasion du développement des nanotechnologies (von Schomberg, ce volume). Notre contribution repose donc sur l’hypothèse fondamentale que l’innovation responsable est consubstantielle au développement des nanotechnologies (Laurent 2010, p. 59 s.). Ce e évolution est bien sûr située, c’est-à-dire qu’elle s’inscrit dans un contexte particulier. Par exemple, il serait intéressant de retracer la genèse de ce concept, et les canaux di us par lesquels il tend à s’imposer à l’agenda politique. En particulier, son articulation avec le « principe de précaution », développé dans le sillage des biotechnologies, mériterait de plus amples considérations. Ce n’est toutefois pas l’objet que s’assigne le présent chapitre ; sans perdre de vue l’importance de ces questions, il propose d’aller à la rencontre de 109 Université de Liège 289 « l’innovation responsable », telle qu’elle se trouve actuellement dans les programmes de politique publique relatifs aux nanotechnologies, et d’en proposer une mise en perspective critique. C’est que le discours politique revêt une importance fondamentale, tout comme le choix des mots qui font rece e. Il est entendu que la « parole » politique est fondatrice, au moins dans un régime démocratique, où la confrontation des arguments est l’instrument privilégié de l’action politique (Breton 2000). Le corollaire en est que la nature et la forme de la parole politique en disent long sur l’état de la démocratie. Comme le soutient P. Breton, « La démocratie s’identifie (…) si fortement avec l’exercice de la parole que, lorsque celui-ci recule ou est entravé, c’est la démocratie qui est menacée comme système politique » (Breton 2000, p. 36). Les concepts politiques ne sont pas neutres ; ils s’adressent à des publics qui fluctuent au cas par cas, avec des objectifs à chaque fois di érents. Les dérives ne peuvent être exclues a priori ; à tout moment, les « sorciers du verbe » sont susceptibles de manipuler, tronquer ou escamoter la parole politique. Ainsi, le philosophe B. Méheust nous apprend qu’il faut interroger le statut d’une expression donnée. Que signifie l’association des termes « innovation » et « responsable » ? Selon lui, l’une des formes les plus actuelles du discours politique contemporain est celle de l’oxymore, c’est-à-dire « de ces figures de la conciliation impossible », qui visent à absorber ou résoudre une tension qui travaille notre société (Méheust 2009, p. 7). Selon lui, « le propre de l’oxymore est de rapprocher, d’associer, d’hybrider et/ou de faire fusionner deux réalités contradictoires » (Méheust 2009, p. 117), et de donner des exemples tels que les expressions « développement durable » ou « moralisation du capitalisme ». Peut-on qualifier « l’innovation responsable » d’oxymore ? L’exercice peut être tenté, même s’il s’avère limité, en toute hypothèse, dans la mesure où il nécessiterait des définitions stables à la fois de « l’innovation » et de la « responsabilité ». En revanche, il est possible d’y répondre dans le cas particulier des nanotechnologies et de l’innovation responsable, où ces termes trouvent une définition opérationnelle dans des instruments de politique publique. Ce chapitre propose donc, d’abord, d’identifier une « tension fondatrice » dans l’expression « innovation responsable », telle qu’elle s’épanouit et se déploie dans le contexte des nanotechnologies. Après avoir démontré l’importance politique de ce e question, il se propose 290 d’explorer ce e tension plus en avant. Pour ce faire, les dimensions théoriques de la notion de responsabilité et de ce qu’elle charrie en termes de politique seront examinées, en s’appuyant sur la li érature scientifique et des outils de linguistique. Elle prendra ensuite un tour plus pratique, en se penchant sur les instruments de politique publique propres aux nanotechnologies, en tentant de départager comment « l’innovation responsable » fonctionne dans le concret, dans le cas des États-Unis et de l’Union européenne, et quelle conception de la responsabilité elle stabilise. Éléments pour une gouvernementalité du concept d’« innovation responsable » À la recherche d’un critère distinctif L’« innovation responsable » est un concept développé de manière concomitante au développement des nanotechnologies. C’est un corollaire manifeste de l’investissement massif des pouvoirs publics dans ces processus d’innovation. Dans ce e perspective, pourquoi parler « d’innovation responsable », et non pas d’« innovation » ? Autrement dit, quelle est la portée distinctive du concept ? Les nanotechnologies, sur le plan de l’investissement des autorités publiques, ne di èrent en rien d’autres développements technologiques, planifiés, soutenus et financés par les pouvoirs publics. Ceux-ci, depuis la seconde guerre mondiale, promeuvent activement les innovations scientifiques et technologiques (Bensaude-Vincent 2009b, pp. 2628). Les nanotechnologies ont, pour leur part et dans la lignée de ces programmes d’investissement publics, vocation à être développées « dans l’intérêt national* » (pour reprendre la formule du fameux rapport du Président Clinton et du Vice-Président et Sénateur Al Gore (Clinton 1994)). Il su t pour s’en convaincre de jeter un coup d’œil aux principaux documents stratégiques en matière de nanotechnologies, par exemple la National Nanotechnology Initiative étatsunienne, dans ses di érentes évolutions (NSTC 2000 ; 2004 ; 2007 ; 2011), ou encore le Plan d’action européen (Commission européenne 2005). Dès lors, comment distinguer un système d’innovation, qui serait « responsable », de ces décennies de soutien actif à la recherche et au 291 développement ? Il faut tenter d’identifier la ligne de démarcation, à supposer qu’elle existe, qui indique la rupture entre l’innovation, au sens traditionnel, et « l’innovation responsable », telle qu’elle est en voie de s’instituer dans les politiques publiques. On pourrait postuler que l’innovation responsable entérine une mainmise des pouvoirs publics sur la question de l’innovation, via le développement d’une Big Science et de la recherche stratégique (Bensaude-Vincent 2009b, p. 31, ss.). Ainsi, la science ne serait plus l’a aire des acteurs scientifiques et industriels qu’à la marge ; si l’impulsion majoritaire vient dorénavant des pouvoirs publics, alors ils se devraient d’adapter l’exercice de l’innovation aux contraintes propres à l’exercice de la puissance publique, en l’occurrence en faisant montre de « responsabilité ». Ce e hypothèse n’est pas correcte ; outre qu’elle se méprend sur le rôle crucial des acteurs extra-étatiques dans l’innovation en matière de nanotechnologies (Vinck 2009), le discours sur l’innovation responsable nous paraît émerger dans le sillage du « principe de précaution » et de l’anticipation de conséquences induites, mais non contrôlées, du développement technologique. Ainsi, « l’innovation » elle-même ne change pas radicalement de nature suite à ce e intervention des autorités publiques, qui ne se distingue dans le cas des nanotechnologies que par son degré élevé110. Ce qui change, c’est l’anticipation, par l’ensemble des acteurs concernés (politiques, industriels, scientifiques, publics), d’inévitables conséquences qui ne manqueront pas d’être générées par le processus d’innovation. Ce qui paraît en revanche indéniable, c’est le caractère collectif du processus d’innovation, dans le cas des nanotechnologies. Celles-ci prennent racine au sein de di érentes disciplines scientifiques, avec un objectif a ché de convergence transdisciplinaire (Bensaude-Vincent 2009b, 71-81). Par delà, les nanotechnologies rencontrent l’intérêt du secteur industriel et bénéficient d’une importante implication des acteurs publics, qu’il s’agisse de financer ces développements ou de les réguler. Enfin, il faut également compter avec bon nombre d’associations et d’organisations non-gouvernementales qui tentent, à leur tour, d’influencer l’ensemble du processus (Vinck 2009, pp. 43-48). Innombrables sont les exemples de projets de recherche très vastes, dont les débouchés sont potentiellement très lourds d’impacts sur la 110 Ainsi, pour 2011, le budget fédéral provisionné en soutien aux nanotechnologies s’élève à 1,85 milliards de $ (NSTC, 2010). D. Vinck souligne qu’en Europe, 60 % du financement des nanotechnologies reste du fait des acteurs publics, tous niveaux de pouvoir confondus (Vinck, 2009, p. 46). 292 société, et qui sont mis en œuvre par de très larges consortiums de recherche, dont chacune des composantes se voit a ribuer une tâche bien précise et délimitée. La tension fondatrice de « l’innovation responsable » À quoi tient donc l’ « innovation responsable » ? Notre contribution propose donc d’éclaircir ce distinguo en partant de la notion de « responsabilité ». En e et, l’hypothèse de travail de la présente contribution est que l’adjonction de ce qualificatif – « responsable » est, seule, vecteur de transformation des processus en cours en matière de nanotechnologies. L’innovation, telle que les pouvoirs publics la pratiquent dans l’après-guerre, demeurerait une notion constante, qui serait amendée ou déviée de sa trajectoire, par la mise en œuvre d’une « responsabilité ». Sur ce e prémisse, il devient intéressant de chercher à comprendre en quoi pourrait bien consister ce e « responsabilité » et, surtout, qui en sont les destinataires. De toute évidence, l’idée d’une « responsabilité » implique une forme de réponse (étymologiquement, le terme renvoie au fait de se porter garant, donc de répondre de, de faire une réponse111). De quoi s’agit-il de répondre ? Logiquement, ce e réponse s’adresse au processus d’innovation lui-même, dans sa naturalité ; elle est destinée aux objets technologiques et aux matériaux à résulter des processus d’innovation, dans la plénitude de leurs conséquences potentiellement dommageables ou questionnables pour la société. En d’autres termes, quel(s) développement(s), en matière de nanotechnologies, pourraientils s’avérer néfaste(s) ou indésirable(s) ? La question à poser est alors de savoir qui va répondre de ces développements, c’est-à-dire selon quelles règles sera a ribuée une forme de « responsabilité ». Le rôle précis de l’a ribution de responsabilité, et les règles y relatives, correspond au « système de ces faits qu’on appelle des sanctions » (Fauconnet 1928 [1920], p. 37). Établir une responsabilité, c’est donc sanctionner un manquement. Lorsque se développe une application particulière dans le domaine des nanotechnologies, un régime de responsabilité particulier doit 111 Cf. « responsable », in O. Bloch & W. von Walburg, Dictionnaire étymologique de la langue française, Paris, PUF /Quadrige, 2002 [1932] ; « respondeo », in F. Ga ot, Dictionnaire Latin-Français, Paris, Hache e, 2001. 293 donc être établi ; en cas de survenance d’un dommage ou d’une conséquence indésirable, il s’agit donc d’établir à qui en incombe la faute. En d’autres termes, qui est habilité à, ou sommé de, formuler ce e réponse ? À un extrême, chaque acteur impliqué à un stade ou à un autre dans l’irruption d’une innovation dans la société est tenu d’en répondre, chacun selon sa partition – son rôle précis et le rapport particulier qu’il entretient à cet objet. La réponse est alors formulée par la somme des acteurs en présence. À l’autre extrême, l’innovation est conçue comme un processus intrinsèquement collectif, qui répond de manière une et indivisible aux conséquences de son propre déroulement. La réalité, bien sûr, oscille nécessairement entre ces deux extrêmes. La gouvernementalité ou la stabilisation d’un ordre du politique Il va donc s’agir de placer le curseur soit du côté des individus, comme y incite la notion même de « responsabilité », soit du côté des processus systémiques pris pour tels. Ce faisant, c’est d’abord et avant tout une question authentiquement politique que soulève l’innovation responsable. En e et, le politique se définit originairement par sa « structure bipolaire », comme l’appelle André Gorz112, à savoir : « la médiation publique sans cesse recommencée entre les droits de l’individu, fondés sur son autonomie, et l’intérêt de la société dans son ensemble, qui à la fois fonde et conditionne ces droits » (Gorz 1992, pp. 47-48). La responsabilité n’est que l’envers du décor de ce e conception du politique, qui se définit donc comme une tension primordiale entre ces deux « pôles ». L’innovation responsable, telle qu’elle s’incarne et s’institue au travers de politiques publiques précises, propose une stabilisation particulière de l’ordre du politique. En ce sens, elle se présente comme une réponse ou une solution particulière à une tension fondatrice, qui est donc celle qui existe entre l’innovation, comme processus collectif, et la responsabilité, plutôt « individualisante ». Ce e évolution vers l’innovation responsable se produit dans le cadre plus large d’une métamorphose des modes d’action publique, 112 Suivant en cela le philosophe marxiste américain Dick Howard. 294 que É. Hache considère, après Foucault, comme typique d’un ordre néo-libéral. Ce mouvement se distingue, à la fois, par un retrait apparent de l’État, et le déploiement d’un interventionnisme d’un genre nouveau, « d’une vigilance, d’une activité, d’une intervention permanente » des autorités publiques (Foucault 2004, p. 137, cité par Hache 2007, p. 51). Ce processus a pour nom la « gouvernementalité ». La gouvernementalité se pose ainsi comme un « mode spécifique de l’exercice du pouvoir » (Lascoumes 2004, p. 2), par lequel se produit une nouvelle manière de penser et d’agir l’action des pouvoirs publics. Elle ne s’a ache donc pas à une théorie de l’État pré-déterminée, mais est à rechercher dans les pratiques, dans le concret, dans ce qui fait l’action étatique, autrement dit dans les instruments de politiques publiques (Lascoumes 2007). Concrètement, les instruments auxquels il est fait référence sont les plans stratégiques prédominants en matière de nanotechnologies, aux USA et en Union européenne. On objectera à bon droit que ces plans restent incantatoires, jusqu’à l’épreuve de leur mise en œuvre. C’est la raison pour laquelle nous renforçons ce qui ne serait qu’une simple analyse de discours politique, par des éléments empiriques, puisés dans les dispositions budgétaires aux États-Unis, et dans certains outils de « procéduralisation éthique » dans l’UE. Retour sur la notion de « responsabilité » D’une responsabilité clairement individuelle… Avant d’entrer dans le cœur empirique de « l’innovation responsable », il convient d’opérer un détour théorique par la notion de « responsabilité » elle-même. À nouveau, l’enjeu n’est pas de retracer la genèse du choix de ce terme ; toujours est-il que ce qualificatif de « responsable » fait florès dans les politiques publiques en matière de nanotechnologies. Dès lors, il faut avant toute chose procéder à un examen critique des signifiants que ce terme revêt, au regard de la question que nous posons : comment le concept de « responsabilité » départage-il les figures de l’individu et du collectif ? Historiquement, la responsabilité est un phénomène clairement individuel. Il s’agit avant tout d’imputer les conséquences (dommageables) d’un acte à son auteur, faisant de la responsabilité le 295 véritable pendant de la liberté dont dispose ce dernier113. C’est le schéma tripartite classique sur lequel repose la figure de la responsabilité : une faute et un dommage reliés par un lien de causalité. Dans nos sociétés occidentales contemporaines, la conception juridique que nous en avons est prédominante et irréductiblement a achée à la figure de l’individu libre et rationnel, qu’il s’agisse de responsabilité civile ou pénale (Fauconnet 1928 [1920]). Depuis longtemps toutefois, il est admis que l’acception de ce terme soit étendue à une forme de « responsabilité morale », entendue comme « « une situation d’un agent conscient à l’égard des actes qu’il a réellement voulus »114. En d’autres termes, il s’agit pour l’agent d’être en mesure de prévoir les répercussions de ses actes (par une réflexion antérieure sur leurs conséquences futures) et de les accepter115. On constate donc que, sur le plan individuel, la responsabilité est possible moyennant le respect d’une double condition : la liberté, c’est-à-dire l’autonomie dans l’action, soit la possibilité de poser les actes sujets à responsabilité, et la capacité de prévision. … À une responsabilité collective ? Il est entendu que le concept de responsabilité, pourtant, connaît de constantes reconfigurations à l’aune des sciences sociales, à commencer par les sciences statistiques (Genard 1999). Or, c’est précisément dans les matières qui nous préoccupent ici que ce e notion subit les transformations les plus importantes, avec la thèse influente d’un nécessaire « Principe Responsabilité », formulée par Hans Jonas. Posée comme une condition à la survie même de l’humanité, l’adoption d’un tel principe se caractérise par un bouleversement fondamental des catégories de l’éthique, qui reposaient jusque-là sur « l’immutabilité essentielle de la nature en tant qu’ordre cosmique » (Jonas 1995 [1979], p. 25). En d’autres termes, le contexte de l’agir humain, donc 113 S. Mesure et P. Savidan, Le dictionnaire des sciences humaines, Paris,Quadrige / PUF, 2006, p. 1014. 114 A. Lalande, Vocabulaire technique et critique de la philosophie, Paris, Quadrige / PUF, 2010 [1926], pp. 926-928. 115 Étant entendu que « la mesure de la responsabilité est proportionnelle à la mesure de la prévision, qui est toujours incomplète, car aux e ets directs et immédiats de nos actes s’ajoutent des e ets indirects et lointains » (Lalande, op. cit., p. 927). 296 de sa responsabilité – y compris morale – était défini étroitement, s’inscrivant dans le temps court et une certaine proximité. Rien de tout cela ne subsiste dans la démesure des capacités couplées de la science et de l’économie, moteurs des processus actuels d’innovation. Au temps court succèdent les impacts à long terme, souvent irréversibles, d’un agir transformatif doté de moyens inédits. Dans un tel contexte, l’objet de la responsabilité humaine est à la hauteur des bouleversements en cours ; il consiste en « rien de moins que la biosphère entière de la planète » (Jonas 1995 [1979], p. 31), dont dépend in fine la survie de l’humanité. Jonas ne permet pas le moindre doute à cet égard : l’imputabilité des conséquences, c’est-à-dire l’a ribution de responsabilité, ne peut qu’échoir à une forme de « l’agir collectif ». Autrement dit, l’ampleur des mutations technologiques « déborde en permanence les conditions de chacun des actes qui y contribuent » (Jonas 1995 [1979], pp. 31-33). Bien sûr, l’acte individuel est à la base de tout agir et en forme la condition indépassable, mais il n’est pas concevable d’y restreindre les formes de la responsabilité – Jonas est limpide à ce sujet. La figure de la responsabilité collective implique l’incertitude radicale Ce sont donc les caractéristiques de notre nouvelle puissance de bouleversement, inscrite au cœur des logiques actuelles de l’innovation, qui invitent à repenser la responsabilité sur un mode collectif. La théorie de la « société du risque116 » (Beck 2001 [1986]) repose également sur ce constat d’un profond changement qualitatif de la nature des risques technologiques, qui invite à repenser les contours de la responsabilité (Giddens, 1999). Fruits de l’activité humaine, ils se produisent à une échelle de grandeur inédite, sont souvent irréversibles, ils transgressent les frontières ; en outre, si leur survenance est certaine, parce que endogène aux processus d’innovation technoscientifique117, leur nature et leur ampleur n’est accessible que par un savoir prévisionnel (Jonas 1995 [1979], p. 33). Un tel savoir est forcément instable, de sorte que c’est avant tout 116 Largement fondée, dans ses prémisses épistémiques, sur « l’heuristique de la peur » de Jonas. 117 Au sens que B. Bensaude-Vincent donne à ce terme (Bensaude-Vincent 2009, pp. 52-54). 297 une profonde incertitude qui marque l’agir contemporain, les choix politiques y a érents (Callon 2001) et, en conséquence, la question de la responsabilité. Or, les risques modernes participent de ce que Beck appelle un système « d’irresponsabilité organisée ». Il entend par là souligner l’impossibilité fondamentale d’imputer unilatéralement un dommage spécifique à un acteur social en particulier. Par conséquent, toute forme de responsabilité collective se doit d’adme re sa non-imputabilité directe (Beck 2001 [1986], pp. 57-59). Or, l’irresponsabilité de chacun ne peut trouver de résolution satisfaisante que dans la responsabilité de tous, de la collectivité. C’est donc bien à la mise en œuvre d’un système de responsabilité collective que nous invitent les développements récents en sciences sociales autour des risques technologiques. Le corollaire consiste à adme re les limites de notre savoir prévisionnel, à reconnaître l’incertitude radicale qui fonde les développements contemporains, en un mot, à faire preuve « d’humilité » (Jasano 2003). Quelles sont donc les conséquences de ce qui précède pour ce qui concerne l’acception classique de la responsabilité ? Ces développements récents défient la notion traditionnelle de « responsabilité individuelle » du fait de l’agent libre et pleinement conscient des conséquences de ses actes. Ce dernier est, à la fois, partie d’un système qui « déborde » son champ d’action et, simultanément, sujet à ce e ignorance fondamentale qui est notre lot commun, quant au devenir des évolutions actuelles de la science et de la technologie. En d’autres termes, ce que ces théories ont contribué à clarifier, c’est l’idée d’un certain détachement de l’action individuelle, à laquelle n’est pas réductible une responsabilité d’une ampleur telle qu’elle ne peut être imputable qu’à la collectivité. Les nanotechnologies fourniraient-elles l’occasion de penser à nouveaux frais la question de la responsabilité, au travers du développement de « l’innovation responsable » ? On le sait, la notion fait son chemin dans les politiques publiques, dans un étroit parallèle avec les programmes de nanotechnologies (Laurent 2010, pp. 58-60). Si l’élément générateur de la responsabilité est connu – l’innovation118 – et n’est pas disputé ici, ce qui l’est en revanche, c’est la question 118 C’est-à-dire, en l’espèce, les conséquences futures potentiellement dommageables du développement volontariste des nanotechnologies. 298 de l’imputabilité. Pour y répondre, il convient dès à présent de se pencher sur les principaux documents publics pertinents, pour tenter de déceler les lignes de partage que ceux-ci tracent, sur la question de la responsabilité. Fortune d’un objectif de politique publique Le « développement responsable » prôné par la NNI Dans le domaine des nanotechnologies, le premier plan stratégique de politique publique est adopté dans le cadre de la politique scientifique des États-Unis, au tournant du siècle (NSTC, 2000). Fruits d’un long processus de consultations, dont il ressort la convergence d’un certain nombre de disciplines scientifiques à l’échelle du nanomètre, la National Nanotechnology Initiative (NNI) entérine un soutien de principe des autorités publiques à la R&D relative aux nanotechnologies (Laurent 2010, pp. 21-24). Bien qu’opérant un déplacement vers les intérêts industriels en présence119, ce document séminal annonce déjà une a ention soutenue portée aux enjeux dits « sociétaux ». Ainsi, comme le montre B. Laurent, « dès les premiers appels à projets de la NNI, les chercheurs en sciences humaines sont concernés : le programme fédéral américain a end des éthiciens, des philosophes, des économistes qu’ils étudient les implications sociales des nanotechnologies » (Laurent, 2010, p. 57). Très rapidement, cependant, les déclinaisons opérationnelles des politiques publiques dans le domaine des nanotechnologies vont commencer à déployer une rhétorique autour du concept de « développement responsable* »120. Ce dernier est introduit par l’acte législatif fondateur instituant le programme national de nanotechnologie outre-Atlantique, le « 21st Century Nanotechnology Research & Development Act » (US Congress, 2003). Ce document est intéressant de par son statut et la valeur juridique qu’il revêt. Il 119 Voir à ce sujet le témoignage de C. Joachim, directeur au CNRS et pionnier du nanomonde (Joachim et Plévert, 2008). Il s’agit d’une tension entre deux approches des nanotechnologies, la « miniaturisation » et la « monumentalisation », laquelle a connu son apogée en 2003, date de sa résolution, au moins provisoire (Rip 2009). 120 Sauf mention contraire, nous traduisons librement les extraits de documents publiés en anglais, ce que nous marquons d’un astérisque en fin de citation. 299 confère à l’idée de « développement responsable » la portée d’un objectif à a eindre. Cependant, plus précisément, l’Act aborde ce e ambition de manière incidente, sous la forme d’un rapport triennal commandité au National Research Council (NRC). Le législateur étatsunien s’aventure à mentionner, à titre exemplatif, certains des éléments dont se compose, selon lui, le « développement responsable ». Ceux qu’ils citent reflètent les préoccupations du moment ; il est ainsi fait mention de thématiques aussi variées que le human enhancement (sous l’angle cognitif), le problème de l’auto-réplication, ou encore de la dissémination dans l’environnement (US Congress, 2003, Section 5, point c). Trois ans plus tard, en 2004, le NRC est fidèle au rendez-vous et présente son rapport triennal, qui porte donc, notamment, sur le « développement responsable » (NRC, 2006, pp. 73-98). Pourtant, la conception qu’en propose le NRC opère une singulière réduction des éléments soulevés par le Congrès américain. Le rapport le précise d’emblée, dès sa préface : il s’agira de se focaliser sur les « préoccupations tangibles* », c’est-à-dire les enjeux de risques, ceux qui sont mesurables en termes d’impact sur l’environnement, la santé publique ou la sécurité. Ceux-ci, désignés par l’acronyme « EHS » (environment, health and safety) présentent la caractéristique d’être susceptibles de connaissance scientifique ; ils sont en principe calculables et, à ce titre, prévisibles. Ce choix est alors justifié par la complexité inhérente du sujet et le manque de données disponibles, le NRC a rmant sa volonté de faire œuvre « utile »121 (NRC, 2006, p. x). Toutefois, l’approche du « développement responsable » de la nanotechnologie y est caractérisée, dans une démarche inédite, comme consistant « à équilibrer les e orts en vue de maximiser les apports positifs de la technologie, tout en minimisant ses conséquences négatives* » (NRC 2006, p. 73)122. Garantir les bénéfices, amoindrir les risques : tel est le crédo de la démarche d’« innovation responsable ». 121 Il est à noter qu’un chapitre entier est dévolu au débat brûlant de l’époque, à savoir la possibilité théorique d’une auto-réplication de masse d’engins moléculaires, qui est dans le rapport considérée essentiellement sous l’angle de sa faisabilité technique (NRC 2006, pp. 99-109). On sent toutefois dans l’approche générale du NRC une volonté de se départir de discussions par trop spéculatives. 122 Ce faisant, le NRC dote la démarche de « développement responsable » d’une économie générale, aussi large fût-elle ; jusqu’alors, le plan stratégique de la NNI y voyait l’agrégat des démarches portant sur les risques et les enjeux ELSA (NSTC 2004, pp. 10-13). 300 Depuis lors, c’est dans ce e acception générale que s’est épanoui et répandu l’objectif politique d’un « développement responsable » des nanotechnologies, aux Etats-Unis. Ainsi, les plans stratégiques successifs adoptés dans le cadre de la NNI en ont fait un de leurs quatre piliers fondateurs, qui s’a rme au fil des versions (NSTC, 2004 ; 2007 ; 2011a). La recherche sur les problèmes HES capte l’essentiel de l’a ention, au détriment des problématiques dites « ELSA123 » (aspects éthique, légal et social). Sur ces derniers enjeux, l’approche stratégique soutenue fait d’ailleurs la part belle à la communication, destinée à « éduquer le public », ou à tout le moins à promouvoir une démarche de « dialogue » avec ce même public. L’approche préconise également un accroissement des ressources éducationnelles (NSTC 2007, p. 20). En 2011, ce mouvement s’accroît ; une partie signifiante des enjeux « ELSA », préalablement appréhendée au titre du développement responsable, se trouve « délocalisée », ra achée notamment à un autre des grands objectifs stratégiques : le volet éducatif (NSTC 2011b, point 3.2., p. 26). Cela participe d’un mouvement stratégique plus général de dissociation, d’un côté, des enjeux « EHS », autour desquels se recentre et se recompose le développement responsable des nanotechnologies et, de l’autre, des enjeux ELSA qui se voient distribués sur l’ensemble des objectifs stratégiques du programme, chaque fois qu’il y a lieu. On peut ainsi lire dans la dernière version du plan stratégique NNI, où d’ailleurs le volet « sociétal » per se est réduit à la portion congrue, que « les problèmes ELSI sont entrelacés avec tous les objectifs de la NNI et se voient intégrés dans chacun des ‘besoins’ de recherche décrits dans la stratégie EHS* » (NSTC 2011a, p. 32). Concrètement, plusieurs agences, chacune pour le domaine dont relève sa compétence, me ent en œuvre des instruments qui concourent au « développement responsable ». Parmi elles, seule la National Science Foundation (NSF), traditionnellement plus proche des milieux académiques, propose une réflexion dans les termes « ELSI » (NSTC 2011b, pp. 3038). Toutes les autres focalisent sur les aspects toxicologiques et les enjeux de type « EHS ». Lorsqu’ils sont abordés, les enjeux ELSI le sont, soit par des démarches de « dialogue » avec les parties prenantes ou « le public » (Barben, 2008), soit au travers de programmes éducatifs 123 La terminologie de la NNI utilise l’acronyme « ELSI », où il est question des « impacts » éthiques, légaux et sociaux, lorsque l’approche européenne préfère parler d’ « aspects ». Par souci de lisibilité, nous employons l’acception européenne de l’acronyme. 301 (voir not. NSTC 2004, p. 13). Dans ce premier cas, ils concernent la plupart du temps le citoyen-électeur, qui doit pouvoir exprimer ses préférences individuelles, ou le consommateur, qui doit pouvoir prendre des décisions « informées », en connaissance de cause, par une information appropriée sur la composition et la traçabilité des produits. Cela implique donc que les enjeux sociétaux puissent être anticipés et produits avec su samment de clarté pour perme re un choix clair et posé en connaissance de cause. Ce e préoccupation se manifeste très clairement via l’allocation de moyens budgétaires. Les budgets a érents au « développement responsable » augmentent plus que proportionnellement, eu égard aux investissements totaux consentis dans le cadre de la NNI. Ils traduisent donc une a ention accrue des autorités publiques à ce sujet. C’est surtout vrai des financements portant sur les enjeux « EHS », qui s’élèvent à 124 millions $ annuels sollicités pour l’exercice 2012 (à comparer avec les 35 millions $ qui y ont été dévolus en 2005) (NSTC 2011, p. 33). Ils demeurent toutefois marginaux, lorsqu’ils sont rapportés à la masse globale, d’un montant annuel avoisinant les 1,85 milliards $, dont ils représentent environ 6,3 %, pour 2011124 (NSTC 2010, p. 7). Les enjeux « ELSA », quant à eux, recueillent aux alentours de 2,5 à 3 % des financements125. Il ressort de ce qui précède une double conclusion. Tout d’abord, l’approche américaine de la « responsabilité » repose essentiellement sur la fiction d’un contrôle très abouti des impacts des nanotechnologies. Que ceux-ci concernent la santé, la sécurité ou l’environnement, il est possible de les circonscrire et d’en avoir une connaissance parfaite. Il est donc fait référence ici à un état de nature stabilisé comme fondement de l’éthique, à l’exact opposé de l’analyse formulée par Jonas126. Brice Laurent, dans son ouvrage sur Les politiques des nanotechnologies, qualifie ce e posture « d’éthique-vérité » (Laurent 2010, p. 144), et 124 Ce e augmentation plus que proportionnelle sur les enjeux « EHS », a connu un petit bond en avant en 2011, qui s’explique par l’implication financière inédite de la Food and Drugs Administration et de la Consumer Product Safety Commission (NSTC 2010, p. 7). 125 Les budgets ELSI portant aussi bien sur les e orts de recherche que ceux d’éducation, dorénavant, il devient di cile de départager les budgets spécifiques qui y sont exclusivement dédiés. 126 Pour qui ces fondements sont invalidés par la transformation de nos moyens techniques, leur ordre de grandeur, leurs objets inédits et leurs conséquences radicalement imprévisibles (voir not. Jonas 1995 [1979], p. 30). 302 dénonce les apories auxquelles elle conduit (Laurent 2010, pp. 122132). Il n’est donc pas question, ici, de prendre en considération l’incertitude profonde qui marque ces développements, encore moins à l’échelle où l’ont théorisée Jonas ou Beck – menaces globales, risques sur la biosphère. La seconde conclusion découle logiquement de la première ; dans la plupart des cadrages institutionnels, c’est bel et bien à l’individu qu’il incombe d’assumer la « responsabilité », c’est-à-dire de faire la balance des risques et bénéfices, et des enjeux sociétaux – donc de valeur ; le chercheur, le citoyen-électeur ou le consommateur. De la sorte, puisque les faits générateurs de la responsabilité sont susceptibles de connaissance, alors l’individu est tenu à sa responsabilité morale, c’est-à-dire à une réflexion antérieure sur les conséquences prévisibles de ses actes. C’est bien ce qu’indique le mouvement de « décentralisation » des enjeux ELSA, qui tendent à se retrouver à di érents moments au cours desquelles l’individu (le praticien en devenir, le citoyen, le consommateur) peut en faire l’apprentissage, et prendre des décisions en connaissance de cause. On retrouve ici la conception classique de la responsabilité, qui repose sur l’idée d’un homme libre et en mesure d’être conscient de la pleine portée de ses actes. L’action européenne : la mobilisation d’enjeux sociétaux à destination de la recherche publique Au niveau européen, une formule domine le débat sur les nanotechnologies de la tête et des épaules ; il s’agit de promouvoir une « stratégie de nanosciences & nanotechnologies sûre, intégrée et responsable127 » (EC 2005). Ces trois caractéristiques sont considérées comme le point d’ancrage par excellence de la politique européenne en matière de nanotechnologies (von Schomberg, sous presse, p. 5). Le vocabulaire employé frappe par son étroite proximité avec les politiques publiques américaines. Pourtant, à l’examen, de nombreux flo ements se font jour sur la manière d’utiliser les concepts et, surtout, sur les significations qu’ils recouvrent. On le constate à la di érence de tonalité entre l’intention d’une stratégie 127 Ce e caractérisation o cielle de l’approche européenne est entérinée comme noyau de l’approche européenne, validé par les parties prenantes (EC 2007, p. 2). 303 en matière de nanotechnologies, exprimée en 2004, et ladite stratégie, dans sa déclinaison opérationnelle, adoptée en 2005. Ainsi, tout d’abord, la Commission européenne publie en 2004 une communication intitulée « Vers une stratégie européenne en faveur des nanotechnologies » (Commission européenne 2004). Ce premier document met fortement l’accent sur les dimensions éthiques et leur nécessaire intégration à un stade précoce (Commission européenne 2004, pp. 22-23). Phénomène étonnant : une substance particulière est conférée à ces dimensions « éthiques ». Il est ainsi fait explicitement référence à une série de textes fondateurs de droits, dont la Charte des droits fondamentaux de l’Union européenne. Cinq valeurs absolues forment la charpente de ce e éthique-là, à titre non-exclusif : « respect de la dignité, autonomie de l’individu, justice et bienfaisance, liberté de la recherche, et proportionnalité » (Commission européenne 2004, point 3.5.1., § 2nd, p. 23). Ces principes ou, à tout le moins, « certains principes éthiques doivent être observés et, le cas échéant, mis à œuvre [sic] par voie réglementaire » (Commission européenne 2004, point 3.5.1., §1er). La section suivante propose trois manières de perme re « au public » de « comprendre l’invisible » : information, communication et dialogue. En partant du constat que les nanotechnologies sont très mal connues dans l’opinion publique, ce e section propose une série d’initiatives didactiques pour améliorer leur connaissance, suite à quoi pourrait s’engager un authentique « dialogue », en ce sens que les opinions publiques pourraient influencer les décisions de politique scientifique. On comprend donc que ce document fondateur n’est pas exempt de contradictions entre les principes forts auxquels il a l’audace de se référer, et la relative timidité des moyens qu’il entend me re en œuvre pour mobiliser ces principes et les traduire dans les pratiques. Cependant, ce e ambivalence est tranchée en supprimant toute référence aux principes éthiques mentionnés ci-dessus dans les plans opérationnels de la Commission, en particulier « Nanosciences et nanotechnologies : Un plan d’action pour l’Europe 2005-2009 » (ciaprès « plan d’action N&N », Commission européenne, 2005). Ce plan d’action, pour sa part, propose un alignement presque total sur la conception américaine du « développement responsable » : on y retrouve l’idée de s’assurer la réalisation des bénéfices potentiels, tout en se prémunissant des risques éventuels, dont la survenance est de toute façon perçue comme, à la fois, banale et inéluctable (puisque 304 consubstantiels à « n’importe quelle technologie ») (Commission européenne, 2005, p. 8). Si la catégorie de l’éthique y est toujours bien présente, elle se voit réduite aussi bien quant à ses destinataires (la R&D financée par la Commission, à l’exclusion des investisseurs industriels) que dans sa portée. En e et, les quelques exemples concrets par rapport auxquels une démarche éthique est envisagée128 ne ressortissent pas au même registre que les principes généraux précités. Les deux catégories d’enjeux, EHS et ELSA, doivent répondre au même impératif « d’intégration », c’est-à-dire de distribution aux di érentes étapes des processus de R&D qui le justifieraient. À ce titre, l’approche européenne s’apparente à bien des égards à celle de la NNI. Ainsi, toutes les questions liées aux risques (sur la santé, l’environnement, les consommateurs ou les travailleurs), pour leur part, doivent « être intégrée[s] de manière responsable à tous les stades du cycle de vie de la technologie, depuis sa conception, en passant par la R&D, la fabrication, la distribution, l’utilisation et jusqu’à l’élimination ou le recyclage » (Commission européenne 2005, p. 11). Il en va de même des principes éthiques, qu’il s’agit d’« intégrer à un stade précoce du processus de R&D une réflexion concernant les incidences sur la société et encourager un dialogue avec les citoyens » (Commission européenne 2005, p. 3). On retrouve le même souci d’une distribution de ces enjeux, entre autres, au stade de la formation et de l’enseignement des chercheurs. Toutefois, la Commission propose, dans les domaines ELSA, des outils originaux, d’initiative publique, qui doivent retenir toute notre a ention. En réalité, la catégorisation de ce qui ressortit à « l’éthique, du légal ou du social » s’adresse, au sein de l’Union européenne, aux mécanismes institutionnels de recherche, de deux manières principales – qui nous paraissent être des innovations institutionnelles, au moins dans une certaine mesure. La première consiste en un « ethical review » des propositions de recherche émises par des consortiums européens qui sollicitent un financement ressortissant du programme-cadre. Ce e évaluation éthique, produite par un panel d’experts en éthique, vise à « estimer si la proposition de projet a correctement identifié et abordé les problèmes 128 Nanomédecine ; vie privée et capteurs invisibles ; interventions nonthérapeutiques sur le corps humain. 305 éthiques en jeu* » (Commission européenne 2009, p. 65). Il s’agit donc ici pour la Commission de se profiler, au travers de sa DG Recherche, comme garante des intérêts éthiques, pour ce qui concerne les moyens financiers alloués par elle. Elle délimite explicitement la fonction de ce e évaluation éthique, qui se conçoit comme un accompagnement informatif, à visée éducative. Sans discuter l’e cacité du mécanisme, il présente ce e particularité de se placer en amont de la recherche elle-même, et de proposer une vision davantage « collective » de la responsabilité. En e et, le placement d’une intervention précoce et systématique sur les « problèmes éthiques » revient à adme re le caractère endémique des risques, c’est-à-dire à postuler que toute recherche est potentiellement concernée par une problématisation de ses dimensions éthiques. Cependant, ce e approche très en amont n’est pas sans poser une série de problèmes conceptuels et pratiques. Tout d’abord, l’évaluation éthique consacre une certaine « division du travail » : l’éthique aux éthiciens (les experts qui se prononcent sur le bienfondé éthique des projets), les nanotechnologies aux scientifiques. Il s’agit ensuite d’une démarche purement ponctuelle, et qui intervient à un stade très précoce, auquel il n’est pas toujours possible d’identifier les débouchés très concrets du projet de recherche financé. En outre, ce e évaluation n’est e ectivement conduite que dans des cas flagrants et relativement limités, tels que les projets qui touchent à la thérapie génique ou, plus généralement, à la génétique. La plupart des scientifiques que nous rencontrons se contentent de proclamer l’inapplicabilité des problèmes éthiques aux projets qu’ils soume ent ; se pose donc la question de l’e ectivité du mécanisme, s’agissant de stimuler une réflexion sur les enjeux ELSA. Sur ce point, on constate donc qu’en dépit de la conception collective de la responsabilité qui sous-tend l’outil, son utilisation repose in fine, pour une très large part, sur une décision discrétionnaire des scientifiques129. Enfin, ce mécanisme porte exclusivement sur la recherche financée par la Commission européenne, ce qui limite le champ d’application de ce e évaluation. 129 Pour être précis, ce ne sont pas les scientifiques qui établissent limitativement les domaines dans lesquels des réserves de nature « éthique » trouvent à s’appliquer. Toutefois, l’expérience leur apprend que très peu de domaines d’activité scientifique, hors le domaine biomédical, conduisent à une évaluation éthique plus poussée. 306 Le second mécanisme institutionnel retenu pour promouvoir « l’innovation responsable », sous sa forme européenne, prend la forme d’une recommandation de la Commission européenne « concernant un code de bonne conduite pour une recherche responsable en nanosciences et nanotechnologies » (ci-après le « code de conduite N&N » (Commission européenne 2008). En tant que telle, ce e recommandation s’adresse aux États membres, qui se voient encouragés à prendre en considération (points 1 à 3) et à promouvoir (point 4) l’adoption des « principes généraux et lignes directrices » que contient ledit code. De par son statut, ce document ne dispose d’aucun pouvoir légal et sa mise en œuvre repose donc sur une base purement volontaire. Pour ce e raison, la Commission le considère avant tout comme un « instrument de promotion du dialogue » (Commission européenne 2008, p. 4). Dans son optique, « ce code peut a eindre des objectifs de gouvernance là où une législation ne le pourrait pas ! * » (von Schomberg 2009). Quels objectifs généraux poursuit donc le code ? « Le code de bonne conduite invite ‘toute les parties prenantes’ à agir de manière responsable et à collaborer entre elles130 » (von Schomberg 2009, p. 6, nous soulignons). Un appel si générique ne peut se concevoir qu’au titre d’un objectif général, c’est-à-dire dépourvu a priori de toute spécificité. À qui donc revient-il d’agir de « manière responsable » ? Dans sa conception131, le code de conduite N&N entend s’adresser à chacun des rouages du système de développement et de production des nanotechnologies – les fameuses « parties prenantes » précitées – et vise explicitement à « organiser la responsabilité collective* », soit la responsabilité telle qu’elle résulte d’un ensemble d’actions coordonnées de la part desdites parties prenantes (von Schomberg 2010a). Si les conséquences en cascade de l’innovation technologique sont le produit « d’une action collective ou des systèmes sociétaux en place, à l’instar de notre économie de marché* », il importe alors 130 « Parties prenantes dans les N&N » [nanosciences et nanotechnologies] sont définies au point 2, c : « les États membres, les employeurs, les bailleurs de fonds en faveur de la recherche, les chercheurs et, plus généralement, toutes les personnes et organisations de la société civile qui participent ou s’intéressent à la recherche en N&N ». 131 Les lignes qui suivent reposent à la fois sur le « code de conduite », l’instrument o ciel dont s’est doté la Commission européenne, et sur les travaux de son initiateur et promoteur auprès de la DG Recherche, René von Schomberg. 307 d’organiser « une éthique de la co-responsabilité* » (von Schomberg 2010a, p. 61-62). Il devient par conséquent possible de demander aux individus non pas de répondre, mais d’avoir du répondant132, c’està-dire une capacité à entamer un dialogue et, pour chacun, à élargir les perspectives contenues par sa propre action. Voilà pour la vision théorique. Par quel dispositif le code entend-il parvenir à ses fins, à traduire ce e intention de principe ? Le code est fondé sur sept principes généraux, qu’il s’agit de garantir et de me re en œuvre, notamment par le biais d’une série de « lignes directrices ». Toutefois, la majorité des principes visent, de manière privilégiée, « les activités de recherche », c’est-à-dire, in fine, le travail du scientifique financé par la Commission (principes de « signification », de « durabilité », de « précaution » et « d’excellence »). Deux principes visent plus particulièrement « la gouvernance des activités de recherche133 » (principes « d’inclusion » et « d’innovation »). Enfin, un septième et dernier principe doit retenir tout particulièrement notre a ention ; il s’agit du principe de « responsabilité ». C’est ici, pensons-nous, qu’il faut chercher le fin mot du régime d’imputabilité mis en œuvre par le code de conduite N&N. Ce principe stipule que « Les chercheurs et les organismes de recherche demeurent responsables des incidences sur la société, l’environnement et la santé humaine que leurs recherches en N&N peuvent entraîner pour les générations actuelles et futures » (EC 2008, point 3.7., nous soulignons). La portée opérationnelle de ce principe est bien entendu inexistante ; il n’est pas ici question de me re en cause la responsabilité juridique des chercheurs devant le système judiciaire. Il n’en demeure pas moins vrai que ce code de bonne conduite constitue un bon exemple de la vision hybride de la responsabilité qui tend à faire son chemin dans les politiques publiques, dans le domaine des nanotechnologies. D’un côté, il s’agit d’un code de bonne conduite, qui concerne donc au premier chef des conduites individuelles. C’est 132 En anglais, la « co-responsabilité », sorte de responsabilité indirecte, comprend, tout en le dépassant, le fait pour les individus d’être « personally responsive » (von Schomberg 2010a, p. 62). 133 Qui doit être « guidée par les principes d’ouverture, de transparence et de respect » (principe d’inclusion) ; la gouvernance, en outre, « encourage au maximum la créativité, la flexibilité et l’aptitude à anticiper en faveur de l’innovation et de la croissance » (principe d’innovation) (points 3.4. et 3.6. du code de conduite N & N, nous soulignons). 308 donc le caractère individualisant de la notion de responsabilité qui est ici à l’œuvre. D’un autre côté, cependant, ce e dernière ne porte plus sur le champ relativement stabilisé des risques sur la santé et de l’environnement, donc on postulerait qu’ils sont accessibles par une démarche de connaissance scientifique, « d’éthique-vérité ». En e et, dans le cas de ce code, la responsabilité doit s’entendre comme une responsabilité morale, portant sur des principes généraux, qu’il appartient à l’individu d’intérioriser et de traduire dans la pratique. Si la référence à ces principes est à même de prendre en compte, ou de me re en scène, l’incertitude radicale qui marque le développement des nanotechnologies, en revanche il n’est pas certain qu’elle trouve à s’articuler au niveau le plus propice. C’est là un mouvement classique de « transfert de responsabilité », que Hache avait bien anticipé (Hache 2008, p. 51), qui se traduit non pas par une action directe des pouvoirs publics, mais par une délégation de la responsabilité, à destination d’individus rationnels et autonomes. L’enjeu est bien d’influencer le comportement a endu de ces derniers, sans intervention directe des autorités (Hache 2008, p. 53). C’est exactement ce qui est à l’œuvre dans le cas des nanotechnologies. Tout d’abord, une première phase qui consiste à « rendre indésirable un certain type de comportement » (Hache 2008, p. 53). Il s’agit de disqualifier une manière usuelle de faire science, qui serait inscrite dans une vision linéaire du progrès technologique et qui ne reme rait jamais en question ses propres impacts, sur la nature ou la société ; une science, autrement dit, qui ne serait pas réflexive. Par ces instruments dont le code de conduite nous semble l’exemple le plus abouti, l’enjeu est ensuite de « rendre désirable un autre type de comportement, un comportement dit ‘responsable’ précisément » (Hache 2008, p. 51). Conclusions Dans ce chapitre, nous sommes partis du discours politique de « l’innovation responsable », qui se distingue en dernier ressort par la conception de la « responsabilité » qu’il met en œuvre. Par l’association qu’il propose entre ces deux termes, « innovation » et « responsable », ce discours est marqué par une profonde tension, qui stabilise un ordre particulier du politique. À qui revient-il de 309 répondre du développement des nanotechnologies ? Ce e tension est à chercher, sur un plan théorique, dans le choix et l’usage de la notion de « responsabilité », que nous avons tenté d’éclaircir sommairement. Nous avons ensuite proposé d’examiner la manière dont ce e notion était mise en œuvre dans les programmes de politique publique les plus déterminants, aux États-Unis et dans l’UE. Dans les deux cas, on constate que la volonté a chée est de « responsabiliser » l’innovation par une « responsabilisation », ou une « mise en responsabilité », des individus impliqués à une étape ou à une autre du processus d’innovation. On le comprend donc, un hiatus se produit entre, d’une part, la conception autonome de l’individu rationnel, en pleine possession de ses moyens quant aux décisions qu’il prend, à qui il incombe dorénavant de faire preuve de responsabilité et, d’autre part, la nature de plus en plus collective, collaborative, interdisciplinaire, morcelée, des processus d’innovation. L’innovation est, de manière croissante, le fait d’une Big Science, d’imposants réseaux de laboratoires et de centres de recherches, qui se répartissent les tâches et ventilent donc, avec une extrême précision, les rôles limités dévolus à chacun. Dans ces conditions, comment postuler la possibilité pour l’individu d’agir de manière responsable ? Ce n’est possible qu’au prix d’une fiction moraliste, qui vise à faire reposer le poids des conséquences du développement des nanotechnologies sur les individus qui y seront confrontés d’une manière ou d’une autre. Ce hiatus, dans le cas des nanotechnologies auquel nous nous sommes a achés, se traduit volontiers par un oxymore. Il s’agit, en l’espèce, d’hybrider deux réalités contradictoires, pour faire émerger ce e entité qui a pour nom « l’innovation responsable ». La tension fondatrice qui sous-tend l’association de ces deux termes est loin d’être résolue dans les instruments de politique publique qui les me ent en musique. Bien au contraire, ceux-ci transfèrent à bon compte l’idée d’une responsabilité, collective et lourde d’incertain, sur les épaules de ceux qui, bien que situés en première ligne des processus d’innovation, sont débordés par eux de tous côtés. Références Barben D., Fisher E., Selin C. et Guston D., « Anticipatory Governance of Nanotechnology : Foresight, Engagement and Integration », Hacke E., Amsterdamska O., Lynch M. et Wajcman J. (éds.), 310 Handbook of Science and Technology Studies. Third Edition, Cambridge (MA), MIT Press, 2008, pp. 979-1000. Beck U., La société du risque. Sur la voie d’une autre modernité, trad. L. Bernardi, Paris, Flammarion, 2001. Bensaude-Vincent B., « Nanotechnologies : une révolution annoncée », Études 411(12), 2009a, pp. 605-616. Bensaude-Vincent B., Les vertiges de la technoscience. Façonner le monde atome par atome, Paris, La Découverte, 2009b. Breton P., La parole manipulée, Paris, La Découverte, 2000. Callon M., Lascoumes P. et Barthe Y., Agir dans un monde incertain. Essai sur la démocratie technique, Paris, Seuil, 2001. Clinton W. J. et Gore A., Science in the National Interest, O ce of Science and Technology Policy, 1994. Commission européenne, « Vers une stratégie européenne en faveur des nanotechnologies », COM(2004) 338 final, 2004. Commission européenne, « Nanosciences et nanotechnologies : Un plan d’action pour l’Europe 2005-2009 », COM(2005) 243 final, 2005. Commission européenne, Recommandation de la Commission concernant un code de bonne conduite pour une recherche responsable en nanosciences et nanotechnologies », C(2008) 424 final, 2008. Genard J.-L., La grammaire de la responsabilité, Paris, Cerf, 1999. Giddens A., « Risk and Responsability », The Modern Law Review 62(1), 1999, pp. 1-10. Gorz A., « L’écologie politique entre expertocratie et autolimitation » (1992), dans Gorz A., Ecologica, Paris, Galilée, 2008. Fauconnet P., La responsabilité. Étude de sociologie, Paris : Librairie Félix Alcan, 1928 [1920]. Foucault M., Naissance de la biopolitique. Cours au Collège de France, 1978-1979, Paris, Gallimard/Seuil, 2004. Hache E., « La responsabilité, une technique de gouvernementalité néolibérale ? », Raisons politiques 4(28), 2007, pp. 49-65. Jasano S., « Technologies of humility: Citizen participation in governing science », Minerva 41(3), 2003, pp. 223-244. Joachim C., Plévert L., Nanosciences. La révolution invisible, Paris, Seuil, 311 2008. Jonas H., Le principe responsabilité. Une éthique pour la civilisation technologique, trad. fr. J. Greisch, Paris, Flammarion, 1995 [1979]. Lascoumes P., « La gouvernementalité : de la critique de l’État aux technologies de pouvoir », Le Portique 13-14 , 2004, pp. 169-190. Lascoumes P. et Le Gales P., « Understanding Public Policy through its Instruments – From the Nature of Instruments to the Sociology of Public Policy Instrumentation », Governance: an International Journal of Policy, Administration and Institutions 20(1), 2007, pp. 1-21. Laurent B., Les politiques des nanotechnologies. Pour un traitement démocratique d’une science émergente, Paris, Charles Leopold-Mayer, 2010. Méheust B., La politique de l’oxymore, Paris, La Découverte, 2009. National Research Council (NRC), A Ma er of Size: Triennial Review of the National Nanotechnology Initiative, Washington D.C., The National Academies Press, 2006. National Science and Technology Council (NSTC), National Nanotechnology Initiative. The Initiative and Its Implementation Plan, 2000. National Science and Technology Council (NSTC), National Nanotechnology Initiative. Strategic Plan, 2004. National Science and Technology Council (NSTC), National Nanotechnology Initiative. The Initiative and Its Implementation Plan, 2007. National Science and Technology Council (NSTC), National Nanotechnology Initiative. The Initiative and Its Implementation Plan, 2011a. National Science and Technology Council (NSTC), The National Nanotechnology Initiative. Research and Development Leading to a Revolution in Technology and Industry. Supplement to the President’s 2012 Budget, 2011b. Rip A. et von Amerom M., « Emerging de facto Agendas Around Nanotechnology: Two Cases full of Contingencies, Lock-outs, and Lock-ins », dans Kaiser M., Kurath M., Maasen S. et RehmannSu er C. (éds.), Governing Future Technologies. Nanotechnology and the Rise of an Assessment Regime, Sociology of Science Yearbook, vol. 27, Netherlands : Springer, 2009, pp. 131-156. US Congress, 21st Century Nanotechnology Research and Development Act, loi du 9 janvier 2003, doc. parl. S189. 312 Vinck D., Les nanotechnologies, Paris, Le Cavalier Bleu, Idées reçues, 2009. von Schomberg R., « Organising Collective Responsibility: On Precaution, Codes of Conduct and Understanding Public Debate », dans Fiedeler U., Coenen C., Davies S. R. et Ferrari A., Understanding Nanotechnology. Philosophy, Policy and Publics, Heidelberg, IOS Press, 2010a, pp. 61-70. von Schomberg R., « Why a ‘Code of Conduct’ ? The CoC can achieve Governance goals whereas legislation cannot ! », Keynote address, S.NET annual meeting, Darmstadt, Septembre, 2010b. von Schomberg R., « Prospects for Technology Assessment in a framework of responsible research and innovation », dans DUSSELDORP M. et BEECROFT R., Technikfolgen abschätzen lehren: Bildungspotenziale transdisziplinärer Methoden, Wiesbaden, Vs Verlag, sous presse, 2011. 313 La réglementation européenne des nanotechnologies : l’éthique entre la recherche et le développement industriel Nicole GALLUS134 Introduction Le juriste qui étudie le cadre normatif européen des nanotechnologies est immédiatement confronté à un foisonnement de textes complexes dans lequel coexistent des règlements contraignants et des résolutions et codes de bonne conduite non contraignants, auxquels s’ajoutent par ailleurs de très nombreux avis techniques, rapports d’experts, rapports de comité d’éthique. L’impression de « sur-réglementation » ou d’« inflation réglementaire » (Herve-Fournereau 2008, p. 57) rend l’analyse juridique di cile, alors surtout que seuls quelques textes sont élaborés en fonction des particularités des nanotechnologies, les autres étant généraux, c’est-à-dire non spécifiques à la matière, avec le danger d’une réglementation inadaptée aux nouveaux risques. Pour tenter de clarifier l’analyse et de dégager des lignes directrices dans l’élaboration d’un cadre normatif adapté, trois questions doivent être posées : - la première touche à la définition même des nanotechnologies et nanomatériaux, définition essentielle puisqu’elle conditionne le champ d’application de la réglementation - la deuxième concerne l’objectif de la réglementation en termes de recherche, de développement économique, de protection de la santé, de sécurité, d’environnement mais également en termes éthiques 134 Université Libre de Bruxelles 315 - la troisième question enfin porte sur le contenu de la réglementation : les nanotechnologies entrent-elles dans le cadre général de la réglementation existante en matière de recherche, production, commercialisation des techniques et matériaux ou supposent-elles une réglementation spécifique eu égard à leurs particularités, qu’il s’agisse de particularités intrinsèques ou de celles liées à leur risque potentiel, leur toxicité ? La définition des nanomatériaux et des nanotechnologies En droit, ce e définition constitue la question première, préalable à toute élaboration d’une réglementation appropriée puisqu’elle conditionne la fixation du champ d’application des normes. Sur ce plan, force est de constater qu’un consensus fait défaut, les définitions retenues manquant souvent de la rigueur nécessaire. Ainsi et à titre exemplatif, l’Organisation de coopération et de développement économiques135 définit les nanotechnologies comme un ensemble de technologies perme ant de visualiser, manipuler, étudier, exporter des structures et systèmes – matériau ou machine –, de « très petite taille », sans autre précision. Plus souvent, les nanomatériaux sont définis par référence à une échelle allant de 1 à 100 nanomètres136. Ainsi, le règlement relatif aux produits cosmétiques137 définit les nanomatériaux comme étant « les matériaux non solubles ou biopersistants, fabriqués intentionnellement et se caractérisant par une ou plusieurs dimensions externes ou par une structure interne, sur une échelle de 1 à 100 nm ». La résolution législative du Parlement européen du 25 mars 2009 sur 135 h p://www.oecd.org/sti/nano 1 nm = 1 milliardième de mètre. 137 Règlement (CE) n° 1223/2009 du Parlement européen et du Conseil du 30 novembre 2009 relatif aux produits cosmétiques, art. 2, 1K ; voir infra. 136 316 la proposition de règlement concernant les nouveaux aliments138 contient une définition plus complexe encore : le « nanomatériau fabriqué est tout matériau produit intentionnellement qui présente une ou plusieurs dimensions de l’ordre de 100 nm ou moins ou qui est composé de parties fonctionnelles distinctes, soit internes, soit à la surface, dont beaucoup ont une ou plusieurs dimensions de l’ordre de 100 nm ou moins, y compris des structures, des agglomérats ou des agrégats qui peuvent avoir une taille de plus de 100 nm mais qui conservent des propriétés typiques de la nanoéchelle ». Face à ces imprécisions et au manque de consensus sur une question de terminologie qui conditionne la définition même du cadre normatif, il faut approuver le Parlement européen lorsqu’il invite la Commission à élaborer une définition harmonieuse des nanomatériaux139. En réponse à une question du Parlement européen, la Commission a, le 14 décembre 2010, confirmé qu’elle travaille à l’élaboration d’une définition du terme « nanomatériau » qui perme ra de clarifier l’étendue des obligations juridiques et qui formera une base à partir de laquelle il sera possible de s’assurer de la conformité à ces obligations140. La Commission reconnaît également la nécessité d’adapter la définition aux progrès scientifiques et à l’évolution internationale141. Il faut souligner que l’harmonisation de la définition des nanomatériaux est di cile pour plusieurs motifs. La référence à une échelle de mesure de 1 à 100 nm paraît claire et simple mais elle est certainement trop réductrice pour toucher tous les nanomatériaux, substances, objets concernés. L’application de l’échelle pose en e et la question de savoir s’il 138 COM (2007) 0872. Ce e résolution s’inscrit dans le cadre de la réforme du Règlement (CE), n° 258/97 du 27 janvier 1997 relatif aux nouveaux aliments et nouveaux ingrédients alimentaires ; voir infra. 139 Résolution du Parlement européen du 24 avril 2009 sur les aspects réglementaires des nanomatériaux, 2008/2208 (INI). 140 Réponse donnée par Monsieur DALLI au nom de la Commission, 14 décembre 2010, E-7971/10EN. 141 Communication de la Commission au Parlement européen, au Conseil et au Comité économique et social européen sur les aspects réglementaires des nanomatériaux, COM (2008) 366 final – Sec (2008) 2036. 317 faut se référer à toutes les dimensions de l’objet ou à une au moins de ces dimensions ou encore, se référer à la dimension d’un élément faisant partie de l’objet. Certains se demandent plus fondamentalement si le critère de la dimension est réellement adéquat et s’il ne faudrait pas plutôt se référer au concept de propriétés, c’est-à-dire de caractéristiques propres afin de viser les particules à l’échelle nanométrique dont les propriétés di èrent de celles des matériaux à l’échelle macroscopique (Vinck 2009, p. 15 ; Ponce Del Castillo 2010 ; Verges 2010, p. 214). 2.3. Un autre obstacle à l’harmonisation des définitions tient au fait que les nanotechnologies concernent de multiples secteurs très di érents : cosmétologie, chimie, médicament, médecine142, dispositifs médicaux, biens de consommation, aliments… Pour répondre aux di cultés inhérentes à la diversité des disciplines concernées, la Commission européenne a donné mandat à un organisme européen de standardisation – CEN, Comité Européen de Normalisation –, afin de définir des normes perme ant une uniformisation. Des groupes de travail143 sont mis en place au niveau européen et international sur ces questions et ont notamment pour mission d’élaborer une technologie agréée internationalement pour les nanotechnologies144. 142 Médecine régénérative, diagnostic, imagerie, médicaments ciblés… ISO (Organisation Internationale de Normalisation ; h p.//www. standardsinfo.net/info/livelink/fetch/2000/148478/6301438/standards_ regulations.html), CEN (Comité Européen de Normalisation), OCDE (Organisation de Coopération et de Développement Economique ; Preliminary analyses of exposure mitigation in occupational se ings : manufactured nanomaterials, Series on the safety of manufactured nanomaterials, Number 8, ENV/JM/MONO (2009) 6). 144 Uniformisation du vocabulaire utilisé, identification et nomenclature des nanomatériaux. Ces organisations ont également pour mission d’élaborer des protocoles pour les tests de toxicité des nanoparticules (établissement du risque, méthode d’échantillonnage et de mesure) et des normes pour la protection des travailleurs (Ponce Del Castillo 2010). 143 318 L’objectif de la réglementation La deuxième question posée dans l’élaboration d’un cadre normatif concerne l’objectif poursuivi tant au plan de la recherche, du développement industriel et de la compétitivité économique qu’au plan de l’éthique et des enjeux sociétaux. De façon très schématique, on peut rappeler que deux grands courants de pensée se dégagent de l’analyse des nanotechnologies (Vinck 2009, p. 30). Le premier voit dans le développement des nanotechnologies une source de progrès incrémental : les nanotechnologies ne serviront pas à produire des objets nouveaux mais seulement des matériaux qui entreront dans la composition de produits déjà existants qui acquerront ainsi des propriétés ou fonctions di érentes, supplémentaires. La seconde vision des nanotechnologies est celle d’une révolution transhumaniste ou posthumaniste qui voit dans ces nanotechnologies un moyen d’améliorer les performances de l’être humain par la manipulation de la matière et du vivant avec, en particulier, un développement de la médecine régénérative perme ant de neutraliser les e ets du vieillissement et d’assurer à l’homme l’immortalité. Dans ce e conception, l’homme n’est qu’une concrétion éphémère et manipulable de gènes et de cellules, les sentiments, les pensées, l’esprit, la conscience n’étant que le résultat d’une combinaison de substances chimiques. La convergence des nanotechnologies, des biotechnologies, de l’informatique et des sciences cognitives doit perme re une amélioration de l’humain, une abolition des frontières entre humain et machine avec comme objectif final, l’accession à l’immortalité et la puissance absolue145. Ce e seconde vision « transhumaniste » est étrangère à la 145 « Si les cogniticiens peuvent le penser, les nanotechniciens peuvent le construire, les biologistes peuvent le développer, les informaticiens peuvent le surveiller et le contrôler. » (Go e e 2008) 319 conception européenne des nanotechnologies et contraire à la Charte des droits fondamentaux de l’Union européenne146 qui énonce notamment l’inviolabilité de la dignité humaine, le droit au respect de la vie privée et familiale, le droit à la protection des données à caractère personnel et le droit à l’intégrité physique et mentale de la personne qui implique notamment l’interdiction de faire du corps humain et de ses parties une source de profit. Si on considère les nanotechnologies comme constitutives d’innovations susceptibles d’entraîner un progrès industriel et économique ainsi que – dans le domaine particulier de la médecine -, comme un moyen d’amélioration des possibilités diagnostiques, curatives et préventives, il faut les situer dans la hiérarchie des valeurs sociales et éthiques et rappeler la primauté de l’être humain dont l’intérêt et le bien-être doivent prévaloir sur le seul intérêt de la société ou de la science147. Ce e soumission des technologies à la dignité de l’homme, à ses droits et libertés fondamentales entraîne deux conséquences qui doivent servir de guide dans l’élaboration d’un cadre normatif : • la prévention des risques en matière de santé publique, sûreté, sécurité et de protection environnementale qui implique un développement et une incitation à la recherche en toxicologie et en écotoxicologie ; • l’information des consommateurs sur les produits contenant des nanoparticules : étiquetage compréhensible et spécifique, fiche de données pour chaque produit148. 146 Chartre des droits fondamentaux de l’Union européenne, 2000/C364/01, JOCE, 18 décembre 2010 ; voir notamment les art. 1, 2, 3, 6, 7 et 8. 147 Voir notamment la Convention pour la protection des droits de l’homme et la dignité de l’être humain à l’égard des applications de la biologie et de la médecine : Convention sur les droits de l’homme et la biomédecine, Conseil de l’Europe, 4 avril 1997, art. 1 ; Déclaration universelle sur la bioéthique et les droits de l’homme, UNESCO, 19 octobre 2005, art. 3, 2. 148 Avis du GEE (Groupe Européen d’Ethique des sciences et des nouvelles technologies) sur les aspects éthiques de la nanomédecine, communiqué de presse du 24 janvier 2007, h p://ec.europa.eu/european_groups_ethics/ activities/docs/opinion_21_nano_en.pdf ; voir aussi les travaux sur les nanotechnologies de l’Agence européenne des médicaments (EMEA 320 Le principe de précaution La définition et la mise en œuvre de ce principe est complexe pour di érents motifs149 : • le risque ne se limite pas au danger intrinsèque du produit envisagé mais implique une analyse par référence à l’utilisation du produit et au milieu dans lequel ce e utilisation se développe ; • le risque ne peut se limiter à un objectif quantifiable à court terme mais doit également envisager un objectif à plus long terme. En matière de nanotechnologie, la di culté spécifique tient au fait que les conséquences nuisibles pour la santé, l’environnement, la protection du travail relèvent souvent plus de l’incertitude que du risque au sens strict : les conséquences de ce e incertitude sur les propriétés des matériaux tiennent notamment à l’insu sance des méthodes d’évaluation adaptées aux spécificités des nanomatériaux ; • l’impact du principe de précaution sur la décision d’entreprendre une activité dont les e ets nuisibles ne sont pas totalement connus est di cile à mesurer. Sachant que le risque zéro n’existe pas, il apparaît que si on interprète le principe de précaution de façon restrictive en en faisant un principe d’abstraction pure et simple en présence d’une probabilité – même infime –, de risque, aucune décision n’est possible (Houdy 2010, p. 502 ; Bensaude-Vincent 2010, p. 355 ; Bensaude-Vincent 2009 ; Dupuy 2007, p. 44 ; COMETS 2006). Ce e complexité est connue et reconnue par les instances européennes150 et fait l’objet de nombreuses analyses par les Reflection pages on nanotechnology-based medicinal products for Human use h p://www.emea.europa.en/pdfs/human/genetherapy/7976906en.pdf) et de l’Agence européenne des produits chimiques ainsi que de l’Agence européenne pour la sécurité et la santé au travail (OSHA). 149 Dans sa communication du 2 février 2000 (COM (2000) 1, p. 9 et 13), la Commission européenne constate l’absence de définition fixe du principe et renvoie aux instances juridictionnelles le soin d’en définir la portée. 150 La recherche en nanoscience et nanotechnologie fait partie des 6ème et 7ème programmes-cadres de la Commission de l’Union européenne en 2003- 321 comités d’experts et les Comités d’éthique – nationaux, européens, internationaux –, chargés de rendre des avis ou de formuler des propositions151. Les mêmes préoccupations se retrouvent dans les débats organisés au niveau national et européen et dans les rapports rendus publics qui en ressortent152. Les travaux menés sur l’application du principe de précaution dans le cadre particulier des nanotechnologies me ent en évidence la nécessité – précisément au regard des incertitudes –, d’intégrer le débat sur les risques sanitaires et environnementaux dans une réflexion éthique plus générale sur la vision de l’humain et de la société à long terme. 3.4. Sur un plan strictement technique, la mise en œuvre du principe de précaution devrait impliquer, selon les recommandations de l’AFSSET : • un examen – et donc un développement de la recherche –, des nanomatériaux au cas par cas, produit par produit, usage 2006 et 2007-2013. Dans le cadre du programme 2007-2013, le programme spécifique « coopération » comporte notamment un thème autonome sur les nanosciences, nanotechnologies, matériaux et nouvelles technologies de production. Décision 1982/2006/CE du Parlement européen et du Conseil du 18 décembre 2006 relative au 7ème programme-cadre de la Communauté européenne pour des actions de recherche, de développement technologique et de démonstration (2007-2013). Voir aussi les travaux de la DG «Santé et consommateur » de la Commission européenne (élaboration d’un inventaire des risques). 151 Voir notamment : avis n° 26 du Comité consultatif national d’éthique pour les sciences de la vie et de la santé, 1er février 2007 ; rapport de l’OPECST (O ce Parlementaire d’Evaluation des Choix Scientifiques et Technologiques) sur « nanosciences et progrès médical », 6 mai 2004, Assemblée Nationale (France), n° 1588 (12ème législature) et Sénat (France) n° 293 (session ordinaire 20032004) ; Recommandation de l’AFSSET (Agence Française de Sécurité Sanitaire de l’Environnement et du Travail) sur l’évaluation des risques liés aux nanomatériaux pour la population et dans l’environnement, 17 mars 2010, www.afsset.fr 152 Cfr le réseau thématique des nanoforums lancé dès 2003 par la Commission européenne (5ème programme-cadre) proposant un débat sur les aspects éthiques, légaux et sociétaux ainsi que sur les bénéfices et les risques des nanotechnologies, www.nanoforum.org 322 par usage car selon la formulation ou la matrice où il est incorporé, chaque nanomatériau acquiert une réactivité et un comportement di érents ; • l’élaboration d’une méthode d’évaluation des risques adaptée aux spécificités des nanomatériaux ; • la prescription obligatoire de la traçabilité des nanomatériaux et la mise en place d’un étiquetage pour les consommateurs ; • la limitation des nanos aux usages essentiels, ce qui implique d’interdire des usages qui sont de faible utilité au regard des dangers potentiels ou lorsque des produits équivalents sans nanoparticules existent153. En prolongement de ces recommandations, l’AFSSET a lancé en mars 2010, une action conjointe européenne sur trois ans pour la caractérisation du potentiel génotoxique des nanomatériaux. Le but de ce e action – appelée programme NANOGENOTOX –, est, conformément au programme de santé publique européen, de fournir à la Commission européenne une méthode alternative fiable de détection du potentiel génotoxique154 de nanomatériaux susceptibles d’engendrer un risque de cancer ou de toxicité pour la reproduction chez l’homme155. Le programme est donc ciblé sur la mise en place de tests de génotoxicité afin de répondre aux incertitudes existantes sur les risques spécifiques des substances à l’échelle nanométrique, comparativement 153 Recommandation de l’AFSSET sur l’évaluation des risques liés aux nanomatériaux pour la population et dans l’environnement, 17 mars 2010, www.afsset.fr 154 Risque de toxicité pour l’utilisateur vu la pénétration dans le corps humain et risque pour les travailleurs des firmes de fabrication des nanoparticules (risque d’inhalation, absorption dermatologique… ). 155 L’étude porte sur 14 nanomatériaux classés en trois groupes sélectionnés en fonction des critères suivants : usage possible dans di érents types de produit (cosmétique, aliment, produit de consommation courante), voie d’exposition potentielle (orale, cutanée, inhalée) et production en Europe. Elle est coordonnée par l’AFSSET et comprend 13 Etats membres de l’Union européenne ; son financement est assuré à 45% par la Commission européenne. Les travaux s’inscrivent dans le cadre d’autres initiatives internationales et notamment les travaux du Comité technique sur les nanotechnologies de l’Organisation internationale de normalisation (ISO TC 229). 323 aux substances de même entité chimique d’échelle plus grande156. 3.5. Les incertitudes qui entourent les nanotechnologies et les di cultés qui en résultent quant à l’application normative du principe de précaution conduisent au constat que si le débat sur les risques est indispensable, il convient toutefois de l’intégrer dans une réflexion éthique plus générale et plus fondamentale. Ce e approche est nécessaire au regard des risques pour la santé157, pour le respect de la vie privée158, de la dignité159 et de la nondiscrimination160. Ce e réflexion éthique a sa place dans tous les domaines touchés par les nanotechnologies et, notamment, dans le domaine de la médecine. L’administration à l’homme de nano-objets est certes soumise à la contraignante réglementation de la mise sur le marché des médicaments et des matériaux implantés, impliquant des essais expérimentaux et cliniques approfondis161. 156 Selon un avis de janvier 2009 du Comité scientifique européen sur les risques sanitaires émergents et nouveaux – SCENHIR, groupe d’experts de la Commission européenne –, peu de données existent actuellement et les résultats des études menées sont contradictoires. 157 Notamment par l’e et de nano-vecteurs pharmacologiques sur les mécanismes physiologiques de l’organisme et notamment la rupture des barrières biologiques, telle la barrière entre sang et cerveau. Le défaut d’information du public se double ici d’une confusion entretenue entre recherche finalisée et recherche fondamentale (avis n° 26 du CCNE du 1er février 2007). 158 Absence de traçabilité des nanoparticules dans l’environnement et le corps humain avec le risque d’a einte à la vie privée, notamment par l’utilisation des nanoparticules pour exercer une surveillance et un contrôle à l’insu des personnes concernées (avis n° 26 du CCNE du 1er février 2007). 159 Réduction de l’être humain à ses paramètres génétiques et biochimiques. 160 Notamment dans le domaine médical, le risque de discrimination entre patients fortunés ou non quant à l’accès aux nanotechnologies. OPECST, Rapport sur « nanosciences et progrès médical », 6 mai 2004, Assemblée Nationale (France) n° 1588 (12ème législature) et Sénat (France) n° 293 (session ordinaire 2003-2004). 161 Voir notamment Règlement (CE) n° 726/2004 du Parlement européen et du Conseil du 31 mars 2004 établissant des procédures communautaires pour l’autorisation et la surveillance en ce qui concerne les médicaments à 324 Des risques encore mal identifiés pour l’homme ou l’environnement restent cependant possibles162. Par ailleurs, si les nanosciences et les nanotechnologies représentent une avancée au regard des progrès thérapeutiques163, il reste qu’elles peuvent conduire – si elles sont mal utilisées ou mal maîtrisées –, à une transformation de la médecine qui ne servirait plus seulement à « rétablir la santé », mais chercherait à créer des « surhommes », des « êtres parfaits » grâce à l’acquisition de nouvelles qualités ou de nouvelles capacités en relation avec l’implantation de nanodispositifs164. Aussi, l’indispensable réflexion éthique doit-elle s’articuler autour de quatre axes : • la place de l’humain face à la recherche de productivité ; • les discriminations nouvelles que créent les nanotechnologies entre les États riches et les États pauvres qui n’ont pas accès aux technologies ; • le respect de la vie privée, de l’intégrité de la personne et du usage humain et à usage vétérinaire et instituant une agence européenne des médicaments ; Règlement (CE) n° 1394/2007 du Parlement européen et du Conseil du 13 novembre 2007 concernant les médicaments de thérapie innovante ; Règlement (CE) n° 141/2000 pour les médicaments orphelins ; pour plus de détails, voir les références sur le site de l’Agence européenne pour l’évaluation des médicaments (EMEA) : www.emea.europa.eu 162 Essentiellement au plan de la pénétration et de la circulation des nanoparticules dans le corps humain et de leur imprévisibilité liée au fait que la même substance peut avoir des propriétés di érentes selon l’échelle et même selon le nanomatériau dans lequel elle est mise en oeuvre 163 Dans le domaine de l’imagerie, du diagnostic, de la personnalisation des traitements adaptés aux particularités spécifiques du patient, dans le domaine du transfert ciblé des médicaments, dans celui de l’amélioration de la tolérance des matériaux de reconstruction prothétique implantés et dans le traitement des handicaps, notamment par la mise au point d’interfaces prothétiques homme-machine ; rapport « nanosciences et médecine » du groupe de travail de l’Académie nationale de médecine (France), Bull. Acad. Nat. Méd., 2008, Tome 192, juin-juillet, n° 6, p. 1253. 164 Le rapport de l’OPECST du 6 mai 2004 sur « nanosciences et progrès médical » (Assemblée nationale, France, n° 1588, 12ème législature et Sénat (France), n° 293, session ordinaire 2003-2004) souligne que ce e dérive peut, sans aller jusqu’à une prétention à l’immortalité, conduire au développement de microélectrodes, prothèses électroniques, implants en vue de la création d’une mémoire illimitée, d’un dopage, d’une sensorialité supplémentaire. 325 principe de dignité qui impose de ne pas réduire la personne à ses caractères corporels ou génétiques ; • la frontière entre thérapeutique et transhumanisme en nanomédecine, avec une interrogation éthique particulière sur le sens de la mort face à des technologies pensées en termes de tentation d’immortalité (Bensaude-Vincent 2010, p. 355 ; Ponce Del Castillo 2010). 3.6. Ce e perception de l’encadrement des nanotechnologies est celle des institutions européennes comme en témoigne le « Code de bonne conduite pour une recherche responsable en nanosciences et en nanotechnologies » adopté le 7 février 2008 par l’Union européenne165. Ce texte constitue un instrument législatif d’autorégulation certes utile pour la coopération entre États membres et pour l’établissement de normes mais dont il faut souligner le caractère non contraignant et le champ d’application limité à la recherche ; il faut également regre er l’absence de toute référence à une institution de contrôle des nanomatériaux, ce qui restreint la portée du document (Ponce Del Castillo 2010)166. Il s’inscrit dans le cadre de la création de l’espace européen de la recherche répondant aux nécessités et aux a entes de la communauté scientifique, des entreprises et des citoyens167 et fait suite 165 Recommandation de la Commission du 7 février 2008 concernant un code de bonne conduite pour une recherche responsable en nanosciences et en nanotechnologies, C. (2008), 424 final. Ce code a été élaboré après une consultation de la communauté scientifique, des industries et de la société civile organisée par la Commission européenne avec un double objectif : d’une part, collecter des informations en vue d’une réglementation spécifique di cile à élaborer vu le manque de connaissances quant à la fiabilité des nanotechnologies et quant à leurs risques, et, d’autre part, vérifier si le domaine des nanotechnologies est ou non déjà couvert par la législation communautaire (COM (2007) 505 du 6 septembre 2007). 166 Voir également la Résolution relative aux nanotechnologies et nanosciences adoptée le 28 mai 2009 par le Parlement belge (doc. parl., Chambre, session 2008-2009, 52-1811/006) 167 COM (2000) 6 du 18 janvier 2000 ; COM (2007) 161 du 4 avril 2007 326 à di érents travaux168 intégrant la problématique de la protection de l’environnement, la santé humaine et la sécurité et celles de la recherche et de la compétitivité. Les objectifs poursuivis par le Code de bonne conduite sont de perme re une coordination e cace entre les États membres sur base de lignes directrices communes afin de garantir que la recherche en nanosciences et nanotechnologies – recherches fondamentale et appliquée –, dans l’Union européenne se fait dans un cadre sûr, e cace, respectueux des principes éthiques et porteur d’un développement économique social et environnemental durable. Ces lignes directrices peuvent être très schématiquement présentées sous la forme de sept principes généraux : • la signification qui impose que la recherche en nanoscience et nanotechnologie soit compréhensible pour le public, respectueuse de ses droits fondamentaux et au service du bienêtre des personnes et de la société ; • Pour assurer l’accessibilité de l’information, les États membres coopèrent avec la Commission afin d’entretenir des forums de discussion ; • la durabilité qui suppose la contribution des recherches au développement durable et qui implique donc l’absence de toute nuisance pour les personnes, les animaux, les végétaux et l’environnement ; • le principe de précaution qui exige que les activités de recherche soient menées en anticipant les incidences éventuelles sur l’environnement, la santé, la sécurité et en prenant toute précaution utile ; • l’inclusion, soit la transparence des recherches, le respect 168 Communication de la Commission sur le recours au principe de précaution (COM (2000) 1 du 2 février 2000) ; communication « vers une stratégie européenne en faveur des nanotechnologies », (COM (2004) 338 du 12 mai 2004 ; voir également l’avis n° 21 sur les questions éthiques en nanomédecine présenté le 17 janvier 2007 par le Groupe européen d’éthique des sciences et de nouvelles technologies ainsi que les travaux du Comité scientifique des risques sanitaires émergeants et nouveaux sur la pertinence des méthodes d’évaluation des risques potentiels liés aux nanotechnologies (SCENHIR/002/05 du 10 mars 2006) 327 du droit à l’information et la participation de toutes les parties prenantes au processus de décision169, en ce compris la consultation des comités d’éthique compétents ; • l’excellence, c’est-à-dire le respect des normes scientifiques qui sont le fondement de l’intégrité de la recherche et des bonnes pratiques de laboratoire170 ; • l’innovation, soit l’encouragement aux activités créatrices en nanoscience et nanotechnologie, anticipant l’innovation ; • et enfin, la responsabilité des chercheurs et organisateurs de recherche pour les incidences de la recherche sur la société, l’environnement, la santé humaine. Plus spécifiquement, les travaux visant à apporter un bénéficie non thérapeutique aux êtres humains et ceux visant uniquement l’amélioration frauduleuse des performances du corps humain sont interdits. Ce code de bonne conduite est, nonobstant son caractère non contraignant, intéressant en ce qu’il définit les objectifs de l’Union européenne en veillant à y inclure l’éthique et le refus de toute conception post-humaniste ou transhumaniste des nanotechnologies jugée contraire à l’intégrité et à la dignité de la personne humaine. Ce même souci éthique conduit à donner une place essentielle au principe de précaution dont on sait combien il est di cile de préciser le contenu et la portée ; la Commission veille toutefois à en définir les applications essentielles afin que la primauté de l’homme sur la recherche soit rappelée. A ce titre, le principe de précaution contient les applications ci169 Dans le cadre de l’élaboration du plan d’action stratégique en matière de nanotechnologie (SNAP) pour 2010-2015, la Commission européenne a lancé en 2010 un processus de consultation publique dont les résultats sont publiés depuis mars 2010. European Commission, Report on the European Commission’s public on line consultation. Towards a strategic nanotechnology action plan (SNAP) 2010-2015, Brussels, May 2010 – h p://ec.europa.eu/ research/consultations/snap/report_en.pdf. Une consultation publique est également organisée par l’EFSA (Autorité Européenne de Sécurité des Aliments) afin d’élaborer les lignes directrices pour l’évaluation des risques associés aux applications impliquant l’utilisation de la nanoscience et de la nanotechnologie dans le domaine de l’alimentation humaine et animale. 170 Directives 2004/9/CE et 2004/10/CE. 328 après décrites, lesquelles sont intéressantes pour tenter de cerner le concept, même s’il faut rappeler qu’elles se limitent ici au seul domaine de la recherche. Aucune conséquence ne peut donc être déduite du texte quant à l’application du principe de précaution en matière de production et de commercialisation, domaines dans lesquels la question de l’abstention d’agir dans l’a ente d’une évaluation précise des risques se pose avec la même importance. Sous ce e réserve, le principe de précaution implique que : • vu le manque de connaissance concernant les retombées potentielles des nano-objets sur l’environnement et la santé, les États membres appliquent le principe de précaution pour protéger chercheurs, professionnels, consommateurs, citoyens et environnement171 ; • une analyse des risques doit être présentée pour chaque proposition de financement de travaux ; • une partie su sante de la recherche en nanotechnologie est consacrée à la compréhension des risques ; • avant évaluation des risques à long terme, il y a lieu de s’abstenir de mener les recherches impliquant l’intrusion volontaire de nano-objets dans le corps humain ou leur incorporation dans la nourriture, aliments pour animaux, jouets, produits cosmétiques… Tout récemment, une nouvelle application normative – et ce e fois contraignante –, du principe de précaution est faite dans le Règlement 10/2011/UE de la Commission concernant les matériaux et objets en matière plastique destinés à entrer en contact avec les denrées alimentaires172. Le considérant 23 souligne que « les nouvelles technologies produisent des substances à une dimension particulaire présentant des propriétés chimiques et physiques sensiblement di érentes de celles de particules plus 171 Prévention des pathologies établie conformément à la stratégie communautaire 2007-2012 pour la santé et la sécurité au travail. COM (2007) 62 du 21 février 2007. 172 JOCE 15 janvier 2011 – règlement applicable au 1er mai 2011. 329 grandes, par exemple sous la forme de nanoparticules. Ces propriétés di érentes peuvent engendrer des propriétés toxicologiques di érentes, de sorte que ces substances doivent être évaluées au cas par cas par l’Autorité pour ce qui est des risques, jusqu’à ce que l’on dispose de davantage d’informations au sujet de ces nouvelles technologies. Dès lors, il convient de préciser que les autorisations fondées sur l’évaluation des risques de la dimension particulaire classique d’une substance n’englobent pas les nanoparticules artificielles »173. 3.7. L’information des consommateurs, des utilisateurs et des travailleurs Dans sa résolution du 24 avril 2009, le Parlement européen souligne que « les connaissances sur les éventuels e ets sanitaires et environnementaux potentiels sont très largement prises de vitesse par les évolutions de marché compte tenu des développements particulièrement rapides dans le domaine de nanomatériaux, et ce e constatation soulève des question de fond sur la capacité du modèle actuel de gouvernance à faire face en « temps réel » aux technologies émergentes »174. Les études de toxicité sont en e et confrontées à une double di culté : • d’une part, les nanomatériaux sont le plus souvent étudiés lorsqu’ils sont déjà sur le marché, c’est-à-dire avec retard, sans étude de risque préalable ; • d’autre part, les instruments techniques – méthodologies de métrologie, tests de toxicologie et d’écotoxicologie, méthodes d’évaluation du risque, protocoles d’évaluation de l’impact environnemental, méthodes d’évaluation des seuils quantitatifs d’application des règlements… – , ne semblent pas scientifiquement pertinents en ce qui concerne les nanoparticules et nanomatériaux (Lacour 2009). 173 Ce e distinction entre substances nanoparticulaires et substances non nanoparticulaires est précisée à l’article 9 du règlement qui indique que « les substances se présentant sous une forme nanométrique ne peuvent être utilisées que si elles sont expressément autorisées et mentionnées dans les spécifications figurant à l’annexe 1 » du règlement. 174 Résolution du Parlement européen du 24 avril 2009 sur les aspects réglementaires des nanomatériaux, 2008/2208 (INI). 330 Ce e situation est préoccupante au regard de la protection des personnes – et de l’environnement –, et du droit à l’information. Celui-ci n’est e et pleinement respecté qui si les conditions suivantes perme ent un réel encadrement normatif (Verges 2010, p. 214) : • obligation pour les producteurs, importateurs, distributeurs de nanoparticules et nanomatériaux de déclarer les substances produites, la réglementation devant définir le contenu de la déclaration : composition, propriétés, précautions d’usage ou de conservation, prescriptions particulières pour la mise en déchet de la substance… • sur base de ces déclarations, une nomenclature des nanoparticules et nanomatériaux mis sur le marché – en ce compris les produits complexes contenant les nanoparticules et nanomatériaux –, est établie par les autorités publiques. • Elle permet une information des consommateurs et utilisateurs et une « stratégie de précaution » (Verges 2010, p. 214) par un contrôle du marché en fonction de la connaissance des e ets dommageables révélés par les tests toxicologiques ; • la nomenclature permet également l’établissement de normes contraignantes relatives à l’étiquetage et la traçabilité des produits, autre aspect de l’information indispensable des consommateurs et utilisateurs ; • enfin, un régime de sanctions – sanction pénale, pécuniaire et suspension de l’autorisation de mise sur le marché –, doit être organisé. Ces règles d’identification qui existent dans le domaine des produits chimiques175 perme ent l’information, mais également la connaissance distincte de chaque substance et donc l’adaptation du régime juridique aux risques spécifiques identifiés (Verges 2010, p. 214). Sur ce plan, force est de constater le caractère insu sant de la réglementation européenne qui ne contient aucune obligation 175 Voir infra. Règlement du Parlement européen et du Conseil du 18 décembre 2006 concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques ainsi que les restrictions applicables à ces substances. REACHRèglement (CE) 1907/2006. 331 générale d’étiquetage « nano » imposée aux producteurs, importateurs ou distributeurs176. Sous réserve des produits cosmétiques177 et peut-être bientôt des produits alimentaires178, l’indication de la présence de nanoparticules dans les produits n’est pas rendue obligatoire, ce qui signifie qu’on assiste aujourd’hui à un développement des nanomatériaux sans notification de leur présence ni a chage de leurs caractéristiques et toxicité potentielle. Il faut le regre er et souligner que sur ce plan, une réforme s’impose. Celle-ci ne sera cependant e cace que si l’obligation d’étiquetage et d’information s’accompagne d’une amélioration des connaissances sur les nano-éléments et leur toxicité ; à défaut, la mention « nano » sur les produits ne présente pas toute son utilité pour les consommateurs. On rappellera ici qu’en septembre 2010, dans le cadre de la présidence belge de l’Union européenne, une conférence a été consacrée au développement d’instruments de gestion et d’information concernant les nanomatériaux179. Elle a été organisée dans une « perspective d’écologie sociale », soit une écologie perme ant à la fois de protéger la santé et l’environnement, mais également de garantir le développement d’une économie sûre et saine. 176 Un inventaire des produits contenant des nanomatériaux sur le marché européen a été réalisé en novembre 2010 par le Bureau européen des unions de consommateurs avec l’ANEC (Organisation européenne de consommateurs). Toutefois, cet inventaire est fait au départ des sites internet des producteurs et distributeurs et risque dont d’être incomplet si ces sites ne précisent pas le contenu « nano » des produits. 177 Règlement (CE) n° 1223/2009 du Parlement européen et du Conseil du 30 novembre 2009 relatif aux produits cosmétiques qui impose, à dater du 1er janvier 2013, l’étiquetage des produits cosmétiques contenant des nanomatériaux. 178 Règlement (CE) n° 258/97 du Parlement européen et du Conseil du 27 janvier 1997 relatif aux nouveaux aliments et aux nouveaux ingrédients alimentaires appelés « Novel Food » actuellement en révision. Le Parlement européen veut rendre obligatoire la mention « nano » pour les aliments pour lesquels les nanomatériaux ont deux implications majeures : les agents de conservation et les additifs. 179 « Réguler les produits contenant des nanomatériaux : la traçabilité comme condition d’acceptabilité », h p://www.eutrio.be/fr/print/11362 332 Dans ce contexte, le ministre belge de l’énergie, de l’environnement, du développement durable et de la protection des consommateurs a rappelé qu’eu égard aux incertitudes entourant les nanotechnologies, il était indispensable que les consommateurs puissent être assurés que tout produit contenant des nanomatériaux ou fabriqué grâce à des nanotechnologies, présent sur le marché, ait été testé par un organisme indépendant et ne présente pas de risque pour leur santé180. Le contenu de la réglementation 4.1. La troisième question concerne le contenu même d’une réglementation, interrogation qui peut conduire à trois axes di érents de réflexion normative. Le premier – très théorique au regard des réalités économiques –, consisterait à rendre obligatoire un moratoire dans la commercialisation et la distribution des nanomatériaux en raison de l’incertitude liée à la connaissance insu sante des risques toxicologiques de la matière manipulée à un niveau où les propriétés chimiques et physiques di èrent de celles des matériaux à plus grande échelle. Ce e di culté liée notamment à l’absence de méthodologie de tests spécifiques est encore aggravée par le constat de l’extrême diversité des domaines visés, chacun avec ses particularités : électronique, informatique, médecine, cosmétologie, alimentation, dispositifs médicaux, biens de consommation, pharmacie, aéronautique, communication, chimie, industrie automobile, exploration spatiale, climatologie, sécurité, énergie… sans oublier qu’à côté des nanomatériaux fabriqués existent également des nanomatériaux à l’état naturel dans les nuages, la cendre volcanique, la fumée… Dans chacun de ces domaines, les nanomatériaux sont 180 Ce e « perspective d’écologie sociale » s’inscrit dans le plan d’action européen « Environnement et santé ». Elle se fonde sur diverses propositions visant à rendre obligatoire l’information du consommateur, à garantir la traçabilité, à identifier la piste réglementaire la plus appropriée, à me re en place – à titre transitoire –, une stratégie au niveau national de chacun des Etats membres et enfin, à réglementer les allégations présentes sur les produits contenant des nanomatériaux. 333 di érents et leurs utilisations sont di érentes, ce qui entraîne une imprévisibilité supplémentaire liée au fait qu’une même substance peut avoir un « comportement » di érent selon les nanomatériaux mis en œuvre, le milieu, les conditions d’utilisation. Le constat de ces incertitudes et imprévisibilités pourrait fonder une application stricte du principe de précaution eu égard aux risques potentiels des nanotechnologies pour la santé, l’environnement, les travailleurs181. L’instauration d’un moratoire général ne paraît cependant guère réaliste dès lors qu’il faut tenir compte des contraintes du marché et de la compétitivité, mais également du fait que les nanomatériaux sont déjà présents sur le marché (Thie ry 2000, p. 184). Les impératifs économiques conduisent au demeurant la Commission européenne à rejeter l’idée d’un moratoire jugé « dangereusement contre-productif », ce danger commercial et économique paraissant l’emporter sur le danger lié à l’existence sur le marché de nano-produits sans évaluation appropriée de leur impact sanitaire et environnemental182. Les deuxième et troisième axes de réflexion normative consistent à plaider en faveur d’une réglementation des nanotechnologies, sachant qu’une sous-question se pose alors immédiatement puisqu’il faut déterminer si une législation nouvelle et spécifique est nécessaire183 ou si, au contraire, une adaptation de la législation existante su t pour anticiper les risques et les dommages. Ce e sous-question est complexe puisqu’elle suppose qu’une réponse puisse préalablement être apportée aux interrogations développées ci-avant : 181 Voir le rapport sur les nanomatériaux et la santé présenté au Parlement européen le 2 avril 2009 par NANOCAP, consortium d’universités, ONG de défense de l’environnement et syndicats de pays européens collaborant pour un approfondissement des connaissances des nanotechnologies et des implications de leur développement rapide pour la société ; www.nanocap. eu 182 COM (2004) 338, « Vers une stratégie européenne en faveur des nanotechnologies ». 183 C’est-à-dire un cadre normatif spécifique aux nanomatériaux et nanotechnologies, étant entendu qu’une réglementation spécifique doit tenir compte des di érences entre les secteurs concernés. 334 • la définition des nanotechnologies et nanosciences ; • la connaissance des risques non seulement intrinsèques, mais également de ceux dépendant du milieu et des conditions d’utilisation des nanomatériaux pour l’environnement, la santé, les travailleurs ; • les implications de la diversité des matériaux visés, mais également des secteurs concernés ; • la mise en balance des motivations di érentes des parties concernées : scientifiques, toxicologues, industriels, consommateurs, régulateurs (Vinck 2009, p. 15). Les institutions européennes ont manifestement sur ce plan des conceptions divergentes, la Commission européenne considérant que la législation actuelle su t184, alors que le Parlement européen réclame l’élaboration d’instruments spécifiques. 4.2. La position de la Commission européenne Les premiers projets européens en matière de nanotechnologies datent de 1998 – 5ème programme-cadre –, avec, notamment, la mise en place de la plate-forme internet NANOFORUM destinée à la di usion d’informations sur ces technologies nouvelles. 184 Les milieux industriels pensent également que les réglementations européennes actuelles su sent, tout en étant conscients de la nécessité d’une mise en œuvre sécurisée des technologies et produits chimiques. L’industrie chimique a donc mis en œuvre des programmes d’information sur la protection dans les grandes industries. CEFIC (Conseil Européen des Fédérations de l’Industrie Chimique), The european chimical industry council position, Nanomaterials and nanotechnologies, 2009, h p://www.nanocap. eu/Flex/Site/Download.aspx?ID=3962 ; CEFIC, Responsiblecare, h p://www. cefic-1RI.org/index.php?page=projects. Au plan des implications juridiques de la nanomédecine, le GEE (Groupe Européen d’Ethique des sciences et des nouvelles technologies) ne préconise pas, pour le moment, de créer des structures réglementaires dédiées. Il préconise que les modifications nécessaires soient faites dans le cadre des structures existantes afin notamment de lever toute ambiguïté quant à la réglementation applicable : communiqué de presse du 24 janvier 2007, avis sur les aspects éthiques de la nanomédecine, www.ec.europa.eu/european_ group_ethics 335 Une priorité est donnée aux projets nanotechnologiques dans le 6ème programme-cadre de 2002-2006185 qui comprend notamment le financement du site CORDIS consacré aux nanotechnologies, aux nanosciences, aux nanomatériaux multifonctionnels fondés sur la connaissance et aux nouveaux procédés et dispositifs de production186. En mai 2004187, la communication de la Commission européenne « Vers une stratégie européenne en faveur des nanotechnologies » développe le double objectif européen, soit renforcer la position de l’Union européenne en recherche et développement dans le champ des nanotechnologies, tout en abordant les inquiétudes suscitées en matière de protection de l’environnement, santé publique et société. En juin 2005188 , la Commission européenne adopte un plan d’action sur les nanotechnologies et les nanosciences pour la période 2005-2009. Il prévoit l’évaluation des risques pour la santé humaine, l’environnement, les consommateurs et les travailleurs à tous les stades des cycles de vie de la technologie : conception, fabrication, distribution, utilisation, recyclage. La Commission annonce également qu’elle procèdera à un examen réglementaire de la législation communautaire dans les secteurs concernés189. 185 Le 6ème programme-cadre de la Commission européenne consacre un budget global de 1,3 milliard d’euros pour le secteur des nanotechnologies, ce qui représente certes une somme considérable mais qui reste trois fois inférieure à l’e ort budgétaire des USA pour la même période. Le budget alloué par l’Union européenne à la recherche sur les nanotechnologies est passé à 3,5 milliards d’euros entre 2007 et 2013. 186 h p://cordis.europa.eu/fr/home.html ; CORDIS (Community Research and Development Information Service) est un service d’information sur la recherche et le développement de l’Union européenne. Ses principaux objectifs sont de faciliter la participation aux activités de recherche communautaire, d’améliorer l’exploitation des résultats de la recherche et de promouvoir le partage du savoir-faire et l’adoption de nouvelles technologies, notamment à travers la publication des résultats de la recherche financée par l’Union européenne et menée au titre de programmes-cadres consécutifs. 187 COM (2004) 338 final. 188 Communication de la Commission « Nanosciences et nanotechnologies : un plan d’action pour l’Europe 2005-2009 », COM (2005) 243 final. 189 Matériaux nanostructurés et matériaux nanométriques manufacturés à l’exclusion des nanomatériaux et nanoparticules générés naturellement. Les textes applicables sont notamment ceux régissant les substances chimiques, la 336 Le « défi réglementaire » posé est de faire bénéficier la société des applications innovantes des nanotechnologies, tout en préservant un niveau élevé de protection de la santé, la sécurité, l’environnement. Le 7 février 2008, la Commission a adopté une recommandation sur un code de conduite pour une recherche responsable en nanosciences et nanotechnologies. Orienté autour de sept principes généraux recouvrant des questions telles que la durabilité, la précaution, l’inclusion et la responsabilité, le code de conduite invite les États membres à engager des actions concrètes, auxquelles prendront part universités, instituts de recherche et entreprises, pour un développement et une utilisation sûrs des nanotechnologies190. Le 17 juin 2008, la Commission a adopté une communication sur les aspects réglementaires liés aux nanomatériaux. Reposant sur un état des lieux de la législation communautaire dans les secteurs concernés, le texte de la Commission conclut que les risques potentiels aux niveaux de la santé, de la sécurité et de l’environnement liés aux nanomatériaux sont « en principe » couverts par la législation européenne en vigueur dans les domaines des produits chimiques, de la santé et sécurité des travailleurs, des exigences de sécurité des biens et de l’environnement. Cependant, l’exécutif européen estime que la législation en vigueur pourrait devoir être modifiée en fonction des connaissances scientifiques nouvelles sur l’évaluation des risques191. Enfin, la communication de la Commission au Conseil, au Parlement européen et au Comité économique et social européen du 29 octobre 2009 – « nanosciences et nanotechnologies : un plan d’action pour l’Europe 2005-2009 – second rapport de mise en œuvre 2007-2009 »192 -, confirme la stratégie de la Commission : il s’agit tout à la fois et de façon simultanée, de renforcer la recherche pour développer et commercialiser les produits de la nanotechnologie, d’obtenir protection des travailleurs, les produits, la protection de l’environnement. 190 Recommandation de la Commission sur un code de conduite pour une recherche responsable en nanosciences et en nanotechnologies, C (2008) 424 final ; voir supra. 191 Il en va notamment ainsi en ce qui concerne les seuils quantitatifs retenus dans certaines législations pour définir la mise en application de la norme ; voir notamment, infra, le règlement REACH. Communication de la Commission sur les aspects réglementaires des nanomatériaux, COM (2008) 366 final ; à ce e communication est joint un document de travail des services de la Commission proposant un résumé de la législation en ce qui concerne les aspects de nanomatériaux liés à la santé, la sécurité et l’environnement et faisant état des recherches à e ectuer aux fins de la réglementation et des mesures correspondantes (SEC (2008) 2036). 192 COM (2009) 607 final. 337 des informations pertinentes en matière d’analyse des risques, d’améliorer les méthodes d’essai, de développer les bases de données et d’accélérer la mise au point de normes en matière d’essai pour l’OCDE193. La Commission confirme que les cadres réglementaires en vigueur couvrent « en principe » les risques potentiels en matière de santé, de sécurité et d’environnement liés aux nanomatériaux, mais toujours sans exclure un changement réglementaire en fonction d’éléments nouveaux. En d’autres termes, la protection de la santé, de la sécurité et de l’environnement doit être renforcée par une meilleure mise en œuvre de la législation actuelle, même s’il n’est pas exclu d’examiner la nécessité de modifier un règlement sur des aspects spécifiques194. Enfin, si le cadre normatif est « en principe » su sant, on relève toutefois que la Commission retient parmi les obstacles spécifiques à surmonter, la nécessité de renforcer les connaissances dans des domaines tels que la toxicité et l’écotoxicité notamment. Sur ce plan, la Commission se dit « consciente » de la nécessité de disposer d’un état des lieux plus fidèle et plus détaillé et compte présenter des informations plus précises en 2011. L’examen de la réglementation et de la révision nécessaire est également annoncé pour 2011. La lecture des textes émanant de la Commission peut laisser perplexe. On comprend certes l’importance des exigences de la compétitivité européenne, mais il reste que le principe de précaution est mis à mal dès lors que le conflit d’intérêt entre recherche et commercialisation se 193 Ces objectifs doivent être mis en parallèle avec le programme « coopération » du 7ème programme-cadre 2007-2013 (décision 1982/2006/CE du Parlement européen et du Conseil du 18 décembre 2006 relative au 7ème programmecadre de la Communauté européenne pour des actions de recherche, de développement technologique et de démonstration (2007-2013). Dans la « stratégie communautaire 2007-2012 pour la santé et la sécurité au travail » de la Commission des Communautés européennes, la nanotechnologie est abordée comme un des nouveaux risques pour lesquels la recherche fondamentale et appliquée est essentielle (COM (2007) 62 final). 194 Notamment une réévaluation des contraintes en matière d’information des consommateurs. 338 traduit par une normalisation de l’incertitude. Ce e perplexité se trouve confortée à la lecture de la réponse donnée au nom de la Commission à une question parlementaire, le 14 décembre 2010. On y lit en e et que la Commission travaille sur deux plans di érents qui sont envisagés de façon simultanée et non de façon successive, alors cependant que le caractère successif des analyses répondrait plus adéquatement au principe de précaution : • d’une part, la Commission finance des recherches sur la connaissance et l’évaluation des risques nanotechnologiques, sollicite des avis de comités scientifiques indépendants, prend part à des activités internationales sur l’étude des risques et travaille à l’élaboration d’une définition du terme « nanomatériaux » qui perme ra de clarifier l’étendue des obligations juridiques ; • d’autre part et dans le même temps, elle passe en revue les législations existantes en ayant égard à la nécessité de procéder à une approche « au cas par cas » en l’absence de modèle général applicable au recensement des risques195. 4.3. La position du Parlement européen La position du Parlement européen est marquée par une sensibilité très ne e aux incertitudes entourant les nanotechnologies et par une volonté de donner la primauté au principe de précaution sur toute autre considération. Ainsi, dans sa résolution du 24 avril 2009 sur les aspects réglementaires des nanomatériaux196, le Parlement européen souligne les avancées considérables de l’utilisation des nanomatériaux et nanotechnologies pour les consommateurs, les patients, l’environnement et la compétitivité de l’économie, tout en relevant 195 Pour une approche des projets de recherche, voir p:// p.cordis.europa. eu/pub/nanotechnology/docs/compendium-nanosafety-cluster2010_en.pdf ; pour les avis des comités scientifiques, voir h p://ec.europa.eu/health/archive/ ph_risk/commi ees/04_scenihr/docs/scenihr_o_023.pdf CSRSEN, 2009. 196 2008/2208 (INI). 339 immédiatement les points négatifs qui sont la contrepartie de ce développement : • manque d’information et de connaissance au niveau des définitions ; • manque d’information et de connaissance sur l’utilisation réelle de nanomatériaux dans les produits de consommation ; • manque d’information et de connaissance sur les risques potentiels et la toxicité, que ce soit pour la santé, l’environnement ou, plus particulièrement, la protection des travailleurs. Sur ce point particulier, le Parlement européen rappelle que les comités scientifiques et les agences de l’Union européenne dénoncent l’absence de données et de méthodes d’évaluation197 ; il souligne également l’insu sance du financement de la recherche dans le 7ème programme-cadre européen ; • enfin, nécessité d’une discussion éthique préalable, notamment pour répondre aux conséquences d’une possible convergence des nanotechnologies, biotechnologies, biologies, sciences cognitives et technologies de l’informatique. Le Parlement européen en conclut qu’il est indispensable d’élaborer un ensemble de normes di érenciées, c’est-à-dire adaptées aux nombreux secteurs dans lesquels interviennent les nanotechnologies – la variété de ces secteurs est telle qu’un cadre réglementaire européen unique ne peut pas être mis en place –, et fondées sur les principes de précaution, de responsabilité du producteur et du « pollueur-payeur ». Aussi, le Parlement européen ne peut adhérer aux déclarations de la Commission a rmant que la législation en vigueur couvre, « dans son principe », les risques liés aux nanomatériaux, ni à l’idée qu’il su rait d’améliorer l’application de la législation pour assurer la protection de la santé, de la sécurité et de l’environnement et ce, en raison de l’absence de données et de méthodes appropriées pour connaître et traiter les risques spécifiques. Le Parlement européen invite donc la Commission à réviser la législation dans un délai de deux ans afin d’avoir des instruments spécifiques – produits chimiques, denrées alimentaires, biocides, 197 Cfr les travaux du SCENIHR (voir supra). 340 additifs alimentaires, aliments pour animaux, qualité de l’air et de l’eau, déchets, protection des travailleurs… –, et à élaborer une définition harmonieuse des nanomatériaux. La demande du Parlement européen porte tout spécialement – dans les diverses réglementations –, sur l’exigence d’un enregistrement et d’une notification de tous les nanomatériaux perme ant l’établissement d’un inventaire, sur l’évaluation au plan de la sécurité chimique, sur l’information des consommateurs – étiquetage « nano » –, et sur la mise au point urgente de protocoles adéquats d’essais et de normes en matière de métrologie perme ant d’évaluer l’exposition des travailleurs, des consommateurs et de l’environnement aux nanomatériaux et les risques liés à ces derniers durant l’intégralité de leur durée de vie198. Un financement plus important de la recherche est également demandé pour ce qui touche aux aspects liés à l’environnement, à la santé et la sécurité des nanomatériaux et l’amélioration des méthodes scientifiques d’évaluation de ceux-ci199. Enfin, les aspects éthiques sont également abordés puisque le Parlement européen « estime qu’il convient de définir, en temps utile et en particulier pour la nanomédecine, des orientations éthiques exigeantes comme le respect de la vie privée, le consentement libre et éclairé, les limites fixées aux interventions non thérapeutiques sur le corps humain, tout en encourageant ce domaine interdisciplinaire prome eur me ant en œuvre des technologies d’avant-garde comme l’imagerie et le diagnostic précoce et le traitement intelligent et e cace de nombreuses pathologies ; il demande au Groupe européen d’éthique des sciences et des nouvelles technologies de présenter un avis sur ce e question, en s’appuyant sur son avis n° 21 du 17 janvier 2007 sur les aspects éthiques de la nanomédecine, et en s’inspirant des avis établis par les organes européens nationaux compétents en matière d’éthique ainsi que des travaux menés par des organisations internationales, telle l’UNESCO »200. 4.4. La réglementation actuelle Le droit européen se caractérise par une inflation de textes 198 Résolution du Parlement européen du 24 avril 2009, 2008/2208 (INI), considérants 11, 12, 13, 15, 17 et 19. 199 Considérant 20. 200 Considérant 25. 341 applicables au droit des risques sanitaires et environnementaux en fonction du type de risque, des produits concernés, des personnes et milieux exposés ou encore des causes des dommages. Certains n’hésitent pas à parler d’une « sur-réglementation », d’une « inflation » normative ou encore d’une architecture juridique faisant figure de « labyrinthe antique » (Herve-Fournereau 2007 ; HerveFournereau 2008, p. 60). Ces textes ne sont cependant pas spécifiques aux nanotechnologies et apparaissent souvent incomplets et/ou inadaptés aux particularités de celles-ci et aux risques qu’elles peuvent entraîner. Plusieurs exemples peuvent illustrer ces di cultés dans le domaine des produits chimiques, cosmétiques et alimentaires ; le domaine des médicaments est, quant à lui, quelque peu di érent201. 4.4.1. Les médicaments Le domaine de la médecine semble susciter des questions di érentes eu égard aux particularités de l’utilisation qu’il fait des nanotechnologies. Les nanomédecines ne sont pas des médicaments mais des techniques de diagnostic, d’administration nouvelle ou de vectorisation des médicaments, d’encapsulation des molécules. Les nanomédecines consistent donc en une association d’une nanotechnologie et d’une substance médicament. 201 Ces domaines sont choisis à titre exemplatif, étant rappelé que les nanotechnologies et nanomatériaux sont susceptibles de tomber sous le coup d’autres règlements, sous réserve des di cultés déjà citées liées à l’absence de définition des nanomatériaux et nanoparticules et à l’incidence des seuils quantitatifs d’application des normes. On citera notamment les règlements spécifiques aux déchets et substances radioactives, polluants organiques persistants, qualité de l’air ambiant et air pur, politique communautaire de l’eau, dispositifs médicaux, prévention et réduction intégrées de la pollution, maîtrise des dangers liés aux accidents majeurs impliquant des substances dangereuses (Directive SEVESO II), agents chimiques, protection de la santé et la sécurité des travailleurs contre les risques liés à des agents chimiques sur les lieux du travail, mise en œuvre de mesures visant à promouvoir l’amélioration de la sécurité et de la santé des travailleurs… Ce e liste non limitative établit bien le caractère inflationniste du cadre normatif. 342 Or les médicaments font l’objet d’une réglementation très détaillée et les soucis toxicologiques en nanomédecine paraissent moins aigus que dans d’autres secteurs eu égard aux analyses pré-cliniques et cliniques qui précèdent l’autorisation de mise sur le marché202. La procédure centralisée d’autorisation de mise sur le marché – c’est-à-dire la procédure valable pour l’ensemble du territoire de l’Union européenne –, est organisée par les règlements européens, sous le contrôle de l’EMEA203 et du CSP204. Lors de l’évaluation de la demande d’autorisation de mise sur le marché, il est vérifié que les essais cliniques de médicament à usage humain ont été réalisés conformément aux exigences éthiques de la directive 2001/20/CE du Parlement européen et du Conseil du 4 avril 2001 concernant le rapprochement des dispositions législatives, réglementaires et administratives des États membres relatives à l’application des bonnes pratiques cliniques dans la conduite d’essais cliniques de médicaments à usage humain. L’EMEA rédige l’autorisation de mise sur le marché qui contient un résumé des caractéristiques du produit et des obligations en matière d’étiquetage et de notice205. 202 De nouveaux e ets secondaires liés à de nouvelles toxicités apparaissent mais sont moins graves pour le patient que les toxicités évitées grâce aux nanotechnologies. 203 Agence Européenne pour l’Evaluation des Médicaments. Règlement (CEE) n° 2309/93 du Conseil du 22 juillet 1993 remplacé par le règlement (CE) 726/2004 du Parlement européen et du Conseil du 31 mars 2004 établissant des procédures communautaires pour l’autorisation et la surveillance en ce qui concerne les médicaments à usage humain et à usage vétérinaire et instituant une agence européenne des médicaments. 204 Comité des Spécialités Pharmaceutiques. 205 Sur ces questions, voir règlement (CE) 1662/95 de la Commission du 7 juillet 1995 établissant certaines modalités de mise en œuvre des procédures décisionnelles communautaires en matière d’autorisation de mise sur le marché de médicaments à usage humain ou vétérinaire ; règlement (CE) n° 1394/2007 du Parlement européen et du Conseil du 13 novembre 2007 concernant les médicaments de thérapie innovante ; règlement (CE) n° 141/2000 pour les médicaments orphelins ; directive 2001/83/CE du 6 novembre 2001 instituant un code communautaire relatif aux médicaments à usage humain. La procédure centralisée est optionnelle pour les nouveaux médicaments (médicaments contenant une nouvelle substance active et médicaments présentant une innovation thérapeutique, scientifique ou technologique ou encore un intérêt au niveau communautaire) et obligatoire pour les médicaments issus de la 343 4.4.2. Les produits chimiques Le règlement REACH206 contient des dispositions d’ensemble applicables à la fabrication, la mise sur le marché et l’utilisation de substances chimiques telles quelles ou contenues dans des préparations ou des articles. Les dispositions s’appuient sur le principe de précaution puisqu’elles énoncent l’obligation pour les fabricants et importateurs de s’assurer qu’ils me ent sur le marché ou utilisent des substances sans e et néfaste pour la santé ou l’environnement. L’objectif est d’assurer la protection de la santé et de la sécurité, mais également la compétitivité et la libre circulation des substances dans le marché intérieur, sous le contrôle d’une institution communautaire, étant l’Agence européenne pour les produits chimiques (ECHA) (Thie ry 2000, p. 184). Un autre objectif consiste en un renforcement de l’esprit d’innovation de l’industrie chimique européenne207. Fabricants et importateurs doivent soume re un dossier d’enregistrement208 des substances chimiques contenant un rapport sur la sécurité chimique et toxicologique. Ce règlement ne vise pas expressément les nanomatériaux et ne contient aucune disposition qui leur soient propres. biotechnologie, les médicaments de thérapie innovante, les médicaments orphelins, les médicaments contenant une substance active nouvelle et dont l’indication thérapeutique est le traitement de l’immunodéficience, du cancer, d’une maladie neuro-dégénérative, du diabète, des maladies auto-immunes et d’autres dysfonctionnements immunitaires, ainsi que des maladies virales. 206 Registration, Evaluation, Autorisation of Chimicals, Règlement (CE) n° 1907/2006 du Parlement européen et du Conseil du 18 décembre 2006 concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques ainsi que les restrictions applicables à ces substances. 207 Ils doivent également orienter la recherche vers la création de substances nouvelles et non toxiques remplaçant les anciennes substances dont la toxicité est avérée. 208 L’enregistrement se fait selon un agenda qui place au premier plan des produits chimiques les plus dangereux et ceux utilisés dans les plus grands volumes. 344 Tout au plus peut-on considérer implicitement que les nanomatériaux et nanoparticules sont composés d’éléments chimiques et donc couverts par le règlement. Un document de travail interne de la Commission, sans valeur juridique, confirme que les substances chimiques revêtant une nanoforme relève du règlement REACH eu égard à la définition large des concepts de « substance », « préparation » ou « article »209. Il reste que les obstacles à l’application du règlement REACH aux nanomatériaux sont nombreux et questionnent quant à la réelle protection sanitaire et environnementale. On relèvera notamment les interrogations suivantes : le règlement fonctionne sur base d’un système d’enregistrement des produits chimiques dans une base de données gérée par l’Agence européenne pour les produits chimiques. Cet enregistrement ne s’applique toutefois qu’aux produits fabriqués ou importés dans des quantités supérieures à 1 tonne par an et par fabricant ou importateur. Ce critère quantitatif est motivé par la nécessité de préserver la praticabilité du système210. 209 Commission sta working on regulatory aspects of nanomaterials. h p:// ec.europa.eu/nanotechnology/index_en.htlm. La substance est tout élément chimique et ses composés à l’état naturel ou obtenu par un processus de fabrication. La préparation est un mélange ou une solution composée de deux substances ou plus. Enfin, un article est tout objet auquel sont donnés, au cours des processus de fabrication, une forme, une surface ou un dessin particulier qui sont plus déterminants pour sa fonction que sa composition chimique. Lors des discussions, le Parlement européen suggérait d’intégrer des dispositions spécifiques aux nanoparticules dans le règlement REACH en vue d’assurer une « évaluation adéquate de la sécurité de ces dernières comme condition préalable à leur fabrication et à leur mise sur le marché. » (Recommandation pour la deuxième lecture relative à la position commune du Conseil en vue de l’adoption du règlement du Parlement européen (PE) et du Conseil concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi que des restrictions applicables à des substances (REACH), rapporteur Guido SACCONI, Amendement 24 (Considérant 104bis (nouveau)) A6.0352/2006 du 13 octobre 2006 ; (Herve-Fournereau 2008, p. 57). 210 COM (2003) 644 final – Proposition de règlement du PE et du Conseil concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi que les restrictions applicables à ces substances (REACH), instituant une agence européenne des produits chimiques et modifiant la directive 1999/45/CE et le règlement (CE) (sur les polluants organiques persistants) – Proposition de directive du PE et du Conseil concernant 345 Or, ce seuil quantitatif communautaire est rarement atteint pour les substances sous forme nanométrique211 et n’est en outre pas déterminant au plan de l’analyse des risques. En e et, il semble acquis que le critère de volume n’est pas le seul en cause en matière de nanotechnologie mais doit être complété par une analyse des propriétés physiques, chimiques et biologiques spécifiques – c’est-à-dire di érentes de celles de mêmes éléments à l’échelle macroscopique. Le choix du critère quantitatif a pour conséquence un risque de non enregistrement de certains nanomatériaux et donc une non application des exigences de sécurité (AFSSET 2006). a) La demande d’enregistrement doit être accompagnée d’un dossier contenant des informations sur la fabrication et l’utilisation des substances, les risques physico-chimiques, toxicologiques et écotoxicologiques, la sécurité chimique tout au long de la chaîne de commercialisation, les dangers pour la santé humaine et pour l’environnement. Le contenu du dossier d’information varie selon un critère de quantité fabriquée ou importée. De plus, les méthodes d’essais et de tests toxicologiques ne sont pas toujours adaptées aux nanomatériaux, les « réactions » d’une nanoparticule étant di érentes de celle d’une substance à plus grande échelle212. l’enregistrement, l’évaluation et l’autorisation des produits chimiques, ainsi que les restrictions applicables à ces substances ; (Herve-Fournereau 2008, p. 60). 211 Sous réserve du droit de l’Agence européenne des produits chimiques de demander des informations sur toute substance, indépendamment des exigences minimales prévues dans le règlement REACH et sous réserve d’une application possible – lorsque les critères auront été définis –, des dispositions relatives aux substances prioritaires (article 44 : propriétés préoccupantes, persistantes, bio-accumulables). 212 Voir les études du CASG, Competent Authorities Sub-group on Nanomaterials, groupe d’experts des Etats membres de l’Union européenne sur les nanomatériaux dans le cadre réglementaire du REACH. Les insu sances du REACH au niveau des tests et de l’évaluation des risques liés aux nanotechnologies sont détaillées dans le rapport « Submission of wri en evidence to the study of novel materials » de la Commission royale sur la pollution environnementale (RU) h p://www.rcep.org.uk/reports/27novel%20materials/documents/HSE.pdf 346 La question reste posée de savoir si les obligations de notification et d’enregistrement s’appliquent à la nanoforme d’une substance déjà enregistrée. En d’autres termes, ce e nanoforme d’une substance existante est-elle une substance nouvelle ou doit-elle être traitée comme un produit chimique existant ? La question se pose dans le cadre de l’application du règlement REACH, mais également dans celui de l’application du Règlement (CE) 1272/2008 du 16 décembre 2008 relatif à la classification, l’étiquetage et l’emballage des substances et mélanges213. Les règles de classification et étiquetage des produits chimiques s’appliquent par référence aux propriétés intrinsèques de toute substance ou préparation dangereuse, ce qui semble impliquer une classification liée à la spécificité des nanomatériaux. La di culté tient à la circonstance qu’il n’y a pas de disposition expresse imposant de façon explicite la mention de l’état nanométrique de la substance concernée. Selon la Commission (Thie ry 2000, p. 184), la nanoforme doit donner lieu à des informations spécifiques, une évaluation de sécurité, éventuellement une classification di érente ou complémentaire, des mesures de gestion des risques propres. Ce e a rmation correspond certes aux particularités de la nanoforme – propriétés, caractéristiques, utilisation… –, par rapport à la substance à échelle macroscopique. Elle représente toutefois uniquement le point de vue de la Commission et est dépourvue de caractère contraignant à défaut de dispositions normatives sur ce e question. Ce e dernière observation rejoint le constat plus général qui peut être fait en matière de réglementation des substances chimiques. Les législations existantes doivent être approuvées en termes de 213 Règlement applicable au 1er décembre 2010 pour les substances et au 1er juin 2015 pour les mélanges. La substance a la même définition que dans le règlement REACH. Le mélange est une combinaison de deux ou plusieurs substances. 347 recensement, évaluation, prévention, réduction des risques, sécurité sanitaire et environnementale, contrôle des technologies… Il reste qu’elles sont adaptées aux substances chimiques « classiques » mais ne sont pas nécessairement adaptées aux nanomatériaux, compte tenu des incertitudes de terminologie – l’absence de définition harmonieuse des nanomatériaux empêche une détermination précise du champ d’application -, des incertitudes scientifiques quant aux risques et aux méthodologies de recherche, prévention et contrôle des risques. Ces incertitudes sont génératrices de préoccupations sérieuses pour l’environnement, la sécurité et la santé des utilisateurs et consommateurs et plus particulièrement, des travailleurs214. 4.4.3. Les cosmétiques Les produits cosmétiques constituent un exemple intéressant d’une réglementation prenant expressément en considération les spécificités des nanotechnologies dans l’élaboration d’un cadre normatif adapté. Le règlement existant215 a en e et dû être modifié eu égard aux risques spécifiques de toxicité – utilisation de nanoparticules connues pour leurs propriétés perme ant de traverser la peau et entrer dans le corps –, et au manque préoccupant d’informations sur ces risques216. Les nouvelles dispositions sont aujourd’hui contenues dans le règlement (CE) n° 1223/2009 du Parlement européen et du Conseil du 30 novembre 2009 relatif aux produits cosmétiques. S’il faut souligner l’importance de ce règlement comme premier instrument légal contenant des dispositions spécifiques aux nanomatériaux, il faut immédiatement relever que son champ 214 L’exposition aux nanomatériaux présente, selon des études récentes, des risques pour la santé des travailleurs, risques liés à l’absorption transdermale et respiratoire des nanoparticules. Il subsiste également de nombreuses inconnues quant à l’incidence sur les risques des particularités spécifiques de chaque nanoparticule ou des normes de concentration – en lieu et en temps –, des nanoparticules dans la zone de respiration des travailleurs. 215 Directive 76/768 CEE du 27 juillet 1976. 216 Les informations sur la toxicité potentielle des nanomatériaux dans la cosmétique étant tributaires des informations fournies par les fabricants ; (Ponce Del Castillo 2010). 348 d’application se trouve limité par une définition assez restrictive du terme « nanomatériau », même s’il est dès à présent précisé que la Commission pourra redéfinir le concept en fonction de l’apparition de nouvelles technologies217. Quatre types de dispositions normatives doivent retenir l’a ention dans l’analyse de l’objet de ce nouveau règlement qui est applicable au 1er décembre 2010 dans certaines de ces dispositions et au 1er janvier 2013 pour d’autres. a) règles nouvelles sur la notification et l’étiquetage Tous les produits cosmétiques contenant des nanomatériaux doivent être notifiés à la Commission et tout ingrédient sous forme nanométrique doit être clairement indiqué, avec une référence expresse au terme « nano » dans l’étiquetage218. b) application du principe de précaution Une procédure d’évaluation de la sécurité doit être exécutée pour tous les produits contenant des nanomatériaux et ce, avant la commercialisation. L’article 13 du Règlement précise qu’avant la mise sur le marché du produit cosmétique, diverses informations sont transmises à la Commission, notamment sur la présence de substances sous forme de nanomatériaux. c) restriction des nanomatériaux autorisés Le règlement précise les substances pouvant ou non être incorporées à un cosmétique. L’article 14 réglemente les restrictions concernant certaines substances : colorant, agent conservateur, filtre UV. d) transparence 217 Art. 2, 1K. Il s’agit en e et du matériau non soluble ou bio-persistant fabriqué intentionnellement et se caractérisant pour une ou plusieurs dimensions externes ou par une structure interne, sur une échelle de 1 à 100 nm. ; la référence au seul critère de la dimension est trop réductrice et il aurait fallu y ajouter le critère des propriétés de la particule à l’échelle nanométrique di érente de celle des matériaux à l’échelle macroscopique. (Ponce Del Castillo 2010). 218 Art. 19. 349 L’industrie se voit contrainte de fournir des informations sur l’utilisation des nanomatériaux dans les produits cosmétiques afin de renforcer les contrôles du marché. A dater de janvier 2013 et avant toute mise sur le marché, des informations spécifiques sont notifiées à la Commission : • identification des nanomatériaux • signification des nanomatériaux • estimation de la quantité destinée à être mise sur le marché • profil toxicologique • données relatives à la sécurité. En cas de doute sur la sécurité du nanomatériau, la Commission demande un avis au Comité scientifique européen pour la sécurité des consommateurs (CSSC). Enfin, au 11 janvier 2014 au plus tard, la Commission présente au Parlement européen et au Conseil un catalogue de tous les nanomatériaux utilisés dans les produits cosmétiques. Les dispositions du règlement en matière de nanomatériaux sont réexaminées régulièrement en tenant compte des progrès scientifiques et, pour la première fois, le 11 juillet 2018 au plus tard. 4.4.4. Les produits alimentaires Les nanotechnologies sont étudiées notamment pour tout ce qui touche au développement des « emballages intelligents »219, des activateurs antimicrobiens220 ou de l’incorporation de nanocapsules dans les aliments en vue de la di usion des nutriments. Les incertitudes pour la sécurité alimentaire liées à l’absence de cadre normatif sur l’utilisation des nanomatériaux dans les produits alimentaires ou sur les contraintes en matière d’étiquetage des 219 Emballage informant le consommateur d’une contamination. Capteurs décelant la dégradation, nanoparticule perme ant une meilleure conservation des aliments… (Ponce Del Castillo 2010). 220 350 nanoparticules221 a conduit la Commission à solliciter un avis sur les risques potentiels de l’EFSA, Autorité Européenne de Sécurité des Aliments (EFSA 2008). Celle-ci a conclu à la nécessité de procéder à des investigations plus poussées sur les risques de toxicité des nanomatériaux dans le domaine de l’alimentation humaine et animale. La Commission a alors présenté une proposition de réforme du règlement (CE) n ° 258/97 du 27 janvier 1997 relatif aux nouveaux aliments et aux nouveaux ingrédients alimentaires222 afin de me re en place une procédure centralisée d’évaluation de l’innocuité et de l’agrément des produits avec le concours de l’EFSA qui réalisera les évaluations et le Comité permanent de la chaîne alimentaire et de la santé animale223. Les débats sur ce e révision ont fait apparaître d’importantes dissensions entre les autorités européennes. Si un consensus existe entre Parlement, Commission et Conseil sur la nécessité d’assouplir la procédure d’autorisation – simplification et centralisation –, la délimitation du champ d’application du nouveau règlement est en revanche suje e à débat. 221 Un cadre normatif limité aux matériaux en matière plastique destiné à entrer en contact avec des denrées alimentaires est mis en place par le Règlement (UE) 10/2011 de la Commission du 14 janvier 2011 qui établit des exigences spécifiques applicables à la fabrication et à la commercialisation de ces matériaux (voir supra). 222 C’est-à-dire les aliments dont la consommation humaine était restée négligeable dans la Communauté avant le 15 mai 1997. 223 Le règlement Novel Food organise une procédure d’autorisation de mise sur le marché avec évaluation de l’innocuité des nouveaux aliments et ingrédients par les agences nationales compétentes et l’Autorité européenne de sécurité des aliments. Une évaluation initiale a lieu au niveau national, l’Autorité compétente transme ant l’évaluation à la Commission qui en assure la di usion à tous les Etats membres. En cas d’objection, la Commission sollicite l’avis de l’EFSA. En cas d’avis favorable, la Commission prend une décision d’autorisation moyennant certaines conditions : cadre d’utilisation du produit, dénomination, exigence d’étiquetage… Une dérogation à ce e procédure complète existe pour les produits dont il est démontré qu’ils sont l’équivalent (valeur nutritive, composition, usage, métabolisme… ) d’un produit déjà présent sur le marché ; dans ce cas, une simple notification à la Commission su t. Ce e procédure simplifiée ne peut pas s’appliquer aux aliments issus de nouvelles technologies. 351 Ainsi, l’inclusion des nanomatériaux dans le champ d’application du règlement ne fait pas l’unanimité224. Pour la Commission, le Règlement doit être immédiatement applicable aux « nanomatériaux manufacturés » dont une définition est proposée, tout en adme ant son adaptabilité future aux progrès scientifiques225. La Commission accepte cependant le principe d’un étiquetage obligatoire et systématique de toutes les denrées et ingrédients alimentaires contenant des nanomatériaux. En réponse à ce e proposition de la Commission, le Parlement européen a pris, le 25 mars 2009, une résolution législative faisant une application stricte du principe de précaution. Il demande que les aliments produits avec des nanotechnologies ne soient pas inscrits sur la liste communautaire aussi longtemps qu’une évaluation des risques n’a pas démontré que l’utilisation de chacun des aliments en question est sûre226. Le Conseil et la Commission n’ont pas suivi le Parlement européen dans ce e voie et ce dernier a, par une résolution législative du 7 juillet 2010227, réitéré son opposition en appelant à la mise en place d’un moratoire spécifiant que les aliments produits au moyen de nanotechnologies ne pourront être mis sur le marché avant l’adoption de méthodes spécifiques d’évaluation des risques par les Autorités européennes. La position adoptée par le Parlement européen a conduit la Commission européenne à demander à l’EFSA, en novembre 2009, d’élaborer un projet de lignes directrices pour l’évaluation des risques potentiels liés aux applications des nanosciences et nanotechnologies 224 Le second point de dissension concerne les denrées alimentaires provenant d’aliments clonés et de leur descendance. 225 Ce e définition se fait par référence à la taille, mais également aux propriétés di érentes de celle de la forme non nanotechnologique. 226 Le Parlement européen exige également un étiquetage spécial mentionnant la présence de tout nanomatériau, avec la référence expresse « nano ». 227 Résolution relative à la position du Conseil en première lecture en vue de l’adoption du Règlement du Parlement européen et du Conseil concernant les nouveaux aliments. 352 aux denrées alimentaires et aliments pour animaux (y compris les additifs, enzymes, arômes, matériaux en contact avec les aliments, nouveaux aliments, pesticides). La version préliminaire de ce document a été soumise à une consultation publique228. Rappelons ici que dans un précédent avis de février 2009, le Comité scientifique de l’EFSA avait conclu qu’une approche au cas par cas des risques serait nécessaire et que, dans la pratique, les données actuellement limitées et l’absence de méthodologies expérimentales validées pourraient rendre l’évaluation des risques de certains nanoproduits très di cile et suje e à un degré élevé d’incertitude. Les travaux de révision du Règlement Novel Food ont été suspendus en novembre 2010 par la présidence belge du Conseil de l’Union européenne, décision critiquée par les parlementaires européens qui déplorent « un manque de courage sur une problématique très importante pour les citoyens européens »229. Les négociations de conciliation entre le Parlement et le Conseil concernant l’actualisation du règlement sur les nouveaux aliments ont échoué lors de la réunion du 17 mars 2011230. Le même défaut d’accord a été constaté lors des pourparlers de conciliation du 28 mars 2011. Le règlement actuel sur les nouveaux aliments, adopté en 1997, restera donc en vigueur231. Au-delà des interrogations techniques sur le champ d’application du règlement Novel Food et des conséquences économiques du blocage de la révision du cadre normatif, le désaccord entre le Parlement européen d’une part et la Commission et le Conseil d’autre part, est exemplatif de la di culté – technique et éthique –, d’une mise en œuvre du principe de précaution. 228 www.esfa.europa.eu Déclaration de la députée italienne Gianni PITTELLA, h p://www.guengl. eu/. La décision a été transférée en troisième lecture à la présidence hongroise en place au 1er janvier 2011. 230 Communiqué de presse, www.europarl.europa.eu 231 h p://www.europarl.europa.eu/fr/pressroom/content/20110328IPR16525/ 229 353 Chacun se revendique de ce principe mais en lui donnant une interprétation très di érente. Alors que le Parlement européen appelle à un moratoire sur les aliments contenant des nanomatériaux jusqu’à ce que leur innocuité pour la santé humaine ait été prouvée, le Conseil – au nom du même principe – parle d’une évaluation systématique de la sécurité de ces mêmes aliments et d’une autorisation au cas par cas. Les considérations de compétitivité économique ne sont sans doute pas étrangères à ce e divergence qui repose la question de la définition des nanomatériaux, de leur inventaire et surtout, de la fiabilité des méthodes d’évaluation au regard des spécificités de l’échelle nanométrique. Conclusion On soulignera en termes de conclusion que l’encadrement normatif des nanotechnologies se heurte à une di culté majeure. Alors que le cadre normatif général est abondant, son application spécifique aux nanotechnologies est di cile en raison des incertitudes multiples qui entourent la définition des nanomatériaux et la connaissance technique des risques qu’ils génèrent. Ces incertitudes placent les régulateurs face à une situation di cile de choix entre l’application pure et simple d’un moratoire, l’élaboration d’une réglementation nouvelle et spécifique ou, plus simplement, l’adaptation de la réglementation existante. Le choix est complexe compte tenu des implications techniques, scientifiques et économiques. La complexité se renforce encore si on retient que le choix a également une dimension éthique qui ne se limite pas à un questionnement sur les implications sanitaires et environnementales mais qui intègre une réflexion sur le projet sociétal et sur la place de l’humain face aux enjeux économiques et technologiques. 354 Références AFSSET, Les nanomatériaux : e ets sur la santé et l’environnement, juillet 2006, h p://ec.europa.eu/environnement/chemicals/reach/pdf/nanomaterials.pdf BENSAUDE-VINCENT B., Les vertiges de la technoscience. Façonner le monde atome par atome, Paris, La Découverte, 2009. BENSAUDE-VINCENT B. et NUROCK V., « Éthique des nanotechnologies », dans HIRSCH E. (éd.) Traité de bioéthique, T I, éd. Erès, 2010. COMETS, Comité d’Ethique du CNRS, Avis sur les enjeux éthiques des nanosciences et nanotechnologies, 12 octobre 2006. DUPUY J.-P., « La nanoéthique existe-t-elle ? », Cahiers du Comité consultatif national d’éthique 52, 2007. EFSA, Dra opinion of the scientific commi ee on the potential risks arising from nanosciences and nanotechnologies on food and feed safety, 14 octobre 2008, www.efsa.europa.eu GOFFETTE J., Naissance de l’anthropotechnie. De la médecine au modelage de l’humain, Paris, Vrin, 2008. HERVE-FOURNEREAU N., Droit et risques environnementaux, Université virtuelle « Environnement et développement durable », Module Introductif Risques, 10 p., avril 2007. Plate-forme de formation de l’Ecole des Mines de Paris – h p://campus.ensmp.fr/ HERVE-FOURNEREAU N., « La sécurité sanitaire et écologique visà-vis des nanomatériaux », in Cahiers Droit, Sciences et technologies, Dossier thématique Droit et Nanotechnologies, n° 1, Paris, éd. CNRS, 2008. HOUDY P., « Nanosciences : anticiper les risques », dans HIRSCH E. (éd.) Traité de bioéthique, T I, éd. Erès, 2010. LACOUR S., Gouverner l’incertitude ; les apports des sciences sociales à la gouvernance des risques sanitaires et environnementaux, 6-7 juillet 2009, AFSSET, www.afsset.fr. PONCE DEL CASTILLO A.M., « La réglementation européenne en matière de technologies », Cahiers du CRISP 2065, 2010. THIEFFRY P., « La prise en compte du risque des nanoparticules et nanomatériaux. Informations et réglementation en amont. Mise en perspective juridique », dans LACOUR S. (éd.) La réglementation des nanotechnologies. Clair-obscur normatif, Bruxelles, Larcier, 2000. VERGES E., « Régime juridique d’identification et de suivi des nanoparticules », dans LACOUR S. (éd.) La réglementation des nanotechnologies. Clair-obscur normatif, Bruxelles, Larcier, 2000. VINCK D., Les nanotechnologies, coll. Idées reçues, sciences et techniques, éd. Le cavalier bleu, 2009. 355 Quelle éthique pour les nanotechnologies ? Bilan des programmes en cours et perspectives Bernade e Bensaude-Vincent232 Les appels à l’éthique déjà manifestes en 1998 dans le débat sur le clonage humain, puis en 2000 lors de la publication du Projet génome humain, se sont étendus au cours des années 2000 aux nanotechnologies. L’accompagnement éthique semble devenu une marque distinctive des technosciences actuelles, un passage obligé. Lorsque la National Nanotechnology Initiative démarre aux ÉtatsUnis, elle consacre 10 % de son budget aux études d’impacts éthiques, juridiques et sociétaux. Avec le même souci de responsabilité, un Center for Responsible Nanotechnology est créé à Palo Alto en 2002. Au nom du progrès, on a imposé toutes sortes d’innovations comme une nécessité à laquelle nulle société avancée ne pouvait se soustraire au cours du XXe siècle. Ce e foi aveugle dans le progrès technique, splendidement résumée dans le slogan de l’exposition universelle de Chicago dans les années 1930 – science finds, industry applies, man conforms –, a-t-elle cédé la place à une inquiétude éthique ? Les acteurs et promoteurs des nanotechnologies en plusieurs pays considèrent l’éthique comme une activité faisant partie des programmes de recherche et développement, comme une dimension qui doit être intégrée dès l’amont, expriment ouvertement leur volonté d’« innovation responsable ». Mais que recouvre ce nouveau slogan ? Un « besoin » d’éthique Avec les nanotechnologies, l’éthique est présentée comme un besoin impérieux issu d’un fossé existant entre les avancées techniques et les sociétés. Ce postulat du fossé a servi une argumentation véhémente en faveur d’une a itude pro-active en recherche éthique dans un article fameux intitulé « Mind the gap » (Mnyusiwalla 2003). Les trois signataires, 232 Université Paris 1/Institut universitaire de France 357 Anisa Mnyusiwala, Abdallah Daar et Peter Singer soulignent qu’un fossé considérable sépare les avancées scientifiques de l’éthique, qui reste largement en retrait, et doit ra raper l’innovation. On trouve la même injonction un an plus tard dans le rapport britannique Nanoscience and nanotechnology : opportunities and uncertainties de la Royal Society et de la Royal Academy of Engineering (Royal Society et Royal Academy of Engineering 2004). Est clairement énoncé le principe selon lequel l’avancée dans les nanotechnologies doit se doubler d’une réflexion sur leurs conséquences et d’une implication du public. Le rapport recommande en conséquence le lancement d’une vaste campagne de Public engagement in science. En France, au même moment, certains se montrent plus prudents. Le rapport sur les nanotechnologies de l’Académie des sciences et de l’Académie des technologies ne fait pas preuve d’une réelle prise en compte des nouvelles questions éthiques, se contentant d’a rmer que ces technologies comportent certes des risques, mais qu’ils sont maîtrisés et sous contrôle (Académie des sciences et Académie des technologies 2004). A l’inverse, Jean-Pierre Dupuy et Françoise Roure, de l’Ecole des mines, réclament une réflexion sur les risques et plus largement sur l’éthique liés aux nanotechnologies (Dupuy 2004a)233. En 2006, l’Unesco publie également un rapport qui aborde ces divers aspects, y compris les aspects géopolitiques (Unesco 2006). Ces divers rapports expriment un « besoin » d’accompagnement éthique qui semble étendre à l’innovation technologique en général un mouvement qui est déjà bien implanté dans la recherche biomédicale. L’approche ELSI (ethical, legal, societal impacts) Toutefois le tournant éthique prend ici une forme spécifique bien di érente des comités d’éthique. Il ne s’agit pas de réunir di érents acteurs qui prennent position en fonction de leurs convictions et opinions. Il ne s’agit pas davantage d’appliquer au domaine des nanotechnologies des théories éthiques déjà existantes comme l’éthique des vertus, le conséquentialisme ou encore le principlisme. Loin de promouvoir une nouvelle éthique appliquée - une nanoéthique 233 Voir aussi (Dupuy 2004b). 358 sur le modèle de la bioéthique – les recherches menées dans le cadre des initiatives en nanotechnologies se traduisent par la mise en place de programmes d’études d’impacts éthiques, juridiques et sociaux, connus sous l’acronyme ELSI (pour ethical legal and societal impacts). Ce type de programme mis en place pour la génomique, favorise les exercices d’anticipation des conséquences de la di usion des nouvelles technologies. Quelle utilisation serait faite des données recueillies sur le génome humain ? Fallait-il poursuivre le projet et séquencer les génomes de toutes les espèces ? Telles étaient les questions qui se posaient en génomique. Pour les nanotechnologies, il s’agit essentiellement d’anticiper d’éventuels conflits de valeurs suscités par les applications des nanotechnologies dans des sociétés où la vie privée, la liberté individuelle, la justice, la nature humaine sont des valeurs sinon sacrées du moins très prisées. Ces programmes de recherche ont favorisé l’émergence d’un champ nouveau qui mobilise autant que des philosophes professionnels de l’éthique, des sociologues, des juristes, des économistes qui sont étroitement associés aux recherches proprement techniques. Des motivations divergentes L’enthousiasme pour les programmes ELSI procède d’un concours de motivations pour le moins assez disparates. Pour les promoteurs des nanotechnologies qui sont les commanditaires de tels programmes, l’enjeu de telles recherches est très clair : il faut éviter le fiasco qui s’est produit avec les OGM en Europe, c’est-à-dire le rejet d’une innovation par les consommateurs au moment de sa mise sur le marché. Cela nécessite d’anticiper les conséquences de l’innovation pour aplanir les obstacles, et de préparer la société à la recevoir. Mihaïl Roco, chef d’orchestre de la Nanotechnology initiative américaine, ne s’en cache pas quand il a rme que l’enjeu est de monitorer l’évolution sociale résultant de ces technologies. “It is essential to prepare key organizations and societal activities for the changes made possible by converging technologies. Activities that accelerate convergence to improve human performance must be enhanced, including focused research and development […] to monitor the resultant societal evolution…” (Roco 2002). Pour les promoteurs des nanotechnologies, il est indispensable d’accompagner 359 la conception et la fabrication de nouveaux artefacts d’une ingénierie sociale consistant à préparer la société en amont, dès le stade de la recherche, à accepter des innovations. On est toujours dans la démarche « top-down » illustrée dans le slogan de l’exposition de Chicago des innovations issues des milieux de la science et de l’ingénierie qui sont imposées à la société considérée comme un simple récepteur passif ou consommateur. Certes la recherche en nanotechnologie et plus généralement dans les technologies convergentes s’autorise d’une « demande sociale » et se donne des finalités économiques ou sociales explicites. Ainsi le fameux programme NBIC – pour nanotechnologies, biotechnologies, informatique et cognition – lancé par Roco deux ans après la Nanoinitiative, s’intitulait « Converging Technologies for improving Human Performances ». Mais il est clair que ce sont les chercheurs et les politiques de la recherche qui décident de la demande sociale sans consulter les citoyens. Les philosophes et chercheurs en sciences sociales qui s’embarquent dans l’aventure ont en général des motivations tout autres. Pour eux, il ne saurait être question de renforcer l’acceptabilité sociale de ces innovations. Les nanotechnologies leur apparaissent plutôt comme un terrain à explorer, avec des financements juteux et des conditions d’accès au terrain privilégiées. En e et les programmes ELSI o rent la possibilité d’intervenir en amont, donnant ainsi la possibilité concrète de co-construire les sciences et la société. Il existe certes un point d’accord : sur la nécessité de prendre en compte la société dans la définition des orientations de recherche, de « vectoriser » la recherche vers un but assigné. Mais pour les chercheurs du courant Sciences Techniques Société qui ont patiemment analysé la construction sociale des sciences, il s’agit de passer à l’action et de co-construire e ectivement. Tel est l’objectif a ché des sixième et septième PCRD (programmes cadres de recherche et de développement) européens : alors que la construction de l’Europe politique montrait ses limites, le rapport européen répondant au programme américain NBIC tentait en quelque sorte de construire l’Europe à travers des choix scientifiques et technologiques. En critiquant les objectifs individualistes du programme NBIC, le rapport proposait d’orienter la recherche vers les valeurs européennes. « Les technologies convergentes sont des technologies potentialisantes (enabling technologies) et des systèmes de savoir qui se potentialisent mutuellement dans la poursuite d’un but commun » (UE 2004, p. 14). Dans ce e optique, le but n’est plus 360 posé comme nécessaire et indiscutable, il doit être révisé dans un processus perpétuel de renégociation qui mobilise divers acteurs ou « parties prenantes ». Ces di érences entre les promoteurs des nanotechnologies et les chercheurs en sciences humaines et sociales montrent combien ce champ d’innovation est conflictuel et sous tension, aux prises avec des parties prenantes animées par des intérêts et des aspirations propres. Cela demande un processus de négociation et l’intervention de politiques pour élaborer des incitations et encourager une dynamique permanente. Le Nano Code of Conduct, code de bonne conduite publié par la Commission européenne en 2009, résulte ainsi de la rencontre de parties prenantes : grandes entreprises, ONG, chercheurs en nanotechnologies, environnementalistes, militants, assureurs... Ce texte est appelé à être révisé tous les deux ans. Une activité e ervescente et tous azimuts La mise en œuvre des programmes ELSI a suscité une activité e ervescente un peu partout en Europe comme aux États-Unis. La nanoéthique est devenue une discipline à part entière, avec une floraison de programmes et de réseaux : par exemple, Nano-BioSafe, et Nano2Life en Europe. Une revue spécialisée Nanoethics, a été créée en 2007 et près de dix volumes collectifs internationaux ont été publiés. Une société savante internationale a été créée en 2009, S-Net (Society for Nanotechnology and Emerging Technologies) qui organise un congrès annuel réunissant tous les chercheurs concernés par l’interface nano et société. Un e ort considérable a été déployé pour intégrer la recherche en sciences sociales dans les grands centres de recherche en nanotechnologies : ainsi Robert Doubleday, sociologue, a-t-il été embauché pour travailler in situ à Cambridge (UK) dans le Nanotechnology Centre. Dans ce processus, l’éthique proprement dite tend à se diluer dans un ensemble hétéroclite de considérations qui ont pour point commun de concerner les citoyens et la société dans son ensemble, sous divers rapports. D’une part, la question des risques liés aux nanoparticules qui fait l’objet d’un programme distinct aux États-Unis (EHS pour 361 Environmental, Health, Safety) est aussi le plus souvent au cœur des programmes ELSI. Les nanoparticules d’ores et déjà entrées dans le circuit commercial (nano-argent, ou di-oxyde de titane nanostructuré) semblent en e et en contradiction avec la politique de précaution voulue par l’Europe, en particulier. C’est pourquoi en France, les agences nationales dédiées aux risques technologiques ont été mobilisées. Après le rapport de l’Afssa (Agence française de sécurité sanitaire des aliments) qui sonnait déjà l’alerte en 2006, celui de l’Afsset (Agence française de sécurité sanitaire de l’environnement et du travail) en 2010 fait preuve d’une vigilance extrême, appelant même à l’arrêt de la mise sur le marché d’un grand nombre de nanoparticules. Les impacts sociétaux constituent un deuxième thème de recherche : les nanotechnologies rendent possible la production de capteurs minuscules et peu coûteux qui pourront être implantés n’importe où pour surveiller ou espionner les personnes à leur insu. Ces nanodispositifs invisibles et invasifs peuvent présenter une menace pour la vie privée, pour la liberté individuelle et même pour la dignité humaine dans la mesure où le couplage capteur-actionneur rendra possible la manipulation de la volonté et du comportement par des implants. La sécurité des individus comme des pays, figure en troisième lieu parmi les thèmes relevant des recherches ELSI. Il s’agit d’évaluer l’impact d’armes de combat autonomes téléguidées ou bien disséminées sous forme de nanopoussières toxiques sur les politiques de dissuasion autant que d’envisager quel équilibre géopolitique pourrait résulter d’une économie fondée sur les nanotechnologies, notamment dans les relations Nord-Sud. Les questions de justice distributive sont donc à prendre en considération. Enfin une grande partie des recherches porte sur les enjeux éthiques de la nanomédecine avec les diagnostics sur puce, les biomarqueurs, qui posent des problèmes de santé publique et d’équité devant la santé. L’anticipation des questions posées par la possibilité d’augmenter les performances humaines a concentré l’a ention des philosophes car elle pose le problème de la nature humaine. C’est en e et le but assigné au programme de convergence entre les nanotechnologies, les technologies de l’information, les biotechnologies et les sciences de la cognition (NBIC) lancé aux États-Unis en 2002 dans la foulée de la NanoInitiative. Des humains dopés, augmentés, rajeunis et peut362 être même immortalisés… voilà qui défie toutes les limites actuelles et interroge la notion même de « nature humaine ». Illusion de contrôle, e ets pervers Après dix ans de démarche ELSI en nanotechnologies, où en eston ? L’idée est acquise que l’innovation dans les nanotechnologies est peut-être la solution à des questions sociales, mais qu’elle est aussi la source de nouveaux problèmes. Les acteurs sont alertés sur les enjeux de santé et de sécurité, ainsi que sur la nécessité de les gérer dès l’amont, au stade de la recherche et développement. Les scientifiques comme les politiques sont sensibilisés aux conséquences des découvertes en nanotechnologies. Le bilan n’est donc pas négatif. Néanmoins, on égrène à l’envi une liste de problèmes, semblable à une checklist de tâches à faire. Mais qu’en est-il des mesures éthiques et politiques à me re en œuvre pour a ronter les problèmes ? La checklist ne donne qu’une illusion de maîtrise et de contrôle. Les problèmes sont certes posés, mais rien n’a avancé quant aux solutions qu’il convient de leur apporter. En ce qui concerne les études de nanotoxicologie par exemple, on est encore très loin d’être en mesure de définir des normes internationales et cependant les nanoparticules envahissent déjà le marché. De même s’agissant des problèmes sociaux liés aux libertés individuelles, la Cnil (Commission nationale de l’informatique et des libertés) n’a pas les moyens de se saisir des sujets ni de mener des études. Les alertes de l’Afssa et de l’Afsset n’ont pas été suivies d’e et. Mais, plus regre able encore, la checklist issue des programmes ELSI traduit une a ention exclusive aux applications des nanotechnologies, et une prédilection particulière pour des applications futuristes comme la création de transhumains, ou d’une humanité augmentée… Or ce faisant, les études ELSI confèrent un caractère presque réel et 363 inéluctable à des perspectives au demeurant spéculatives et assez fantaisistes. Tel est l’e et pervers de la démarche ELSI : des promesses de pure rhétorique faites par les lanceurs de nanotechnologies sont perçues comme des réalités vers lesquelles doivent converger tous les e orts de recherche des dix ans à venir. Elles font partie intégrante de la feuille de route des nanotechnologies, abolissant toute possibilité d’y déroger. Comme l’ont souligné les auteurs d’un article critique, c’est le paradoxe du « si… alors » : la proposition introduite par « si » devient inéluctable, tandis qu’on envisage ses conséquences possibles (Nordmann 2007, Nordmann 2009). De fait, les chercheurs engagés dans les nanotechnologies jugent les programmes ELSI insatisfaisants. Ils ne se reconnaissent pas dans ce e éthique entièrement spéculative qui ne correspond pas à la nature des recherches qu’ils mènent au quotidien. Pour les éthiciens, la démarche ELSI a le tort de réduire l’éthique au conséquentialisme. Or l’éthique est aussi liée au respect de certaines valeurs : la vie, la nature humaine, la nature, les vertus. De même, les citoyens ne se satisfont pas de ce e approche dans laquelle ils sont consultés une fois les décisions prises. Ils sont réduits au rôle de consommateur averti ayant pour seule marge de manœuvre de demander l’étiquetage des produits comportant des nanotechnologies. Jamais on ne leur demande s’il convient ou non de développer ces innovations ni quel sens elles doivent porter. De l’éthique à la gouvernance Expérimenter de nouvelles formes de participation du public est un e et plus positif de la mobilisation suscitée par les slogans d’innovation responsable. Un mot d’ordre prévaut dans l’approche ELSI : l’engagement du public dans les réflexions sur les nanotechnologies. Dès 2005, fut organisé au Royaume-Uni un grand jury citoyen234. Ce e initiative conjointe de centres de nanotechnologies, d’associations environnementales (Friends of the earth, Greenpeace) et du quotidien The Guardian fut suivie d’un workshop organisé par le groupe DEMOS sur le thème The technical 234 2005, UK Citizen Jury, Londres, 23 Mai 2005, initiative conjointe de IRC Nanotechnology, University of Cambridge, University of Newcastle, UK Greeenpeace, The Guardian h p://news.bbc.co.uk/2/hi/science/ nature/4567241.stm. 364 and social complexity of nanotechnologies demands a genuine dialogue between scientists and the public… en avril 2006235. En 2006, la Région Île-de-France a organisé une conférence citoyenne sur les nanotechnologies236. De son côté l’association VivAgora a lancé en 2006 deux cycles de débats publics l’un à Paris, l’autre à Grenoble, où des conflits opposent le centre de recherche Minatec à l’association militante Pièces et main d’œuvre, PMO237. Toujours en France un Nanoforum sur les nanoproduits et la gouvernance dans le champ des nanotechnologies organisé par le CNAM (Professeur William Dab) le Journal de l’Environnement et VivAgora, à la demande du Comité interministériel sur les nanotechnologies, en lien avec la Direction générale de la Santé, a réussi à faire dialoguer les acteurs concernés au long de huit séances consacrées à divers thèmes : nanociments, cosmétiques, alimentation, Minatec, nanomédecine, exposition des travailleurs… À ces initiatives modestes destinées à sensibiliser et faire dialoguer divers acteurs, répond une grande initiative. En 2009, la Commission nationale de débat public est saisie par un certain nombre de ministères à la suite d’une requête formulée lors du Grenelle de l’Environnement, pour organiser un grand débat national. Ce e mécanique ambitieuse qui a mobilisé 3 millions d’euros prévoyait dix-sept rencontres en diverses villes de France238. Or ce fut de l’aveu de tous un fiasco. Seules quelques rencontres ont pu se dérouler dans des conditions perme ant un dialogue entre acteurs mais le débat aboutit à un a rontement entre technophiles et technophobes, une parodie du débat public : chahut systématique, repli des organisateurs sur la toile protectrice d’Internet, désintérêt des populations… Toutefois cet échec ne signifie pas que le débat public soit condamné. D’une part, ce débat a permis de constituer et de me re en ligne une quarantaine de « cahiers d’acteurs » exprimant un grand spectre de points de vue et de propositions sur les nanotechnologies. 235 Londres DEMOS workshop Governing at the nanoscale, April 6, h p://www. demos.co.uk/events/nanoanddevelopmentworkshop. 236 Paris NANOMONDE : quels choix technologiques pour quelle société, cycle de 6 débats de janvier à juin 2006 organisés par VivAgora. 237 Paris NANOMONDE : quels choix technologiques pour quelle société, cycle de 6 débats de janvier à juin 2006 organisés. Grenoble NANOVIV : nanobiotechnologies, pour quoi faire ? Comment ? Cycles de 6 débats de septembre à décembre 2006. 238 h p://www.debatpublic-nano.org/debat/cndp.html 365 D’autre part, on peut tirer leçons de cet échec pour aller de l’avant : partir des questions des citoyens plutôt que de celles des experts, ne pas formater le débat en termes d’évaluation coûts et bénéfices. Quelques directions pour l’avenir L’approche ELSI a fait la preuve de son e cacité – en matière de sensibilisation, d’implication – comme de ses limites. La démarche d’anticipation, de prospective ou de prévention est plus managériale que morale. Si elle se réduit à une analyse risques-bénéfices, elle n’est qu’utilitariste et n’épuise pas le questionnement éthique. Elle doit s’e orcer d’évaluer les projets d’innovation et d’énoncer des normes en conséquence. Dans la tradition kantienne, l’éthique répondait à la question « que dois-je faire ? ». Elle s’adressait avant tout au sujet moral, et le concernait en tant que personne libre. Peut-être les nanotechnologies exigeraient-elles un décentrement de l’éthique, une sorte de révolution copernicienne, déportant l’a ention des sujets humains vers les objets du design et de l’innovation : quelles valeurs véhiculent-ils (et non pas : à quels besoins répondent-ils) ? Dans quel contexte ces objets opéreront-ils ? Quel monde commun nous préparent-ils ? Dans un tel décentrement les usagers ont un rôle à jouer : leurs a entes, leurs désirs et angoisses participent de la construction de ce monde commun. C’est pourquoi l’engagement du public et le respect des opinions sont si importants. C’est d’autant plus utile que nombreux sont les collectifs qui gardent la mémoire des expériences passées (OGM, amiante…), alors que les lanceurs de programmes de nanotechnologies semblent parfois amnésiques. En outre, les divers collectifs qui constituent ou véhiculent l’opinion publique déploient des valeurs partagées, renseignent sur les priorités, sur ce qui est acceptable ou ne l’est pas. Ils expriment des rejets fondamentaux qui doivent être pris en compte même s’ils sont a ectifs et émotionnels. Plutôt que de spéculer sur des futurs potentiels ou de se contenter de peser les avantages et inconvénients, portons enfin le questionnement sur le présent, sur le sens des recherches actuellement menées en laboratoire, des investissements consentis dans certains secteurs. Une authentique évaluation morale requiert un travail d’explicitation des valeurs tacites des di érents acteurs (chercheurs, investisseurs, 366 industriels, clients, usagers) et de confrontation de leurs visions respectives de la vie, comme de la société. Ainsi les promoteurs de prothèses nanos ou d’implants ont tendance à penser le vivant comme une collection de machines moléculaires, alors que bien des citoyens visent la dimension de la vie humaine en société (le « bios »). Il y a souvent là un malentendu : parlant de la vie, les uns et les autres ne désignent pas la même chose ce qui constitue un obstacle au moment de définir des priorités, des hiérarchies de valeurs perme ant d’établir des normes. Dans le domaine politique enfin, on ne saurait que trop recommander de me re au point des dispositifs d’engagement du public qui respectent les traditions des usagers plutôt que d’appliquer des formules existantes. Il faut expérimenter localement des processus d’innovation partagée où les entreprises, pour lancer la recherche et développement sur un produit, engagent les parties prenantes dès l’amont. Références Académie des sciences et Académie des technologies, Nanosciences, nanotechnologies, Paris, Editions Tec&Doc, Rapport Science & Technologie N°18, 2004. Dupuy J.-P. et Roure F., Nanotechnologies : éthique et prospective industrielle, 2004a, h p://www.ladocumentationfrancaise.fr/rapports-publics/054000313/ index.shtml. Dupuy J.-P, « Pour une évaluation normative du programme nanotechnologique », Annales des Mines, Réalités industrielles : les nanotechnologies, 2004b, pp. 27-32. Mnyusiwalla A., Daar A. et Singer P., « ‘Mind the gap’: science and ethics in Nanotechnology », Nanotechnology 14, 2003. Nordmann A., « If and then : a critique of speculative nanoethics”, Nanoethics 1, 2007, pp. 31–46. Nordmann A. et Rip A., « Mind the Gap revisited », Nature Nanotechnology, 2009, pp. 273-274. Royal Society et Royal Academy of Engineering, Nanoscience, Nanotechnology: Opportunities and Uncertainties, 2004, h p://www.nanotec.org.uk/. Roco M. et Bainbridge W. (éds.), Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology, and Cognitive Science, NSF/DOC-sponsored report, Arlington, 2002. Executive Summary, h p://www.wtec.org/ConvergingTechnologies/. European Union, « Foresighting the New Technology Wave » (Rapporteur: 367 A. Nordmann), Converging Technologies - Shaping the Future of European Societies. Bruxelles, 2004. Unesco, Nanotechnology and Ethics, 2006, h p://portal.unesco.org/shs/fr/ev.ph. 368 Présentation des auteurs Presentation of the authors Bernade e Bensaude-Vincent Bernade e Bensaude-Vincent est professeur de philosophie des sciences et des techniques à l’Université Paris 1 Panthéon-Sorbonne. Elle est l’auteur de plusieurs ouvrages et articles portant sur deux thèmes : d’une part l’histoire et la philosophie de la chimie et des nanotechnologies ; d’autre part, les relations entre sciences et public. Elle a publié, entre autres, une Histoire de la chimie, en collaboration avec Isabelle Stengers (La découverte, 1993) Eloge du mixte (Hache eLi ératures, 1998) ; Science et opinion (Seuil, 2003), Faut-il avoir peur de la chimie ? (Seuil, 2005), Les Vertiges de la technoscience (La découverte, 2009). Mylène Botbol-Baum Mylène Botbol-Baum est professeur de philosophie et de bioéthique aux facultés de Médecine et des Sciences Philosophiques de l’Université Catholique de Louvain. Elle enseigne également à l’Unité d’éthique biomédicale de ce e même université. Ses thèmes de recherches sont variés : début de vie et cellules souches, fin de vie, soins palliatifs, euthanasie, santé & développement, recherche sur le SIDA, genre et bioéthique, droit de la reproduction, éthique et technologie, éthique de la recherche, méthodologie de la bioéthique. Elle assume de nombreuses responsabilités dans des institutions belges et internationales. Ainsi, elle est co-responsable du Groupe de Recherche HELESI, IRSS, UCL, depuis avril 2009 ; vice-présidente du groupe de contact FRS-FNRS « Philosophie et bioéthique » ; membre du Comité consultatif de bioéthique de Belgique. 369 Parmi ses nombreuses publications en diverses langues, relevons : - Des embryons et des hommes, avec Henri Atlan, PUF, Paris, 2007. - Bioéthique dans les pays du Sud. Récits de médecins africains, L’Harma an, Paris, 2006. - Poverty, equity and health research, E-discussion, HIF-net e-conference, Internet, 2-31 August 2005. - Médecine et transculturalité : éthique narrative et droits reproductifs des femmes en Afrique francophone, Cahiers de la Chaire d’études africaines, n°1, novembre 2004. Dominique Bourg Dominique Bourg est professeur à l’Université de Lausanne (Institut des politiques territoriales et de l’environnement humain/Faculté des géosciences et de l’environnement) depuis le 1er septembre 2006. Il dirige avec Alain Papaux la collection « Développement durable et innovation institutionnelle » aux PUF. Il a vice-présidé la Commission Coppens chargée de préparer la Charte de l’environnement désormais adossée à la Constitution française et la commission 6 du Grenelle de l’environnement. Ses domaines de recherches sont la philosophie de l’environnement et du développement durable, le principe de précaution, le débat public et la démocratie écologique. Philippe Busquin Philippe Busquin a reçu une formation scientifique (Licence en sciences physiques, une candidature en philosophie et un post-graduat en environnement). Il a débuté sa carrière professionnelle comme assistant en physique (U.L.B), puis est devenu professeur à l’École normale de Nivelles. Fin des années 70, il entame une carrière politique, élu consécutivement député permanent à la Province du Hainaut, député à la Chambre des Représentants (1978-1995) et sénateur (1995370 1999). Parallèlement, Philippe Busquin exerce une série de mandats ministériels avec des portefeuilles aussi divers que l’Education (19801981), la Culture et la Santé (1980-1981), l’Intérieur (1981), le Budget et de l’Energie (1982-1985), l’Economie (1988) et les A aires sociales (19881992). Il sera ensuite Président du PS de 1992 à 1999. De 1999 à 2004, Philippe Busquin est Commissaire européen en charge la recherche européenne. Il lance l’Espace européen de la recherche et s’investit dans une série de domaines tels que la mobilité des chercheurs, les questions éthiques en matière de recherche scientifique et nouvelles technologies ; les initiatives conjointes publiques/privées ; etc. Il sera ensuite député européen de 2004 à 2009. En tant que membre e ectif de la Commission de l’industrie, de la recherche et de l’énergie, membre suppléant de la Commission de l’environnement, de la santé publique et de la sécurité alimentaire et président du STOA (Scientific Technology Options Assessment), il continue à s’engager pour la recherche scientifique garante d’un avenir performant et social de l’Europe. En 2006, il est élu mayeur de la Commune de Sene e pour la deuxième fois. Dans le domaine scientifique, Philippe Busquin est Président de l’Institut de Géographie National (Belgique), Président des Jeunesses Scientifiques de Belgique, Président de l’Institut de Radioéléments à Fleurus et membre de Conseils d’Administration ou Conseils Stratégiques d’universités telles que l’ULB, l’Universud Paris, l’Université de Lyon et membre du Conseil d’Administration des Instituts Solvay, du Conseil Scientifique de la Ville de Paris et finalement membre de l’Académie Royale des Sciences, des Le res et des Beaux-Arts de Belgique, « Classe Technologie et Société » et de l’Académie des Technologies de France. Philippe Busquin est Président de la Commission belge francophone et germanophone pour l’UNESCO et membre de la COMEST, la Commission mondiale d’éthique des connaissances scientifiques et des technologies de l’UNESCO. Dans le domaine culturel, il est Président du Domaine du Château de Sene e (Musée d’Orfèvrerie), de Charleroi Danses (Centre Chorégraphique), et du Théâtre Jean Vilar. Jim Dratwa Jim Dratwa’s research and publications address issues of transnational or multi-level expertise, legitimacy, and governance, probing the interfaces of science and policy making – and in particular 371 the import of the precautionary principle in risk regulation and of impact assessment in be er regulation. He obtained his Ph.D. in philosophy of science at the Université Libre de Bruxelles , and in socio-economics of innovation at the Ecole des Mines de Paris , in 2003, having benefited from the support of the Fulbright program, the Frank Boas Foundation, the Belgian American Educational Foundation, and the Fonds National de la Recherche Scientifique. For the last 10 years Jim Dratwa has combined research and policy making activities. He has worked at CELINE-IRCEL (the Interregional Cell for the Environment, the Belgian National Focal Point of the European Environmental Agency), at the European Commission (in the team coordinating environmental and consumer policy), and in the Scientific and Technological Options Assessment (STOA) unit of the European Parliament . He received the Fulbright Scholar Award in 2001 and was pre- and post-doctoral Fellow at the Kennedy School of Government, Harvard, at the Science, Technology, and Public Policy program in the Belfer Center for Science and International A airs and at the program on Science, Technology, and Society, from 2001 to 2004. He has been a Visiting Professor at Tampere University, Harvard University, and the Facultés universitaires SaintLouis, where he currently teaches. As of 2004, he is also a civil servant with the European Commission at the department for research policy, in the team working on Impact Analysis of Community Actions. Nicole Gallus Nicole Gallus est avocate et maître de conférence à la faculté de droit de l’Université Libre de Bruxelles où elle enseigne le droit familial et le droit de la bioéthique. Elle est membre e ectif du Comité consultatif de bioéthique de Belgique. Jean-Yves Go Jean-Yves Go est actuellement Professeur émérite de l’Université Pierre Mendès-France Grenoble 2, membre du Groupe de Recherches Philosophie, Langages & Cognitions (EA 3699), membre du Comité d’Éthique et de précaution de l’INRA (1998-2003), membre du CCPPRB 372 de Haute-Normandie (1995-2001), animateur du Groupe grenoblois GIERE (Groupe Interuniversitaire d’Ethique de la Recherche, 20002009), président de la Société pour la Philosophie de la Technique (2000-2005), membre du Comité scientifique du Cancéropôle Ile-deFrance (2008-), et membre du Comité scientifique de la collection « Éthiques en action » (Editions E.M.E. Belgique). Il travaille en éthique appliquée sur l’évaluation des techniques biomédicales dans les sociétés de haute technologie et sur l’éthique de l’environnement ; ce domaine de recherche englobe la question de l’argumentation en éthique et de la structure des théories morales. En histoire de la philosophie, il s’intéresse à la pensée politique de la Renaissance italienne et à ses antécédents dans l’humanisme florentin. Ses projets pour 2010-2014 sont les suivants : - Traduction et publication de textes de Coluccio Salutati (13311406) : De Nobilitate Legum et Medicinae, et De Tyranno et de Leonardo Bruni (c1370-1444) : Laudatio Fiorentinae Urbis. - Traduction du livre de H.T. Engelhardt, jr : The Foundations of Bioethics. - Recherche sur la technique et ses représentations : les contestations contemporaines radicales de la technique ; l’idéologie transhumaniste. Göran Hermerén Prof. Göran Hermerén is Senior Professor of medical ethics at the faculty of medicine, Lund University, Sweden and has also been a Professor of practical philosophy at this university and a Professor of philosophy and theory of science at Umeå University, Sweden. His current research interests and publications include priorities and allocation of resources in health care, as well as ethical aspects of genetic testing, care at the end of life, nanotechnologies, and stem cell research. Prof. Hermerén is since 2002 President of the European Group on Ethics in Science and New Technologies and the chair of the advisory board of the German Reference Center for Ethics in the Life 373 Sciences in Bonn. He is a member of the Swedish National Council on Medical Ethics since its start and has served on many governmental and parliamentary commissions, as well as a referee for international journals. In addition, he has served as external examiner in bioethics at University College, Dublin, as a co-ordinator of the EU-funded research project «Euro-priorities» and is a partner in several ongoing EU-funded research projects focussing on stem cells (such as EuroStemCell, ESTOOLS, NeuroStemCell). Celine Kermisch Celine Kermisch is a mechanical engineer and holds a PhD in philosophy, both from the Université Libre de Bruxelles. She has been a visiting scholar at the University of Cambridge (department of history and philosophy of science) and she is currently a postdoctoral researcher (FNRS, the Belgian fund for scientific research) at the Université Libre de Bruxelles (Centre for Interdisciplinary Research in Bioethics). Her research topics are risk and its perception, emerging technologies and society, as well as engineering ethics. She has co-edited a book, Techniques et philosophies des risques (Paris, Vrin, 2007) and she is the author of Les paradigmes de la perception des risques (Paris, Lavoisier, 2010) and Le concept de risque. De l’épistémologie à l’éthique (Paris, Lavoisier, 2011). She has published several papers, amongst other in Nanoethics, Science and engineering ethics or Ethics, Policy and environment. She is also the editor of the collection « ethics in action » (EME). Peter Kroes Peter Kroes studied technological physics at Eindhoven University of Technology and did a doctorate on philosophical problems concerning the notion of time in modern physical theories at Radboud University N megen. He holds the chair in philosophy at Del University of Technology where he lectures on the philosophy of science and technology. His main fields of research are the nature of 374 technical artifacts and of socio-technical systems and the philosophy of engineering design. Recent publications : - Functions in biological and artificial worlds; comparative philosophical perspectives, (co-editor Ulrich Krohs), MIT Press, 2009. - Philosophy of engineering design, part III (editor)of Handbook of Philosophy of Technology and Engineering Sciences, ed. Anthonie Me ers, Elsevier, 2009. - Engineering and the dual nature of technical artefacts, Cambridge Journal of Economics, 34, 51-62, 2010. - Theories of technical functions: function ascriptions versus function assignments, Part 1, Design Issues, Volume 26, Number 3, Summer 2010, pp. 62-69. - Theories of technical functions: function ascriptions versus function assignments, Part 2, Design Issues, Volume 26, Number 4, Autumn 2010, pp. 85-93. Yannick Mwape Mwape Yannick, né en 1979 à Bruxelles, est titulaire d’un Master en biologie moléculaire à l’Université Libre de Bruxelles (promotion de 2003) et d’un master en Bioéthique (DEA en 2007), actuellement enseignant chargé de cours à la Haute Ecole Lucia Debrouckère (section Gestion de l’Environnement Urbain) et professeur de Biologie au Lycée Emile Max. Chercheur à l’ULB auprès du Centre de Recherche Interdisciplinaire de Bioéthique, il réalise une thèse sur la question de l’individuation biologique sous la direction de Mme Marie-Geneviève Pinsart. Egalement membre de la cellule de didactique de la biologie de l’Université Libre de Belgique, il participe à plusieurs missions en Afrique centrale (Congo, Burundi) comme expert pédagogique auprès de l’Organisation International des Migrations. 375 Martin Peterson Martin Peterson is associate Professor. He Works at Eindhoven University of Technology on ethical issues related to technology, risk, and uncertainty. Before coming to the Netherlands, he worked for three years at the University of Cambridge. He was a Research Fellow in the Department of History and Philosophy of Science and Director of Studies in Philosophy at St Edmund’s College. He has also worked at two technical universities in Sweden: KTH and Lulea University of Technology. He sometimes writes in Swedish newspapers on political and ethical issues: Expressen, Dagens Nyheter, Svenska Dagbladet, Sydsvenskan, Corren, and NSD. He has published two books: An Introduction to Decision Theory, which is a textbook published by Cambridge University Press and a research monograph Non-Bayesian Decision Theory (published by Springer in 2008), where he defends his favourite non-Bayesian account of decision theory against its Bayesian rivals. Marie-Geneviève Pinsart M.-G. Pinsart est professeur de philosophie et de bioéthique à l’Université Libre de Bruxelles. Elle assume des responsabilités dans diverses instances nationales et internationales : Présidente du Comité consultatif de bioéthique de Belgique, Présidente du groupe de contact FRS-FNRS « Philosophie et bioéthique », membre du comité d’éthique des hôpitaux Iris-sud à Bruxelles, membre e ectif de la Commission fédérale pour la recherche médicale et scientifique sur les embryons in vitro (SPF Santé publique, sécurité de la chaîne alimentaire et environnement. Direction générale de l’organisation des établissements de soins), etc. Elle est régulièrement appelée à travailler en tant qu’expert en bioéthique pour la Commission européenne et l’UNESCO. Elle a notamment publié les ouvrages suivants : - La bioéthique, Paris, Le Cavalier Bleu, collection « Idées reçues », 2009, 127 pages 376 - Hans Jonas et la liberté. Dimensions théologiques, ontologiques, éthiques et politiques, Paris, Vrin (coll. Pour demain), 2002. - Narration et identité. De la philosophie à la bioéthique, M.-G. Pinsart (éd.), Paris, Vrin, collection Pour demain, 2008. - Genre et bioéthique, M.-G. Pinsart (éd.), Paris, Vrin, Annales de l’Institut de Philosophie et de Sciences Morales (ULB), 2003. - H.Jonas : Nature et responsabilité, G. Ho ois et M.-G. Pinsart (coord. scient.), Paris, Vrin, 1993 (traduction italienne : Lecce, Ed. Milella, 1996). - L’euthanasie ou la mort assistée, M.-G. Pinsart et C. Susanne (éds), Bruxelles, De Boeck Université, 1991. François Thoreau François Thoreau est aspirant du F.R.S.-FNRS à l’Université de Liège, au sein du SPIRAL, Département de science politique, Faculté de droit. Dans ce cadre, ses recherches doctorales portent sur les enjeux socio-politiques des nanotechnologies et l’évolution du rôle des chercheurs en sciences humaines et sociales, au travers du projet STIR (Socio-Technical Integrated Research) financé par la National Science Foundation. François est titulaire d’un baccalauréat en droit et d’un master en science politique, obtenu avec la plus grande distinction en septembre 2008. Il est le lauréat du prix d’excellence décerné par le Fonds David Constant. Il a mené des recherches au Center for Nanotechnology in Society de l’Arizona State University (de janvier à juin 2009) et est fellow à la Maastricht University (PRIME network, European Society, Science & Technology programme) (septembre 2009 à janvier 2010). René von Schomberg Dr. René von Schomberg is at the European Commission, Directorate General for Research, Governance and Ethics unit. His background is in agricultural science (Agricultural University 377 Wageningen), philosophy (Ph.D, J.W Goethe University, Frankfurt am Main) and science and technology studies (Ph.D Twente University). He has been teaching argumentation theory, ethics, philosophy, science and technology studies at Dutch universities for about a decade prior to joining the European Commission where he held various positions. He has been an EU Fellow at George Mason University, School of Public Policy, Arlington, USA during the 2007 Fall semester where he taught on the social and ethical aspects of the EU’s science and technology policies. 378 Sommaire Remerciements ..............................................................................5 Avant-propos / foreword................................................................7 Introduction ...................................................................................9 Introduction ...................................................................................15 Résumés........................................................................................21 Abstracts .......................................................................................33 Première partie Enjeux philosophiques et éthiques ...........................................45 Nano-artefacts and the distinction between the natural and the artificial Peter Kroes .................................................................................47 L’hétérogénéité des objets nanos : deux nouvelles méthodes pour activer une éthique générique Marie Geneviève Pinsart ...........................................................63 Do new technologies give rise to new ethical issues? Some reflections on nanotechnology Martin Peterson and Marc J. de Vries .......................................87 Small particles, big issues Göran Hermerén ......................................................................101 Nanotechnologies, nano-luddisme, néo-luddisme. Jean-Yves Go .........................................................................123 Nanotechnologies, convergence NBIC et inégalités Dominique Bourg ....................................................................145 Nanoéthique et posthumanisme Mylène Botbol-Baum ...............................................................159 379 Deuxième partie Les risques associés aux nanotechnologies ............................181 Perception, epistemics, and ethics:a triple perspective on the specificity of nanotechnologies and their risks Céline Kermisch .......................................................................183 La toxicité des nanotechnologies en question « Que sait-on des e ets des nanotechnologies sur l’individuation du vivant ? » Yannick Mwape .......................................................................199 Troisième partie La gouvernance des nanotechnologies sur le plan international ............................................................229 Les nanotechnologies et l’éthique Philippe Busquin .....................................................................231 Europe’s collective experiment with nanotechnologies as a construction of possible futures : political and ethical stakes Jim Dratwa ..............................................................................241 The quest for the “right” impacts of science and technology. René von Schomberg ................................................................269 Nanotechnologies et « innovation responsable » :sur la gouvernementalité d’un concept François Thoreau .....................................................................289 La réglementation européenne des nanotechnologies :l’éthique entre la recherche et le développement industriel Nicole Gallus ...........................................................................315 Quelle éthique pour les nanotechnologies ? Bilan des programmes en cours et perspectives Bernade e Bensaude-Vincent ..................................................357 Présentation des auteurs / Presentation of the authors .......... 369 380
Documents pareils
CV - Iramis
Session chair at conference “Freedom in biological research” (Annecy, February 2013)
Séminaire « Philosophie et mathématiques » at the Ecole Normale Supérieure (Paris, January