Lien vers les brèves + vers Blogo-Numericus : https://bn.hypotheses.org/
Lien vers le pdf : https://homo-numericus.org/index.pdf
2001-02-01 00:00:00
De manière générale, e-learning et son équivalent francophone e-éducation, ne désigne pas seulement l'utilisation de l'informatique dans l'éducation mais aussi l'éducation en informatique, selon qu'il est employé par les organismes publics ou les entreprises de formation privés. Car la préoccupation des pouvoirs publics qu'ils soient nationaux ou européens est avant tout de réduire la " fracture numérique " en initiant tout un chacun au simple maniement de l'ordinateur : c'est ce que les anglo-saxons appellent l'"e-literacy ", dont l'importance est jugée comparable à l'alphabétisation. En France, l'enseignement informatique est intégré dans l'enseignement général au niveau du collège et le Ministère de l'Education nationale vient de franchir une étape supplémentaire en instituant un " brevet Internet et nouvelles technologies " dont l'intérêt reste d'ailleurs à prouver.
Pour ce qui est de l'utilisation de l'ordinateur comme outil pédagogique, on parle donc plus spécifiquement de Technologies de l'Information et de la Communication pour l'Enseignement (TICE), ou encore d'enseignement assisté par ordinateur. Mais là encore, ces termes désignent des réalités multiples, du cd-rom éducatif, à l'éducation à distance avec toutes les étapes intermédiaires, comme le cartable électronique. C'est qu'au fil des expérimentations, notamment dans la formation professionnelle, on s'est aperçu que les formules radicales du type de l'ordinateur-qui-remplace-le-professeur sont assez peu efficaces et que l'enseignement assisté par ordinateur ne pouvait reposer que sur un savant dosage de l'élément humain et informatique, variable d'ailleurs selon les circonstances.
Liens :
Le vocabulaire de l'e-learning
2001-06-15 00:00:00
A la suite de la validation par Christian Pierret de l'avant-projet de Loi sur la Société de l'Information, désormais soumis pour avis à l'ART, au CSA et à la CNCDH, l'association IRIS vient de publier un rapport d'une trentaine de pages résumant tout le mal qu'elle pense de cette loi
A la suite de la validation par Christian Pierret de l'avant-projet de Loi sur la Société de l'Information, désormais soumis pour avis à l'ART, au CSA et à la CNCDH, l'association IRIS vient de publier un rapport d'une trentaine de pages résumant tout le mal qu'elle pense de cette loi Il n'y a rien de vraiment neuf dans ce document, notamment par rapport aux commentaires émis lors de la publication de versions intermédiaires du projet de loi. Mais puisqu'il semble bien que nous soyons arrivés à un point de stabilisation de ce texte, l'occasion nous est donnée de faire le point sur le projet tant controversé.Pour mémoire, on rappellera que la Loi sur la Société de l'Information fut annoncé par Lionel Jospin dès 1999. Elle est censée répondre au besoin grandissant d'une adaptation de la législation française aux questions soulevées par les nouvelles technologies : accès au réseau, commerce électronique, publication en ligne, piratage, cryptographie. Son élaboration s'est faite à partir d'une consultation publique reposant d'une part sur les contributions écrites des acteurs les plus importants du réseau, d'autre part sur l'ouverture d'un forum en ligne. Depuis, le texte s'est progressivement élaboré par négociations interministérielles : selon nos informations, celles-ci furent âpres, notamment avec le Ministère de l'Intérieur dont certaines propositions, sur la téléperquisition notamment, ont disparu dans la version finale. Le texte comporte actuellement une soixantaine d'articles répartis en six titres. Le compte-rendu qui suit n'est pas exhaustif et n'évoque que les questions les plus importantes : -Noms de domaine et dépôt légal L'article 2 déclare, comme c'était prévu, que le nom de domaine .fr est une ressource publique, et donc, comme telle, placée sous la responsabilité de l'État qui délègue la gestion à un organisme accrédité (en pratique l'AFNIC). Les pratiques d'enregistrement de cet organisme seront donc surveillées et devront correspondre à un cahier des charges très général. IRIS demande que soit inclus dans ce cahier des charges une limite de tarification pour les particuliers et associations n'excédant pas le double des frais d'enregistrement auprès du RIPE NCC. Cette revendication constitue une réponse aux protestations émises récemment par les petits prestataires contre les tarifs demandés par l'AFNIC L'article 9 instaure le principe du dépôt légal pour tout contenu mis en ligne à destination du public, avec une ambiguïté sur la question de savoir s'il s'agit d'"un public" (et dans ce cas, cela concerne les intranets), ou "le" public. -Droit de réponse et responsabilité des prestataires L'article 12, préparé par l'article 11 étend le domaine de compétence du CSA aux prolongements en ligne de programmes audiovisuels. On sait que le CSA s'est longtemps battu et continue à se battre pour que soit reconnu son droit à réguler Internet. L'année dernière, Lionel Jospin avait rejeté cette option. Il semble que l'on soit ici arrivé à une solution médiane. L'article 13 fixe les conditions d'exercice du droit de réponse. Globalement, c'est le régime de la loi de 1881 sur la liberté de la presse qui est retenu : il s'applique à "toute personne désignée ou nommée", et ce dans un délai de trois mois après cessation de la disponibilité en ligne de l'article incriminé. Ce dernier point signifie que le principe de la "publication continue" est retenu. IRIS demande que les conditions d'exercice du droit de réponse soit plus restrictives, pour prendre en compte la spécificité de l'auto-publication notamment et fait remarquer que la mise en oeuvre du principe de publication continue implique qu'un même article publié dans un journal et en ligne sera soumis à des délais différents selon le support. A l'évidence pour IRIS, une réflexion plus globale s'impose sur la prescription des infractions commises dans le cadre des publications en ligne, comme en témoigne les récentes affaires Costes et Réseau Voltaire L'article 14 est capital dans ce projet, puisqu'il revient sur le fameux "amendement Bloche" censuré par le Conseil Constitutionnel. Cette disposition concerne la responsabilité des hébergeurs en matière d'infraction.On se rappellera que la loi passée l'an dernier et modifiant celle de 1986, instaurait et limitait la responsabilité des hébergeurs si ceux-ci, dûment informé de l'illégalité des contenus qu'ils hébergent, ne procédaient pas aux "diligences appropriées" pour interdire l'accès aux contenus incriminés. Le Conseil Constitutionnel avait censuré cette partie du texte au motif que l'expression "diligences appropriées" était beaucoup trop imprécise. L'actuel projet de loi ne s'applique donc plus à la responsabilité pénale des hébergeurs qui avait motivé la censure (ce qui, fait remarquer IRIS, est en fait une extension de leur responsabilité puisque c'est le droit commun qui s'applique), et à maintenir le principe des "diligences appropriées" sous une autre forme pour la responsabilité civile, au cas où "ayant effectivement connaissance de son caractère manifestement illicite, [ils] n'ont pas agi promptement pour le retirer ou en rendre l'accès impossible". Cette formulation est dénoncée par IRIS comme doublement imprécise : imprécise pour "agi promptement" qui ne fait que reprendre sous une autre forme les "diligences appropriées", mais surtout pour l'expression "manifestement illicite". Laisser les prestataires techniques et non le juge maîtres de décider ce qui est "manifestement illicite", c'est encourager les fermetures sauvages de sites par mesure de sécurité, atteintes inacceptables à la liberté d'expression. Et la récente affaire jeboycottedanone.com montre à quel point la pression est grande à l'égard des sites, dès lors qu'ils se montrent critiques à l'égard des pouvoirs établis Par ailleurs, cet article 14 autorise le président du Tribunal de Grande Instance à prescrire à tout prestataire d'interdire l'accès à des contenus illégaux. Cet article ne fait donc pas de différence entre prestataire d'hébergement et prestataire d'accès, ce qui signifie en clair la possibilité d'imposer des solutions de filtrage, comme cela a été le cas dans le jugement contre Yahoo, pourtant vivement contesté. L'article 16 exclut tout de même une quelconque responsabilité sur le contenus des "caches" mis en oeuvre par les fournisseurs d'accès à condition que les contenus incriminés soient retirés du cache dès que l'opérateur a connaissance de leur nature illicite. L'article 17 contraint les opérateurs à "effacer ou rendre anonyme toute donnée technique relative à une communication dès que celle-ci est achevée", avec deux exceptions : les prestataires pourront conserver les données nécessaire à l'établissement des factures tant qu'elles ne sont pas réglées, et par ailleurs, ils pourront différer l'effacement des données nécessaires à l'établissement d'une infraction pénale pour les remettre, "en tant que de besoin" à une autorité judiciaire", et ce pendant un an. Certains n'ont pas tort de trouver la formulation un peu "Tartuffe" : on essaie de faire croire que toutes les données seront effacées immédiatement. Mais les exceptions aboutiront en réalité à ce que toutes les données soient conservées pendant un an, dans la mesure où un prestataire ne peut pas savoir a priori si celles-ci constituent ou non la preuve d'une infraction. Il reste malgré tout que l'article 17 ne concerne que les données de connexion, et non le contenu de ces données. On se rappellera que la loi passée l'an dernier et modifiant celle de 1986, instaurait et limitait la responsabilité des hébergeurs si ceux-ci, dûment informé de l'illégalité des contenus qu'ils hébergent, ne procédaient pas aux "diligences appropriées" pour interdire l'accès aux contenus incriminés. Le Conseil Constitutionnel avait censuré cette partie du texte au motif que l'expression "diligences appropriées" était beaucoup trop imprécise. L'actuel projet de loi ne s'applique donc plus à la responsabilité pénale des hébergeurs qui avait motivé la censure (ce qui, fait remarquer IRIS, est en fait une extension de leur responsabilité puisque c'est le droit commun qui s'applique), et à maintenir le principe des "diligences appropriées" sous une autre forme pour la responsabilité civile, au cas où "ayant effectivement connaissance de son caractère manifestement illicite, [ils] n'ont pas agi promptement pour le retirer ou en rendre l'accès impossible". Cette formulation est dénoncée par IRIS comme doublement imprécise : imprécise pour "agi promptement" qui ne fait que reprendre sous une autre forme les "diligences appropriées", mais surtout pour l'expression "manifestement illicite". Laisser les prestataires techniques et non le juge maîtres de décider ce qui est "manifestement illicite", c'est encourager les fermetures sauvages de sites par mesure de sécurité, atteintes inacceptables à la liberté d'expression. Et la récente affaire jeboycottedanone.com montre à quel point la pression est grande à l'égard des sites, dès lors qu'ils se montrent critiques à l'égard des pouvoirs établis -Commerce électronique et collectivités territoriales Les dispositions de ce titre reprennent dans l'ensemble celles de la directive européenne sur le commerce électronique. Il précise notamment les informations qui doivent être communiquées aux clients. Le point le plus important pour l'usager est celle qui concerne la publicité non sollicitée. Le projet de loi retient le principe de l'"opt-out", c'est-à-dire l'interdiction d'envoi publicitaire à quiconque s'est inscrit sur un registre d'opposition. IRIS défend au contraire l'option de l'"opt-in", c'est-à-dire l'interdiction d'envoyer un courrier publicitaire non sollicité, sinon à des listes d'utilisateurs qui se sont inscrits en connaissance de cause. En ce qui concerne les collectivités territoriales, l'article 30 de ce chapitre a déjà été adopté de manière séparée le 10 mai dernier. Il autorise les collectivités territoriales à investir dans des infrastructures de communication à haut-débit selon des modalités plus simples qu'auparavant (sans recourir au constat de carence notamment). Pour un examen détaillé de cette disposition, on peut consulter l'article rédigé par Transfert sur le sujet. -Cryptographie Avec le chapitre sur la liberté de communication, c'est le deuxième gros morceau du projet de loi. Les dispositions en sont connues et n'ont pas fondamentalement changé depuis les étapes intermédiaires du texte : alourdissement des peines prévues par la loi Godfrain en ce qui concerne la cybercriminalité, réglementation de l'usage de la cryptographie. C'est ce dernier point qui fait l'objet d'une sévère critique de la part d'IRIS : le texte prévoit notamment de considérer l'usage de la cryptographie pour commettre un délit ou un crime comme une circonstance aggravante, alourdissant les peines encourues. Or, on ne voit pas très bien ce qui motive une telle disposition : les auteurs d'un hold-up, rappelle IRIS, sont-ils plus sévèrement réprimés parce qu'ils ont porté des cagoules pour commettre leur forfait ? Par ailleurs, le projet de loi prévoit une réglementation tellement sévère de l'usage de la cryptographie, que la déclaration générale qui ouvre ce chapitre "les moyens de cryptologie sont d'utilisation libre", est vide de sens : l'importation, l'exportation ou la fourniture de services cryptographiques est soumise à déclaration et dans certains cas à autorisation auprès des services du Premier Ministre. Selon IRIS, ces dispositions ignorent la réalité du développement de logiciels de cryptographie, souvent collaborative et fondée sur des échanges internationaux entre spécialistes de la sécurité. Enfin, l'article 52 contraint les fournisseurs de services de cryptographie à fournir les clés de chiffrement aux "autorités habilitées" lorsque celle-ci en font la demande, et selon une procédure qui sera fixée par décret. IRIS demande que soit précisée qui sont les "autorités habilitées", à savoir l'autorité judiciaire seule, et non administrative. L'article 56 enfin précise enfin que quiconque détient les clés de chiffrement d'une communication est tenu de la décrypter lorsque l'autorité judiciaire en fait la demande sous peine de poursuites, ce qui peut impliquer l'auto-incrimination. On terminera en indiquant que le projet de loi prévoit la création d'un corps spécifique d'agents assermentés dépendant directement du Premier Ministre et dotés de pouvoirs de perquisition. Leur domaine de compétence devraient s'étendre uniquement à la cryptographie. -Calendrier : Un délai de deux ans est prévu après l'entrée de la loi en vigueur, délai au terme duquel le gouvernement présentera au parlement un rapport d'évaluation. L'association IRIS est très critique à l'égard de ce texte. Mais on rappellera qu'elle n'a pas été consultée à cette étape de sa préparation. C'est donc de sa propre initiative qu'elle publie ce rapport, reprenant pour l'essentiel ses "85 recommandations pour un Internet démocratique" avancées lors de la consultation publique en 1999. En revanche, la Commission Consultative des Droits de l'Homme est le premier organisme officiel consulté à avoir remis ses conclusions. Si certains points recoupent les critiques formulées par IRIS, la CNCDH est étonnamment prudente.Si elle s'interroge sur l'imprécision de termes tels que "autorités habilitées", et critique la création d'un police parallèle agissant indépendamment du pouvoir judiciaire, elle n'émet pas d'objection majeure sur le reste du texte. En fait, sur le point de la responsabilité des prestataires techniques, elle est même plus sévère que le projet de loi, puisqu'elle réclame le rétablissement d'une responsabilitépénale spécifique. D'ailleurs, à lire le rapport de la CNCDH, on peut légitimement s'interroger sur l'étendue de la culture informatique de la Commission : très pointilleuse sur la question des délais d'accès aux archives, elle laisse passer des dispositions sur lesquelles elle aurait pu sourciller. Il est probable que cela est dû à leur technicité et au fait que pour saisir leurs implications, il faut être au courant des usages réels sur Internet. De ce point de vue, la position de la Commission manifeste pleinement le décalage croissant entre les défenseurs traditionnels des droits de l'homme, dont les préoccupations sont décalées par rapport aux pratiques réelles sur le réseau - et certaines positions prises récemment par la Ligue des Droits de l'Homme en sont un autre signe-, et une conception renouvelée de ces mêmes droits qui s'accompagne d'un minimum de culture technique. Au final, la lecture du projet de loi sur la société de l'information pose un certain nombre de questions : sur la pertinence de la procédure suivie, sur l'attention extrême accordée à certains problèmes qui contraste avec l'impasse faite sur d'autres. Plus globalement, la LSI telle qu'elle est actuellement conçue souffre de la longueur de temps que sa préparation a nécessité. Son socle a été conçu il y a maintenant deux ans, à la suite de la consultation publique ouverte en 1999. Deux ans, c'est peu en soi, et c'est beaucoup pour Internet. Depuis, un certain nombre de problèmes sont devenus cruciaux comme l'utilisation d'Internet dans les entreprises, le conflit entre droit des marques et liberté d'expression, la protection du droit d'auteur, ou encore le droit à l'anonymat, parmi tant d'autres qui ne sont pas abordés par le projet de loi. Au terme de cette analyse, on peut s'interroger sur la maturité de la LSI : la "grande" loi annoncée se réduit à une collection de mesures sans idée directrice. Le "grand" débat public qu'on nous promet et qui justifie aux yeux de certains le maintien du calendrier prévu risque fort de passer à la trappe : on voit d'ici le débat nocturne qu'il occasionnera dans un hémicycle désert, sur des questions techniques incompréhensibles pour le grand public. Son inscription au calendrier parlementaire sera très tardive par rapport à l'état du réseau et des pratiques qui a motivé sa conception. Enfin, la réflexion gouvernementale n'est manifestement pas assez avancée sur le sujet pour donner une cohérence à l'ensemble. Après des années de discours volontariste, de type PAGSI sur les nouvelles technologies, le temps est venu du choix et d'une réflexion plus approfondie sur le type de société de l'information que l'on souhaite encourager. Il est loin d'être certain que les choses soient claires du côté du gouvernement, ou que la LSI contribue à sa clarification.
2000-11-15 00:00:00
Du 22 au 24 novembre, la ville de Valenciennes accueille, pour la deuxième année consécutive les Rencontres européennes de la jeune création numérique qui s'articuleront cette année autour des arts du spectacle, qu'il s'agisse de l'introduction des technologies numériques dans le spectacle vivant ou des nouveaux outils d'animation à la disposition des artistes. Créées par l'INA, les Rencontres de Valenciennes sont une bonne occasion pour éclairer les ramification foisonnantes de mouvements artistiques qui n'ont pas pour seul point commun d'utiliser l'ordinateur, mais sont traversés de problématiques communes, tournant autour de la place et de l'utilisation des technologies qu'ils emploient. Et de fait, la multiplication des événements et lieux de rencontre, comme le festival Ars Electronica de Linz ou le célébrissime Imagina organisé là encore par l'INA, mais aussi les rencontres alternatives comme Action Reseaux Numériques qui se sont déroulées à Lorient, témoigne de la constitution d'une communauté artistique (faut-il dire une " scène " ?) qui dialogue autant avec les informaticiens et les chercheurs qu'avec leurs homologues dans la création graphique traditionnelle. A la frontière de l'art et de la technologie, les arts du numérique expérimentent avec imagination, humour et une bonne dose de provocation la coexistence étrange de l'homme et de la machine dans un processus de création qui ne laisse pas indifférent. Car le mot d'ordre semble être à l'expérimentation: comme s'il s'agissait de faire éclater au grand jour des questions refoulées en poussant à l'extrême la fusion homme-machine déjà présente à l'état de tendance dans la vie quotidienne. De ce point de vue, il est caractéristique que le body art soit un élément prégnant de la cyberculture, comme en témoigne l'événement Art-kor.00 organisé en Avignon par Ann et Luccas Zpira cette année, abondamment commentée par ces hauts lieux de la cyberculture que sont La Spirale et Cyberzone. Sur le net, les contre-cultures ont trouvé un terrain de jeu et d'expression particulièrement approprié. C'est pourquoi, nombre d'acteurs du net.art sont idéologiquement proches des mouvements cyberpunks. Le détournement des outils technologiques et des structures de communication comme instrument de contestation d'un ordre social et politique est leur sport favori et Frédéric Madre, l'inventeur du " spam-art ", leur héros. Ici comme ailleurs, la structuration décentralisée et non contrôlée du net est particulièrement propice à toutes les manipulations et tous les détournements. Mais l'art numérique entretient aussi des relations ambivalentes avec le monde marchand. Si plusieurs sites comme N@rt ou plus encore Gizmoland font office de galeries en ligne, certains auteurs, comme Fred Forest, maîtrisent très bien leur stratégie marketing. Plus largement, nombre d'artistes moins connus, vivent de leurs talents en faisant office de graphistes pour des sites web. A contrario, l'animation Flash, de plus en plus utilisée par les sites commerciaux, est en train de devenir une forme d'expression à part entière, comme en témoigne le superbe site Underground, de Julien Boutroy, Yves Depiesse et Matthias Timmerman, primé par le concours Moebius 1999.
2001-01-30 00:00:00
Plus fort qu'Amazon. L'entreprise américaine de commerce en ligne Etown.com a récemment employé les grands moyens pour empêcher la formation de syndicats en son sein : elle est accusée notamment d'avoir licencié vingt-huit employés pour des raisons économiques, parmi lesquels treize venaient de signer une pétition pour la formation d'un syndicat, quelques mois après en avoir fait de même avec les meneurs d'un mouvement de grève du zèle entrepris pour les mêmes raisons.
Enfin, alors que le processus de consultation pour la création d'un syndicat (un tiers des employés doit y être favorable) était déjà bien engagé, les directeurs de l'entreprise sont accusés par Erin Poh du Northern California Media Workers Guild d'avoir menacé de fermer l'entreprise si le scrutin s'avérait positif. Malgré les démentis de la direction, le National Labor Relations Board a décidé de reporter la consultation de six mois en raison de cette entorse à la législation sur le travail.
Tandis que la direction de Etown.com reste inflexible sur sa politique, Erin Poh explique que le combat des salariés de l'entreprise américaine ne porte pas uniquement sur les salaires. Dans un entretien accordé au magazine Wired, elle estime en effet que la lune de miel est finie entre les dot com et leurs employés. Aujourd'hui ceux-ci se considèrent comme...des employés et qu'ils ne veulent plus sacrifier le présent à un avenir de millionnaires de plus en plus hypothétique.
C'est évidemment la rémunération par stock-options qui est au cur du débat : pour que celle-ci demeure intéressante, il faut réunir au moins deux conditions. Il faut d'abord que l'entreprise ne fasse pas faillite avant que l'employé ait la possibilité d'exercer ses stock-options ; il faut ensuite que la valorisation boursière de l'entreprise s'accroisse régulièrement ; deux conditions qui furent largement remplies ces dernières années (Microsoft en est l'exemple-type) mais dont l'avenir est extrêmement incertain pour nombre de dot com. Ce type de rémunération avait le mérite de contenter tout le monde : il réduisait les besoins de trésorerie de l'entreprise et donnait la possibilité aux salariés d'augmenter potentiellement leurs revenus. Depuis le retournement de tendance boursière et le tarissement des investissements dans le secteur, ces derniers se considèrent comme les dindons de la farce. Ils n'ont pas tout à fait tort...
Liens :
Deux articles de Wired : 1 et 2
Un article de Transfert
Le site d'etown
Une interview de Larry Cohen, du syndicat Communications Workers of America
2000-10-19 00:00:00
Un hacker à la tête de l'ICANN ! C'est la surprise que nous a réservée l'élection contestée des nouveaux directeurs de la prestigieuse institution. Porte-parole du Chaos Computer Club, Andy Mueller fut porté au siège de directeur par les suffrages de ses compatriotes, l'Allemagne étant un des rares pays européens à s'être intéressé à l'élection. Nul doute d'ailleurs qu'il a bénéficié du poids important du CCC, fort de ses 1600 membres. Cela n'enlève d'ailleurs rien à sa légitimité et nombreux sont ceux qui se réjouissent que la communauté des internautes ait choisi un profil aussi atypique pour la représenter.
Agé de 28 ans, Andy Mueller est aujourd'hui journaliste et consultant en sécurité informatique. Il représente surtout son association qui, groupe de hackers au palmarès prestigieux, s'est peu à peu transformé en groupe de pression pour le maintien de la liberté d'expression et de circulation de l'information sur le net. Dans cette perspective, le Chaos Computer Club travaille régulièrement avec d'autres organisations similaires comme l'Electronic Frontier Foundation, à mettre en place des contre-pouvoirs aux intérêts économiques des Wintel et autres marchands.
Mais c'est surtout par l'action directe que le CCC s'est fait remarquer par le passé. Active depuis 1984, cette association a accompli des " coups " qui ont défrayé la chronique : en 1987, ils réussissent à pénétrer dans les ordinateurs de la NASA, en 1995, ils appellent à saturer les moyens de communication du gouvernement français pour protester contre la reprise des essais nucléaires, en 1997, ils démontrent qu'un simple script ActiveX peut effectuer des opération bancaires illégales et transférer de l'argent sur un PC muni du logiciel Quiken. Autant dire que la réputation du célèbre " club " est pour le moins sulfureuse. D'autant que certains de ses membres ont été accusés d'avoir vendu leur savoir-faire au KGB dans les années 80.
Tout ceci est du passé affirme Andy Mueller. Aujourd'hui, le CCC est devenue une organisation respectable qui défend les droits du " netizen ". Il est probable en effet que l'élection de son porte-parole à l'ICANN introduira une dimension plus politique à des débats jusqu'ici abordés exclusivement sous un angle technique.
Liens :
* Le CCC
* La biographie d'Andy Mueller
* Une conférence prononcée devant le Parlement européen
* Le débat organisé par Libération entre Olivier Muron et Andy Mueller
* L'attaque de 1997 par le CCC
2001-01-04 00:00:00
Sale temps pour la liberté d'expression sur le net : l'actualité de ces dernières semaines indique très clairement qu'après des années de laissez-faire plus ou moins total, les Etats entendent investir le réseau pour y faire officiellement respecter la loi. Dans les faits, les initiatives entreprises soulèvent bien des inquiétudes. Ce fut d'abord le séminaire sur la cyber-criminalité organisé à Poitiers par le gouvernement français et qui rassemblait les policiers européens. Ce séminaire avait pour objectif de mettre en œuvre un manuel d'opération contre le cyber-crime, semblable à celui rédigé il y a quelques années par Interpol. Il intervient quelques mois après la création en France d'un Office central de répression de la cyber-criminalité (OCLCTIC) dont la direction est confiée à Marcel Vigouroux. Plus récemment le Royaume-Uni vient de se doter lui aussi d'une brigade spécialisée, entamant un mouvement considéré comme irréversible. Disposant pour l'instant de peu de moyens, les " cyber-flics " auront une double mission d'enquête et de répression sur les crimes de nature informatique et sur ceux qui utilisent des moyens informatiques. En France, il faut s'attendre à des conflits entre l'OCLCTIC et la CNIL, chargée de protéger la confidentialité des données, comme le laisse penser une récente déclaration de Marcel Vigouroux, traitant la CNIL de " paranoïaques sécuritaires ". Sur le plan juridique, le Conseil de l'Europe travaille actuellement à un projet de convention sur la cyber-criminalité pour le moins répressif : extension de la notion d'infraction au code de la propriété individuelle, élargissement de la responsabilité des hébergeurs quant aux contenus qu'ils véhiculent, moyens d'investigation policière ne disposant pas de d'un contrôle judiciaire suffisant, accès des Etats aux clés de chiffrement, la liste des griefs est longue contre ce projet qui suscite l'opposition de nombres d'associations de défense des droits individuels sur le réseau. Et la récente " affaire Yahoo ", sur laquelle le juge Jean-Jacques Gomez à récemment rendu son verdict, quoique sans lien apparent avec la convention européenne, n'est pas pour éclaircir la situation. La mise en œuvre d'un filtrage sur les connexions françaises à destination du site américain n'est pas sans poser des problèmes, aussi bien techniques (la méthode n'est sure qu'à 70% selon les experts) que juridiques et politiques. Là encore, les réactions négatives à ce jugement sont nombreuses...et elles n'émanent pas nécessairement de nerds, mais d'organisations qui, comme Reporters sans Frontières, sont bien placées pour savoir quelles conséquences ce genre de décision peut avoir, appliquée à des pays aussi peu démocratiques que la Chine où les Emirats arabes. Plus largement, ces événements récents révèlent une volonté de plus en plus affirmée de la part des Etats de " réguler l'Internet " : très timides il y a quelques années vis-à-vis d'un monde qui leur semblait ésotérique, les hommes politiques n'hésitent plus aujourd'hui à manifester leur volonté de contrôler un espace public qui leur échappe encore. Le problème est que dans leur zèle régulateur, ils ne s'embarrassent que de peu de précautions à l'égard de la liberté d'expression. Le risque, bien réel, est donc que l'on passe en quelques années d'un extrême à l'autre : au delà des questions politiques et juridiques que cette question soulève, il faut y voir un effet pervers dont la source est purement technologique : la communication informatique en réseau, de par la puissance de diffusion et de traitement de l'information qu'elle offre, agit comme un démultiplicateur de tendance : tout se passe comme si on ne pouvait avoir le choix qu'entre une liberté totale ou une surveillance totale. Manifestement, la voix étroite n'est pas encore trouvée pour l'élaboration d'un corpus juridique et de pratiques judiciaires équilibrées entre la répression d'actions effectivement délictueuses et le double respect de la vie privée et de la liberté d'expression.
2000-00-00 00:00:00
Depuis la seconde guerre mondiale, le développement de l'informatique et son utilisation dans un nombre croissant de secteurs d'activités a profondément modifié notre société. Conçus pour des applications strictement scientifiques à l'origine, les ordinateurs nous assistent dans toutes les dimensions, y compris les plus futiles, de notre vie quotidienne. Une révolution globale Pour ce faire, ils ont dû en passer par de nombreuses étapes : les révolutions du micro-processeur, de l'ordinateur personnel, du time-sharing, de la commutation de paquets, de l'interconnexion planétaire de réseaux de communication, sont autant de bouleversements qui, en l'espace de quelques décennies, leur ont permis d'être présents et utilisés à peu près universellement. Plus qu'une révolution industrielle, la révolution numérique est une révolution globale. Aujourd'hui, on en mesure les conséquences dans tous les domaines : la recherche scientifique bien sûr, la communication et les médias bien évidemment, mais aussi la biologie et la médecine, la production industrielle, la culture, l'éducation, la vie politique, les arts, les relations de voisinage, familiales, amicales, amoureuses, l'identité personnelle... Comprendre la révolution numérique Comprendre la révolution numérique ; tel est le mot d'ordre, la ligne éditoriale que défend Homo Numericus depuis sa création en 2000. Comprendre, c'est-à-dire très exactement connaître les bases techniques sur lesquelles cette révolution s'est développée ; et puis suivre l'actualité de ses évolutions rapides ; mais aussi s'intéresser à tous les domaines où elle agit, sans céder à l'hyperspécialisation ; enfin réfléchir et débattre des enjeux de société qui sont au coeur de cette révolution. Ayant une mission bien délimitée : comprendre la révolution numérique, Homo Numericus s'autorise à multiplier les approches pour la mener à bien. Homo Numericus, c'est un site, un magazine en ligne, autour duquel se déploie un ensemble d'initiatives s'autorisant à varier les approches. Variations Le magazine d'abord : la page d'accueil d'[Homo Numericus->http://www.homo-numericus.net], est structurée autour de trois colonnes, c'est-à-dire trois types d'écritures : - L'«analyse de la semaine», en colonne de gauche sur la page d'accueil, désigne des articles relativement brefs qui proposent des synthèses de l'actualité des nouvelles technologies. Au delà de l'éparpillement des informations dont nous sommes quotidiennement bombardés, il s'agit de dégager des tendances identifiables lorsqu'on met en perspective dix ou quinze publications récentes sur un sujet donné. - les «focus» et articles de fond : en colonne de droite, suivent un rythme de publication beaucoup plus lent. Détachés de l'actualité immédiate, ils doivent pouvoir apporter un éclairage plus nuancé sur la complexité des phénomènes qu'ils analysent. Relativement longs, ils contribuent à une réflexion globale sur les nouvelles technologies. - la rubrique «partenaires» accueille plusieurs blogs traitant de manière plus subjective de différents aspects de la révolution numérique : l'édition (Blogo Numericus), l'image (Intermedia), la philosophie (Dyktiologie). Participer Homo Numericus est ouvert à toute forme de partenariat. On peut contribuer à y publier textes d'actualité et articles de fond. On peut demander l'ouverture d'un blog qui, s'il correspond à la ligne éditoriale qui vient d'être fixée, peut bénéficier d'un affichage sur la page d'accueil. On peut proposer toute forme de collaboration susceptible d'accroître les échanges entre personnes partageant les mêmes préoccupations. Pour demander l'ouverture d'un compte, la procédure est automatique ; il suffit de se rendre sur la page d'accueil du site et de [remplir le formulaire d'inscription->http://www.homo-numericus.net/#inscription]. Pour demander l'ouverture d'un blog, ou proposer des partenariats, il est préférable d'en discuter entre humains. Il faut alors écrire à [postmaster@homo-numericus.net->mailto:postmaster@homo-numericus.net]
2000-10-19 00:00:00
23000 votants sur 300 millions d'internautes, cela fait quel taux de participation ? Bien moins en tous cas que le récent référendum sur le quinquennat qui n'avait pourtant pas particulièrement brillé par le nombre de ses votants. Il est clair que la cyber-démocratie n'en est qu'à ses premiers balbutiements ; les conditions dans lesquelles s'est déroulée l'élection des cinq nouveaux directeurs de l'ICANN en est la preuve. Non pas seulement en raison des innombrables difficultés techniques qui en ont empêché le bon déroulement, mais aussi par le nombre de questions que cette élection soulève. Revue de détails :
L'ICANN est-il un ( futur ) gouvernement ? Selon ses propres statuts, l'ICANN n'est ni une organisation gouvernementale, ni une instance législative, mais un simple organisme de gestion technique. Par exemple, ses statuts lui interdisent formellement de lever des impôts ou taxes d'aucune sorte. Mais sur le net, les choix techniques ont des implications qui vont au delà. Les décisions que rend l'ICANN sur les conflits d'attribution de noms de domaine par exemple a des répercussions sur le droit des marques et de la propriété intellectuelle.
Quelle est la légitimité du board of directors ? Tant que celui-ci n'était composé que de représentants de sociétés commerciales ou d'opérateurs techniques, la question ne se posait pas, dans la mesure où l'on échappait plus ou moins totalement aux questions liées à la représentation politique. L'élection directe de la moitié d'entre eux ( et pourquoi la moitié d'ailleurs, pourquoi pas un tiers ou les deux tiers ? ), modifie sensiblement le statut de l'ICANN ne lui donnant une dimension politique que personne ne souhaite d'ailleurs.
Quel peut être le sens d'une élection qui s'appuie sur un corps électoral non défini, auquel correspond un espace public dont la définition demeure problématique ? La définition même du " netizen ", promue par Andy Mueller au rang de nouvelle citoyenneté reste bien floue, ne serait-ce que parce que le statut du net comme espace public n'est pas encore défini : il ne s'agit ni d'un espace physique aux frontières bien définies, ni d'une simple juxtaposition de boutiques en ligne et de médias, cohabitant tant bien que mal sur nos écrans.
Peut-il y avoir une opinion publique sur le net ? Question complémentaire à la précédente : l'existence d'associations de défense des usagers, de médias spécialisés ou encore de débats sur des question qui lui sont spécifiques sont les indices les plus sûrs d'une opinion publique naissante. Mais celle-ci n'est pas encore suffisamment constituée pour élire des instances communes de représentation.
2000-10-19 00:00:00
Fondée en 1998, l'ICANN ( pour Internet Corporation for Assigned names and Numbers ) a pris le relais du gouvernement américain qui assurait jusqu'alors la gestion technique du réseau. La transmission de pouvoir s'est faite sur la base d'un accord entre l'ICANN et le gouvernement fédéral, baptisé " Mémorandum of Understandings " ( MoU ), qui fixe provisoirement les limites du pouvoir de l'ICANN. Celui-ci est en principe cantonné à la gestion technique du réseau, et notamment à l'attribution des noms de domaines, des adresses IP, ainsi que la gestion du " serveur racine " qui résout les requêtes de résolution de nom. Ce n'est que récemment que le serveur racine est passé sous le contrôle de l'ICANN. Il était auparavant géré par une société privée, Network Solutions, auquel le gouvernement avait confié la tâche de gérer les noms de domaines. La création de l'ICANN correspond donc à la volonté de la part du gouvernement américain de se désengager en laissant la place à un organisme de droit privé, où sont représentés les principaux acteurs d'Internet. Depuis 1998, cet organisme est en phase de rôdage : d'une part, son " comité directeur " ( board of directors ) est provisoire, et d'autre part, il ne gèrait pas encore concrètement le " root server ", encore aux mains de Network Solutions. Avec l'élection de neuf nouveaux directeurs, la mise en place de nouveaux noms de domaineset le transfert d'autorité sur le root server, la fin de l'année représente le véritable lancement de l'ICANN.
Celui-ci n'est pas destiné à devenir le gouvernement d'Internet. Sa mission officielle est strictement technique. Il reste cependant que, pour de nombreux observateurs, questions techniques, politiques et commerciales sont étroitement imbriquées sur Internet ; que l'on songe aux conflits sur la détention de noms de domaines ou encore à la définition de nouveaux domaines. Des associations d'utilisateurs, comme Icannwatch, Iris ou encore le Chaos Computer Club surveillent étroitement la politique de l'ICANN et sont promptes à dénoncer les abus de pouvoir dont cette organisation peut se rendre responsable à l'égard des utilisateurs individuels notamment. Enfin, l'ICANN fait payer ses prestations de gestion mondiale aux organismes nationaux de gestion des noms de domaines ( comme l'AFNIC en France qui gère les noms de domaine en .fr ). Présentée en juillet dernier, la facture d'un million et demi de dollars, a été jugée particulièrement salée par les organismes européens et disproportionnée par rapport aux services rendus. L'ICANN n'en est qu'à ses débuts. On n'a pas fini d'en entendre parler.
Liens :
La " constitution " de l'ICANN
2000-10-20 00:00:00
PSO, DNSO, ASO, vous connaissez ? Sans doute pas ; et pour cause. Ce sont les trois organisations internes à l'ICANN qui se partagent la tâche de conseiller le comité directeur sur des questions spécifiques. Elles-mêmes sont composées de représentants d'autres organisations tout aussi obscures comme W3C, ITU, AFNIC, RIPE, ETC ( pardon, etc. ). Comprendre le fonctionnement de l'ICANN, c'est entrer dans un dédale d'organisations et sous-organisations qui se représentent toutes mutuellement au conseil d'administration des unes et des autres. A croire que l'establishement du net est maniaque du jeton de présence. Pourtant, au delà du fouillis de sigles qui en résulte, on comprend vite que l'objectif d'une structure aussi complexe est d'obtenir une représentation la plus large possible des acteurs du Net dans les instances de décision. La légitimité de l'ICANN repose sur le consensus. A des degrés divers, tout le monde finit par être représenté : les organisations gouvernementales de télécommunication, les fournisseurs d'accès, les " registrars " locaux et régionaux, les grandes entreprises du numérique...et même les détenteurs de noms de domaine non-commerciaux ( vous et moi donc, paraît-il ). A la tête du chaos, le " board of directors " de l'ICANN qui prend les décisions finales et dont la légitimité tient au fait qu'il s'agit de représentants d'organisations qui représentent des représentants de représentants, et ainsi de suite ad libitum.Formellement, le fonctionnement de l'ICANN est parfaitement transparent, puisque les minutes des réunions de son comité directeur ainsi que des organisations qui le composent sont retranscrites fidèlement sur son site web. En réalité, certains, comme Andy Mueller critiquent ouvertement ce fonctionnement où la multiplicité des instances de décision dilue les responsabilité et fait parcourir un chemin complexe aux décisions ; si bien que lorsqu'une proposition arrive au stade final, les jeux sont déjà faits. Finalement, le fonctionnement de l'ICANN suit un modèle très différents des gouvernements démocratiques en général. Le principe n'est pas ici de trancher entre des positions contradictoires, mais de chercher le consensus sur les décisions prises ; ce qui est en apparence plus démocratique ; en apparence seulement semble-t-il. Constitué en grande partie de scientifiques, on peut se demander si l'ICANN, dont l'importance va croître dans les prochaines années, est organisé sur des bases adaptées à sa mission. Liens :
La structure de l'ICANN
: qui fait quoi ?
L'organigramme
de l'ICANN
Présentation des trois organisations qui
composent l'ICANN :
DNSO
PSO
ASO
2000-10-20 00:00:00
L'ICANN est composé de trois organismes : * L'ASO (Adress Supporting Organization) : émet des recommandations sur la gestion et la structure des adresses IP. Elle est composée de représentants des trois organismes régionaux qui se partagent le monde : l'APNIC, l'ARIN et le RIPE NCC. C'est ce dernier qui s'occupe de l'allocation d'adresses pour l'Europe. * Le DNSO (Domain Name Supporting Organization):émet des recommandations sur la gestion des noms de domaine. Beaucoup d'intervenants y sont représentés : les fournisseurs d'accès, les organismes qui enregistrent les noms de domaines ( nationaux et généraux), des spécialistes de la propriété intellectuelle, les détenteurs de noms de domaine non-commericaux, les entreprises commerciales, les " registrars ", chacun constituant un collège spécifique. * Le PSO (Protocol Supporting Organization) : émet des recommandations sur le mise en oeuvre de protocoles techniques homogènes sur le Net permettant à l'information de circuler librement. Elle est composée de représentants de l'IETF (Internet Engineering Task Force), du W3C (World Wide Web Consortium), de l'ITU (International Telecommunication Union), et de l'ETSI (European Telecommunication Standarts Institute) Chacun de ces organismes élit trois représentants au " board of directors " de l'ICANN. Il peut être amené à effectuer des études pour l'ICANN sur le domaine qui lui incombe, ou formuler des recommandations pour éclairer les délibérations de celui-ci. Chaque organisation est libre de fixer ses propres règles de fonctionnement et les relations qu'il établit avec l'ICANN sont régies par des accords signés après la fondation de l'ICANN. Liens :
* ASO
* DNSO
* PSO
* RIPE
* W3C
* NCDNHC
2000-10-19 00:00:00
L'actuelle directrice de l'ICANN est une des personnalité les plus en vue du moment...et pas seulement parce que l'organisation à la tête de laquelle elle se trouve est récemment sortie de l'ombre. Ancienne élève de Harvard, où elle a suivi un cursus en économie, elle fut journaliste pour Forbes avant de pratiquer l'analyse financière dans le domaine des nouvelles technologies pendant plusieurs années.
La liste des organisations auxquelles elle participe aujourd'hui, et ce depuis les années 90, est impressionnante : membre de l'Electronic Frontier Foundation, de l'US Information Infrastructure Advisory Council, du Santa Fe Institute et de l'Eurasia Foundation parmi d'autres, elle est décrite par certains comme une véritable " workoholic ", une " accro du boulot " toujours à la recherche d'idées émergentes.
Mais ceci ne serait rien n'était sa capacité à transformer les idées en dollars. C'est d'ailleurs cette fonction de passerelle entre inventeurs et businessmen qui lui donne une place si importante dans le paysage du net. La petite entreprise qu'elle a fondée, EDventure holdings joue un rôle déterminant : destinée à financer les entreprises innovantes, Edventure organise deux forums annuels parmi les plus courus de la planète : le PC forum et l'Euroforum. Le tout est couronné par une lettre de diffusion particulièrement select : Release 1.0 dont Esther Dyson est l'éditrice principale, en compagnie de Jerry Michalski. Unanimement considérée pour sa qualité, Release 1.0 explore avec méthode les prochains développements des nouvelles technologies.
Parlant le russe couramment, Esther Dyson s'est intéressée à l'Europe centrale dès la chute du mur de Berlin. Elle y fait de nombreux voyages et a publié de nombreux articles, notamment dans le New York Times, appelant les investisseurs occidentaux à développer les nouvelles technologies en Russie. Présente sur tous les fronts, située au point de rencontre stratégique entre l'économie et la technologie, Esther Dyson a une qualité appréciée parce que rare dans le milieu où elle évolue : l'indépendance d'esprit. Fascinée par les nouvelles technologies, elle n'hésite pas à porter ses critiques, y compris contre les géants de la nouvelle économie ( Jeff Bezos et Bill Gates en ont fait les frais ), lorsqu'elle estime que leurs pratiques sont contraires aux intérêts du public
Liens :
* Une biographie rapide d'Esther Dyson
* Le site de l'Electronic Frontier Foundation
* Un entretien accordé au journal Le Monde
* Elle fait le point sur l'ICANN
2000-04-03 00:00:00
Branle-bas de combat dans le monde de l'édition : le dernier salon du livre à été l'occasion de voir surgir aux côtés des vénérables " Galligrasseuil " des jeunes pousses de la nouvelle économie, bien décidées à pousser les antiques et poussiéreuses institutions vers la maison de retraite. Tandis que chez les uns, on écoutait religieusement les paroles définitives prononcées par quelque figure connue et reconnue du PIF, à quelques mètres de là, de jeunes chevelus se déhanchaient vigoureusement sur le stand de manuscrit.com, lors d'un " bal littéraire " qui tenait plus du concert techno que des soirées de Médan. Ambiances...
Syndrome Napster
Et de fait, le microcosme voit venir avec
inquiétude la vague des NTIC qui a peu touché jusqu'à présent le
monde de l'édition. C'est un paradoxe d'ailleurs, dans la mesure
où ce sont précisément les instruments de traitement
informatique du texte (traitement de texte et langage html) qui ont
fait le succès des nouvelles technologies, le traitement de l'image
et du son venant dans un second temps. Il reste que le passage par le
multimédia a définitivement marqué ces technologies : à entendre
les questions des éditeurs lors du " sommet
e-book 2001" qui se tenait en marge du salon, on comprenait
très vite que l'affaire Napster était dans toutes les têtes.
Si les éditeurs voient d'un oeil si méfiant les développement de
l'édition numérique, c'est d'abord par peur du piratage. Les plus
imaginatifs d'entre eux voient déjà le dernier BHL circuler sur
tous les disques durs de la planète sans que personne n'ait déboursé
les cent et quelques francs nécessaires à l'acquisition du précieux
ouvrage. Halte là ! Pas question de se laisser faire, et
plutôt que de se retrouver aux côtés de
Metallica dans une série de procès en violation du copyright, les
éditeurs préfèrent s'en tenir au bon vieux bouquin, sur
papier.
S'ils approchent les nouvelles technologies avec tant de
circonspection, ce n'est pourtant pas par amour de l'odeur de l'encre
et de la colle, parce qu'il ont trop lu Rabelais pour lâcher
le livre objet. Il y a belle lurette que le monde de l'édition
utilise des outils informatiques pour fabriquer ses livres. De la
même manière, les " manuscrits " d'aujourd'hui
n'en sont plus que de nom et se réduisent souvent à des disquettes,
voire à des fichiers attachés dans des mails. Les outils
informatiques d'aide à l'édition Xpress et Framemaker sont
extrêmement performants, et la généralisation du XML est
plein de promesses pour ce secteur économique. Non, les éditeurs ne
sont pas technophobes, loin de là.
Des initiatives foisonnantes
A condition que la technologie ne remette pas en question leur position sur un marché très disputé. Et c'est là que le bât blesse. Car des petits malins comme Jean-Pierre Arbon le fondateur de 00h00.com sont bien décidés à leur damer le pion en supprimant les coûts de fabrication et de distribution et en délivrant au lecteur des fichiers directement lisibles sur son écran, et qu'il peut imprimer chez lui pour un prix réduit de moitié par rapport à la version papier. Si 00h00.com s'en tient là et maintient une réelle politique éditoriale, on comprend bien que ce genre de procédé de distribution constitue une aubaine pour la publication à compte d'auteur, dans la mesure où les frais de fabrication sont réduits à des sommes insignifiantes. Déjà, Alapage propose un service d'auto-édition payant permettant à tout un chacun de publier ses mémoires...moyennant finances. Manuscrit.com se veut pour sa part " découvreur de talents ". La jeune société se propose de servir de passerelle vers l'édition traditionnelle en proposant des manuscrits sélectionnés par ses comités de lecteurs.
Le lyber, livre révolutionnaire
C'est une tout autre approche qu'a proposé récemment Michel Valensi des Editions de l'Eclat dans son Petit Traité plié en dix sur le lyber : celui-ci s'appuie sur la culture de la gratuité propre à Internet pour considérer qu'à l'ère du numérique, le texte que contient un livre doit rester libre de droits, au même titre que les autres informations disponibles sur le réseau. C'est l'objet livre, le support papier qui peut être rétribué, ne serait-ce que parce qu'il implique des coûts de fabrication. La licence " lyber " inventée par l'éditeur s'inscrit dans le mouvement général de libre diffusion du savoir numérique que défendent par ailleurs Olivier Blondeau et Florent Latrive. Il imagine ainsi que les textes, annotés par les communautés de lecteurs, enrichis et constamment remis à jour par les auteurs, pourront circuler indéfiniment à travers le réseau. Tirant parti des possibilités offertes par l'outil informatique, c'est ainsi à une transformation des pratiques d'écriture et de lecture qu'il invite.
2000-04-03 00:00:00
L'un est en plastique bon marché, plutôt petit et maniable et ressemble à l'ardoise magique de notre enfance, l'autre est lourd, adopte un grand format et cache ses courbes gracieuses dans un écrin de cuir. L'un coûte environ 1500 francs, l'autre 5900... Deux e-book, deux conceptions radicalement différentes du livre.
REB1100=RER8h40
Construit par RCA, la filiale de Thomson, le Rocket Ebook de nouvelle génération (REB 1100) se veut passe-partout, le moins cher possible et simple d'utilisation. Pour ce qui est des contenus, il s'appuie sur le système ebook de Gemstar. Cette société a récemment fait la une de l'actualité technologique en achetant le pionnier 00h00.com. C'est donc par le biais du premier éditeur français tout numérique que se fera d'ici la fin de l'année la distribution des premiers titres au format ebook pour ce qui est de la France. A voir le catalogue des titres anglo-saxons proposés par Gemstar, on comprend vite que l'objectif est d'atteindre l'équilibre par une distribution de masse : tous les best-sellers y sont, de King à Ludlum en passant par Highsmith. On est ici dans la grande distribution, le tout-venant et le large public. Le REB 1100 a toutes les chances de devenir l'e-book du métro de 8h40 (ou 17h35 selon les goûts) : il est laid, désagréable au toucher, mais terriblement pratique pour consommer en masse de la littérature jetable, sans compter les économies sur l'achat des textes, si du moins 00h00.com maintient sa politique de prix (les éditions numérisées sont vendues environ 50% du prix de vente papier)
Cybook : le Concorde de l'ebook
Avec le Cybook de Cytale, on change d'univers. La société franco-française patronnée par Erik Orsenna ne connaît que la Littérature avec un grand " L ". Pas question d'enlaidir la typo avec des effets d'escalier : un écran 10 pouces pour une résolution de 800x600, un format propriétaire - CytalePage permettant un agrandissement des polices sans déformation sont autant d'éléments conduisant à une incontestable réussite technique. Il reste que la politique commerciale de Cytale positionne son produit sur le haut de gamme. De l'aveu même de ses dirigeants, le Cybook ne s'adresse qu'à une petite minorité de lecteurs : malvoyants, expatriés, très gros lecteurs (fortunés). Par ailleurs, le prix de vente des ouvrages numérisés est le même que leur corollaire papier...Autant dire que la viabilité économique de l'entreprise est loin d'être assurée : le lecteur ne fait pas d'économie en achetant ses romans numérisées et perd malgré tout le plaisir de l'objet-livre. Relativement volumineux et lourd (près d'un kilo), il peut contenir l'équivalent de trente livres de 500 pages. Il reste que les aficionados de Balzac qui se promènent avec la Comédie humaine dans leur sacoche ne sont pas si nombreux. Plus profondément, les choix qui ont présidé à la commercialisation de ce produit semblent difficiles à comprendre : si on se situe dans l'optique du livre comme objet de prestige, et tout indique que Cytale se situe dans cette optique (le prix, la pub, le site où l'on ne clique pas mais on " appuie "), alors tout ebook, quelles que soient ses qualités intrinsèques est disqualifié au profit du " vrai livre " dont la destination dernière (et quelquefois première) est de prendre tranquillement la poussière sur les rayonnages de la bibliothèque du salon, témoin silencieux mais néanmoins obvie de l'immense culture de son propriétaire légitime. Conclusion : le cybook est beau, réussi, impeccable, génial, mais ne se vendra sans doute pas ; un Concorde de l'ebook en somme
2000-04-03 00:00:00
Appelons cela l'affaire King : en juillet dernier, l'auteur à succès spécialisé dans l'épouvante avait tenté une expérience de publication d'un roman à épisode, The Plant, téléchargeable à partir de son site contre paiement. Avec 120000 téléchargements pour le premier épisode, l'expérience promettait d'être concluante. Stephen King en profitait pour envoyer au diable le " big publishing ". Enfin un auteur allait pouvoir se passer de ces parasites de l'écriture que sont les éditeurs et s'adresser directement à ses chers lecteurs dans une relation de mutuelle confiance. Quelques mois plus tard, il semble que ce soit celle-ci précisément qui ait fait défaut...des deux côtés. En novembre, l'auteur annonçait qu'il interrompait la publication de son roman, en partie parce qu'un nombre trop important de lecteurs téléchargeait les nouveaux épisodes sans s'acquitter de la rémunération demandée. Colère dans la communauté de lecteurs, floués des quelques cinquante francs qu'ils durent débourser pour une ébauche de roman dont ils ne connaîtraient sans doute jamais la fin De mauvaises langues insinuent que la vraie raison de l'arrêt est la chute libre du nombre de téléchargements au fil des épisodes. Quoiqu'il en soit, l'aventure aura rapporté la bagatelle de 463000 dollars à Stephen King, si l'on en croit le rapport financier qu'il publie sur son site. Le pauvre Balzac dont la rémunération des épisodes de la Comédie Humaine ne suffisait pas à éponger les dettes doit se retourner dans sa tombe.
La République de Mek-Ouyes
Très loin de ces histoires de gros sous, l'éditeur POL publie depuis plus de six mois, et gratuitement cette fois, La République de Mek-ouyes (prononcez-le comme vous le sentez), roman-feuilleton quotidien écrit par Jacques Jouet. Cet auteur, membre de l'Oulipo, raconte chaque jour comment René Pascale-Sylvestre, chauffeur routier de son état, a décidé un beau jour de fonder une république indépendante sur une aire d'autoroute. Placé sous le signe du surréalisme, La République de Mek-Ouyes est " un roman-feuilleton routier comme autoroutier, politique et nombriliste, burlesque et irresponsable, plein d'idéaux et de mauvais sentiments, rapportant des aventures gagnant à être connues aussi amusantes qu'inauthentiques et agréables à se rappeler ". Il suffit de laisser son adresse e-mail sur le site de POL pour recevoir chaque jour un nouvel épisode dans sa boîte aux lettres.
Et ma Yescard ?
Cette expérience n'est d'ailleurs pas la seule en matière de diffusion par e-mail. Il y a quelques temps, Internet Actu s'est lancé dans la publication d'un cyber-polar plutôt humoristique intitulé " Où est passée ma Yescard ? " et rédigé par l'éditorialiste Paul Carbone, un talentueux polygraphe qui n'en est pas à son coup d'essai en matière d'écriture numérique. Lisible aussi sur le Web, le roman tire parti des liens hypertextes en ouvrant des fenêtre explicatives sur les différents personnages qui y interviennent. Publié à un rythme hebdomadaire et agrémenté d'illustrations à la Tardi, il a la saveur du pastiche et la légèreté d'une écriture sans prétention. C'est peut-être cela justement qui caractérise le roman-feuilleton sur Internet : la légèreté des structures de publication, le raccourcissement des délais (et du texte !), la gratuité dans la plupart des cas, permettent à l'écriture de retrouver les racines populaires du roman-feuilleton et de sortir du ghetto " littéreux " où la confine l'édition classique de fictions.
Interactivité et esthétique romanesque
A contrario, Internet a suscité des expériences foisonnantes, en matière d'écriture collective notamment. On ne compte plus sur le réseau les cyber-romans co-écrits par leurs lecteurs au jour le jour. Le résultat est très souvent décevant et relève de la confusion des genres. Il y a quelques années, Dantec avait exprimé son scepticisme à propos de ce genre d'initiative en des termes tout à fait justes. De fait, l'interactivité ne fait pas partie de l'esthétique romanesque et les romans interactifs font apparaître en négatif les limites de son intégration dans le nouveau media. Plus largement, on peut s'interroger sur les contradictions entre une logique narrative qui définit une progression linéaire et prédéfinie et une structuration en réseau des informations et des textes, propre au cyberespace. Il semble bien que cette dernière ne peut attaquer le cœur de la narration au risque d'en affecter les ressorts essentiels. La mise en oeuvre de l'interactivité est sans doute beaucoup plus intéressante au niveau du commentaire sur le texte, de la glose, comme le suggère Michel Valensi dans son traité sur le lyber : pourquoi ne pas imaginer en effet une inclusion permanente avec le texte et à l'intérieur même de sa structure de diffusion, des commentaires, commentaires de commentaires, etc. généré par sa lecture. L'interactivité ainsi mise en oeuvre a le triple avantage de respecter la coupure statutaire entre auteur et lecteur qui ne peut être remise en cause, de correspondre à la logique du lien hypertexte qui est la vraie révolution d'Internet, et enfin de perpétuer une tradition qui existe depuis des millénaires.
2000-04-03 00:00:00
Cela s'appelle Xanadu,
et c'est sans doute l'un des projets les plus fous et les plus longs
de l'histoire informatique. Un projet qui n'a jamais abouti. En 1974,
Ted
Nelson publie un livre intitulé‚ Computer
lib dans lequel il explique, entre autres considérations en quoi
consiste Xanadu : une immense bibliothèque universelle rassemblant
le savoir de l'humanité‚ sur un support informatique, et dont la
particularité‚ est de donner la possibilité‚ au lecteur de
pouvoir naviguer d'un document à l'autre par des " hyperliens "
dessinant des chemins transversaux aux documents eux-mêmes.
Transclusion
Si l'on s'en tenait là, Nelson serait le vrai inventeur du Web, bien avant Tim Berners-Lee, comme il est présenté quelquefois. Mais Xanadu a une histoire et repose sur des concepts complètement indépendants du Web, et bien plus puissants...s'il existait : car il ne s'agit pas seulement de relier par un lien hypertexte deux documents entre eux, mais d'inclure une portion de texte issue d'un document dans un autre document sans qu'il y ait duplication du texte cité. Le lien se présente alors comme une sorte de fenêtre à l'intérieur du document laissant apparaître la portion choisie du document cité. C'est ce que Nelson a appelé la " transclusion ". Ce type de lien serait évidemment beaucoup plus puissant que les liens HTML classiques puisqu'il permettrait de résoudre le problème de la modification du document cité qui dans l'état actuel des choses aboutit à un lien brisé. Ici, rien de tel puisque c'est une portion du document original qui apparaît. Plus encore, dans l'esprit de Ted Nelson, les hyperliens sont bidirectionnels, c'est-à-dire qu'ils apparaissent dans le document cité sur lequel apparaissent donc toutes les utilisations qui ont pu en être faites dans d'autres documents. Enfin, le système prévoit que des liens peuvent être ajoutés directement par n'importe quel utilisateur sur un document, indépendamment de son auteur (et s'il l'autorise).
Transcopyright
Le système de " transclusion " est complété par un système de gestion des droits d'auteur que Nelson appelle " transcopyrighting " : dans la mesure où le texte cité n'est jamais reproduit mais accédé, à chaque fois qu'un des textes qui le citent est lui-même accédé, et ainsi de suite, son auteur peut comptabiliser le nombre total d'occasions où ses idées sont divulguées, et, éventuellement, c'est du moins le projet de Nelson, être rémunéré en conséquence. Les conséquences que la mise en oeuvre d'un tel système pourrait avoir sur l'édition de textes dans son ensemble, sont quelque peu vertigineuses. Wired raconte dans un long récit l'odyssée du projet qui n'a encore pas véritablement abouti : dès sa parution, le livre de Nelson a attiré l'attention d'un certain nombre de hackers qui se sont lancés à corps perdu dans l'entreprise, persuadé d'avoir affaire à la révolution technologique du siècle. Il faut dire que Nelson n'est pas lui-même programmeur (il a une formation en philosophie et sciences sociales) et a donc toujours dû recourir aux services d'une équipe spécialisée pour écrire le code qui rendrait son idée effective.
Vaporware ?
Et c'est là que les difficultés sont apparues
: car lancée dans les années 70, la programmation de Xanadu fut
très vite bloquée par la manière dont on concevait à l'époque
les systèmes informatiques : elle reposait sur un système
centralisé, extrêmement lourd à gérer, et surtout
totalement dénué d'interface utilisateur. Obsédés par la
nécessité de faire tourner leur système, Nelson et son équipe
sont complètement passés à côté de la révolution de
l'informatique personnelle qui, reposant sur la simplicité
d'utilisation et la décentralisation, a abouti au succès du Web,
bien moins intéressant pourtant que Xanadu pour ce qui est de la
gestion de l'information. Conçu comme une forteresse du
savoir, Xanadu a subi le même destin que le palais de Kubla
Kahn dans le poème
de Coleridge auquel il fait référence.
Après près de
quarante ans de déboires divers, la mise au point de Xanadu semble
avoir été relancée en 1999 lorsque Xanadu Technologies, la société
créée pour développer le projet décida de rendre public le code
déjà écrit. Xanadu devint Udanax
sous licence X11. Dans le même temps, la société
développait une interface utilisateur. Ces efforts pour faire
évoluer le système vers un ensemble d'outils pratiques pour
l'utilisateur, aboutirent à Udanax Green et Udanax Gold, dont le
développement n'est pas achevé. " We fight on " peut-on
lire sur la page
d'accueil de Xanadu. Le mot est juste.
2000-04-03 00:00:00
La littérature expérimentale sur Internet a son quartier général : l'équipe ébouriffante de Jean-Pierre Balpe à l'Université de Saint-Denis. Paris VIII a une longue expérience de la recherche alternative et des expérimentations. On ne peut donc qu'être à moitié étonné d'y trouver un département hypermédia et surtout un Centre Interdisciplinaire de Recherches sur l'Esthétique Numérique (CIREN) qui en constitue le coeur vivant : là s'y trament des expériences parmi les plus intéressantes du Web littéraire, ainsi qu'une réflexion en profondeur sur l'impact décisif que l'informatique pourrait avoir sur l'écriture.
Générateurs de textes
Jean-Pierre Balpe est à l'origine d'un générateur de littérature, un logiciel qui, à partir de champs sémantiques propres à un auteur, produit automatiquement du texte " à la manière de ". Il peut même mélanger les champs sémantiques de plusieurs auteurs comme Balpe en a fait l'expérience, ou encore être couplé à des générateurs de sons et d'images. Cette dernière possibilité a donné lieu à un événement, Trois mythologies et un poète aveugle, à l'Ircam, il y a quelques années.
Autre réalisation d'envergure, Trajectoires est une oeuvre collective : l'équipe d'@graf, dirigée par Balpe, a réalisé un générateur de roman policier qui repose sur le mélange entre textes et images. Le coeur seul de l'intrigue est déterminé à l'avance. La composition des séquences narratives textuelles, ainsi que leur alliance avec des illustrations sont générées automatiquement par l'ordinateur qui puise dans des bases de données (de mots, de personnages, de vêtements, de décors, etc.) et suit certaines règles qui le guident dans son travail. Dans Trajectoires, rien n'est rédigé par un humain, et le résultat est plutôt impressionnant.
Cet essai relativement réussi, et d'ailleurs récompensé, tend donc à détruire la linéarité du récit, sur un genre que l'on imagine excessivement contraint de ce point de vue. La progression dans l'intrigue se fait par la lecture de " tableaux " qui regroupent, pour chacun d'eux, une unité narrative minimale, une illustration et une citation. La composition de chaque tableau est entièrement générée, de manière dynamique, par l'ordinateur. Trajectoires montre, s'il en était besoin que l'illusion de linéarité dans le récit, et singulièrement dans le récit policier, repose sur l'établissement de liens logiques entre unités narratives, ou même entre indices, et ne repose pas sur une succession chronologique.
Mélusine
L'expérience de Trajectoires repose sur une idée centrale à nombre de recherches similaires : la déstructuration de la linéarité du récit. Le groupe Mélusine, qui s'exprime sur le site du même nom en a fourni une expression théorique et programmatique dans son manifeste : " le postulat de départ est que tout est transversal dans l'absolu et linéaire par défaut, peut-on y lire. Tout pensée est complexe, c'est son expression qui la simplifie, l'amoindrit, la mutile, parce qu'elle l'oblige à s'organiser linéairement. " D'où l'intérêt des supports numériques qui permettent l'expression de la transversalité et plus simplement de la richesse de la pensée, par association d'idées par exemple. Dans la philosophie esthétique de Mélusine, on reconnaît évidemment l'influence du surréalisme, mais aussi de l'art roman (le Manifeste parle d' "ordinateur médiéval ", c'est-à-dire non rationaliste), ou encore des travaux de Ted Nelson. Ce n'est pas tout à fait un hasard si Pierre de la Coste, l'inspirateur du petit groupe tente de mettre en oeuvre dans ses " chroniques de Mélusine ", quoique de manière très primitive, quelques uns des principes de l'écriture hypertextuelle définis il y a bien longtemps par le créateur de Xanadu.
2000-04-03 00:00:00
Le Web a été créé pour gérer et communiquer plus facilement de l'information contenue dans du texte. C'est pourtant dans ce domaine que les innovations sont aujourd'hui les plus lentes et les moins nombreuses, si on les compare avec les technologies de diffusion et de manipulation de l'image, animée ou non : à côté des Realplayer, QuickTime, logiciels de réalité virtuelle et autre technologies Flash (qui reviennent à traiter du texte comme des images, un comble !), l'inefficacité des moteurs d'indexation, des logiciels de présentation de texte et des outils de navigation textuelle est frappante. Bien plus, toute l'évolution des navigateurs depuis Mosaïc, consiste à s'affranchir dans la mesure du possible du texte pour évoluer vers l'image. Quant à l'Internet purement textuel, celui du mail et des news, la stagnation est encore plus évidente : quelles sont les évolutions vraiment importantes depuis Eudora ? Aucune. A cheval entre deux époques, celle de l'écrit et celle de l'image, les Nouvelles Technologies sont marquées du sceau de l'ambiguïté. Le secteur de l'édition de livres, est un des derniers à être touché par la révolution des NTIC. Mais les choses sont en train de changer : le dernier salon du livre avec son " sommet e-book ", fut l'occasion de voir révélées au grand public les premières avancées dans le domaine : on a beaucoup parlé du e-book avec le fameux Cybook, moins des expériences en matière d'édition numérique qui constituent cependant la vraie révolution de l'écriture : les Editions de l'Eclat, Manuscrit.com, 00h00.com dans des styles très différents apportent des idées nouvelles pour un secteur qui a tendance à s'encroûter dans la gestion de son fond de commerce. A l'autre bout de la chaîne, des auteurs comme Jean-Pierre Balpe, Jacques Jouet, Pierre de la Coste ont très vite reconnu l'hypertexte comme un outil leur permettant de jouer avec le texte, de faire jouer les textes qu'ils produisent : les vieux rêves de machines littéraires propres au mouvement surréaliste (Jouet est membre de l'Oulipo) ou de délinéarisation du texte trouvent ici des instruments nouveaux et productifs. Leurs essais rejoignent les rêves des inventeurs de l'Internet, Vanevar Bush, Ted Nelson, Douglas Engelbart bien avant que le Web n'existe et qu'il ne se réduise à n'être que ce qu'il est : une imitation du papier
2001-02-01 00:00:00
Les récentes initiatives de la commission européenne ou des gouvernements en matière d'e-learning doivent être comprises comme des réactions à la pression grandissante de sociétés privées investissant massivement sur ce qu'elles considèrent comme un marché juteux., dont le poids est évalué à 90 milliards de dollars pour l'année prochaine.
Ainsi, aux côtés des vénérables institutions publiques que sont le Conservatoire National des Arts et Métiers et le Centre National d'Enseignement à Distance, on a vu fleurir ces dernières années un nombre important de start-up ou de sociétés plus anciennes reconverties. Ciblant plus particulièrement la formation continue au sein de l'entreprise, des sociétés comme I-progress, Studi.com ou encore Onlineformapro s'associent parfois à des instituts de formations plus traditionnels pour proposer des formules recourant massivement aux technologies numériques.
Plus récemment, l'alliance entre Studi.com et Montparnasse Multimédia marque le début des grandes manœuvres dans le secteur et signifie un début d'ouverture vers le grand public. Mais le marché français de l'e-learning reste encore balbutiant face aux Etats-Unis où ces technologies font fureur, représentant près de 60% des dépenses de formation, spécialement dans l'industrie high-tech où les besoins de formation permanente sont immenses.
Les universités anglo-saxonnes dispensant des formations et diplômes plus généralistes ne sont d'ailleurs pas en reste. Ainsi, les quatre universités prestigieuses que sont Columbia, Stanford, la LSE de Londres et l'Université de Chicago se sont alliées pour diffuser des cours de finances en ligne. Elles ne délivrent pas pour l'instant de diplôme à l'issue de cette formation, mais cela n'est pas exclu. Plus largement, il est possible que l'on voit émerger dans les années à venir des agrégateurs de contenu ; des sociétés proposant des " paquets " de formations et de cours produits par les universités les plus reconnues. La Jones International University en donne déjà un aperçu. Cette université du Colorado est entièrement virtuelle et diffuse sur Internet des cours conçus par de grandes signatures de Stanford ou Columbia.
L'évolution rapide de l'offre en matière d'enseignement , avec la constitution d'un marché mondial fortement concurrentiel soulève bien des interrogations. Certains expriment désormais ouvertement leur crainte d'une mondialisation plus ou moins totale du marché de l'éducation, avec l'idée que les meilleurs élèves des différents pays du monde seraient vampirisés par les grandes universités américaines. Pour d'autres, c'est le modèle du supermarché de l'enseignement qui risque de prévaloir, transformant le savoir en produit banal, packagé, diffusé à grande échelle, et donc dévalorisé.
On voit que l'entrée de l'éducation dans l'ère technologique a des implications globales plus profondes qu'il n'y paraît en introduisant des logiques économiques au cœur des pratiques d'enseignement. Notre conception traditionnelle de celui-ci, héritée des Lumières risque bien de traverser une zone de fortes turbulences.
Liens :
Le premier World Education Market de Vancouver
Les start-up donneuses de leçons, article du Monde
Le dossier du Journaldunet
2001-02-01 00:00:00
Une étude effectuée récemment par l'OCDE sur l'usage des NTI dans le système éducatif de plusieurs pays a montré que si la plupart des élèves français ont appris à la sortie du système éducatif à se servir d'un tableur et d'un traitement de texte, en revanche l'ordinateur est encore peu utilisé par les enseignants en tant qu'outil pédagogique. Plus de la moitié du corps professoral admet en effet ne jamais avoir fait d'expérimentation avec les élèves.
On évoque souvent le sous-équipement des établissements ou le manque de familiarité des enseignants avec l'outil informatique, mais il est probable que les raisons de ce retard sont plus profondes comme en témoigne cette étude qui montre que l'usage de l'informatique à l'école se réduit souvent à la recherche et la mise en forme de documents et d'information. Il est clair en effet que la structure actuelle de la relation pédagogique est largement inadaptée à la mise en oeuvre de pratiques plus originales.
L'utilisation de l'ordinateur implique de la part des élèves une autonomie beaucoup plus grande face aux connaissances, et de la part de l'enseignant une réorientation de son activité de la transmission orale et directe des connaissances à la structuration de celles-ci, appréhendées par les élèves de manière autonome. Or, dans l'état actuel des choses, la France est sans doute le seul pays du monde développé où la plupart des élèves passe le plus clair de son temps en classe et en cours, ce qui réduit à la portion congrue la part de travail personnel. A l'opposé , l'éducation assistée par ordinateur n'est efficace que dans la mesure où les moments de vie collective sont réduits à des moments privilégiés bien qu'indispensables, destinés à valider, rectifier et encourager la progression de chaque élève.
En clair, l'enseignement traditionnel tel qu'il est mis en oeuvre jusqu'à présent est un enseignement de masse, uniformément diffusé à des millions d'élèves. L'enseignement assisté par ordinateur permet au contraire d'individualiser l'enseignement en fonction de des capacités de chacun. La révolution informatique dans l'enseignement est un peu similaire à celle qui a lieu dans les médias : on passe de la diffusion à grande échelle d'un message unique à une information individualisée à l'extrême
Et les implications politiques et sociologiques d'une telle mutation ne sont pas minces : car l'école a jusqu'à présent joué un rôle d'uniformisation et d'égalisation de la formation des citoyens, constituant un moule unique qui a permis de forger l'unité d'une nation. L'école telle qu'elle existe encore aujourd'hui est adaptée à l'ère industrielle, ère de la standardisation et de la diffusion de masse. Elle implique l'inculcation de modes de raisonnement, de connaissances et de réflexes communs par un long processus de dressage qui va de l'école maternelle jusqu'au si bien nommé "collège unique", dont la ressemblance avec la caserne est loin d'être dépassée. Le basculement de l'école à l'ère numérique implique une individualisation des formations, une multiplication des qualifications, et une diversification des parcours: gage d'une plus grande efficacité de l'enseignement - c'est le rêve de la pédagogie dite différenciée - mais qui n'est pas sans conséquence politique.
Il n'est pas étonnant dès lors que les résistances viennent des tenants de l'"école républicaine ", attachés aux vertus civiques et surtout assimilatrices qu'elle est supposée avoir. Les détracteurs de l'informatique à l'école tiennent celle-ci pour le dernier rempart de l'unité nationale dans un environnement qui favorise la différenciation et la distinction généralisée. Depuis Jules Ferry, la société française a assigné deux fonctions à l'école : instruire et transmettre des connaissances d'une part, former le creuset d'une nation d'autre part. Ces deux objectifs se révèlent aujourd'hui de plus en plus incompatibles et il est fort probable que l'introduction des technologies du numérique à l'école implique dans les années à venir de faire des choix douloureux et repoussés jusqu'à présent : ou bien un enseignement plus efficace et plus qualifiant, ou bien une école " citoyenne ", égalisatrice et uniformisatrice. Les deux positions peuvent se défendre. Mais qu'au moins chacun puisse se déterminer en toute connaissance de cause.
Liens :
Deux articles de Libération sur le sujet : 1 et 2
Le rapport de l'OCDE, sur Transfert
2001-02-01 00:00:00
Malgré la diversité des pratiques que désigne l'e-learning, on peut dégager un certain nombre de tendances qui permettent de résumer à grands traits les apports de l'informatique à l'enseignement des connaissances :
· L'homme et la machine : c'est avec le développement des sciences cognitives qu'a émergé l'idée que le fonctionnement du cerveau humain au niveau logique pouvait être modélisé comme machine à traiter de l'information et donc, qu'à l'inverse, l'ordinateur pouvait adopter un comportement proche du raisonnement humain. C'est la naissance de l'intelligence artificielle dont les retombées concrètes concernent de nombreux domaines, dont l'éducation. Plusieurs laboratoires aux Etats-Unis et au Canada tentent de mettre au point des " profs virtuels ", comme Adele à l'Université de Californie du sud, dont le comportement est relativement proche de leurs collègues réels. L'objectif est donc de fournir à chaque élève un tuteur particulier l'encourageant dans sa progression et attentif à la singularité de ses besoins.
· Travailler par réalisation et simulation : beaucoup plus que l'enseignement traditionnel qui fonctionne très souvent sur le modèle du cours et des exercices d'application, l'informatique permet la mise en oeuvre de réalisations individuelles ou collectives à relativement faible coût : que ce soit la réalisation d'un cd-rom, d'un site Web ou d'un journal de classe, les outils de publication assistée par ordinateur facilitent les réalisations collectives. Plus profondément, l'informatique permet de travailler par simulation. On sait déjà combien les simulateurs de vol, dont les versions ludiques ne sont pas si éloignées des versions professionnelles, jouent un rôle important dans la formation des pilotes. D'autres expériences ont montré les vertus de telles simulations ; c'est le cas notamment de celle qui a été organisée au CHU de Rouen dans le cadre d'un projet d'université médicale virtuelle. L'expérience consiste à faire travailler les étudiants par groupes de huit sur des cas médicaux concrets, en suivant des procédures d'évaluation et de correction d'erreurs. A charge pour eux de trouver les informations dont ils ont besoin dans des bases de données accessibles sur Internet. On le voit, ici encore, la méthode n'est pas totalement nouvelle - l'apprentissage par résolution des problèmes, venu des pays anglo-saxons est utilisé depuis de nombreuses années dans plusieurs disciplines, mais les outils informatiques démultiplient les possibilités.
· Une autre relation pédagogique : lorsque l'ordinateur fut introduit dans l'enseignement au milieu des années 80, la pédagogie assistée par ordinateur se réduisait par force à un face-à-face décourageant entre l'élève et son écran. Peu à peu, on s'est rendu compte que l'absence de contact humain était un facteur démotivant et une entrave à la progression dans l'apprentissage. C'est le développement d'Internet et des technologies qui lui sont associées ces dernières années, qui permet de corriger ce défaut en permettant de faire varier les conditions dans lesquelles s'établit la relation pédagogique. Que ce soit via l'e-mail, le chat, la réalité virtuelle ou la visio-conférence, la communication informatique ne permet pas seulement d'assurer un télé-enseignement pour des régions enclavées, mais aussi d'expérimenter d'autres types de relations pédagogiques, moins fondées sur la diffusion de cours généraux que sur la résolution des difficultés auxquelles se heurtent les élèves, ainsi que l'aide individualisée.
Liens :
Education et technologies de l'information : des influences réciproques
Un article de Wired sur les expériences américaines
" Penser la mise à distance en formation ", un article de Michel Bernard
2001-02-01 00:00:00
C'est lors du Conseil Européen de Lisbonne en mars de cette année que les chefs d'Etat et de gouvernement européens, ayant pris conscience d'un retard global au niveau européen en matière de nouvelles technologies, ont décidé de coordonner leurs efforts pour développer la connaissance et l'usage de ces technologies dans chacun de leur pays.
Fortement médiatisée, l'initiative e-learning prise lors de ce sommet n'apporte pas grand chose de nouveau, ne serait-ce que parce que l'éducation et la formation relève de chaque Etat membre et qu'il ne s'agit pas de doubler les initiatives existantes. Un certain nombre de constats et d'engagements ont néanmoins été pris lors de ce sommet : revue de détail.
Pour ce qui est du constat tout d'abord : le retard européen par rapport aux Etats-Unis est flagrant. Les écarts en matière d'équipement informatique sont particulièrement grands entre les pays européens Par ailleurs, l'Europe connaît une pénurie chronique de personnels qualifiés dans le secteur des nouvelles technologies (déficit de 500000 personnes en 1998 ; on en prévoit un million six en 2002). La production de logiciels éducatifs est massivement dominée par les Etats-Unis qui détiennent actuellement 80% du marché des produits en ligne. Enfin, un certain nombre d'obstacles à la diffusion des TIC est pointé comme le coût trop élevé des communications ou le manque de formation des enseignants.
Pour ce qui est des initiatives, le discours devient soudain beaucoup moins précis. Globalement, l'initiative e-learning se développe en quatre axes :
1 Un effort d'équipement, des institutions scolaires et universitaires notamment, avec un ratio d'un ordinateur pour 5 à 15 élève d'ici 2004
2 Un effort de formation des personnels à tous les niveaux
3 Le développement de services et contenus multimédias de qualité par une coopération accrue entre public et privé.
4 Le développement et la mise en réseau de " centres d'acquisitions des connaissances ", se concrétisant par l'interconnexion des établissements d'enseignement et le développement de campus virtuels.
L'ensemble de ces initiatives prend place, comme de juste, en synergie avec les programmes éducatifs européens existant, et s'accompagne de réflexions, observations et commissions ad hoc. En bref, on en reste à l'énonciation de vœux pieux, sans engagement chiffré, notamment au niveau budgétaire, dont on ne voit pas très bien quelles en seront les retombées concrètes. Une initiative très e-européenne en quelque sorte...
Liens :
La communication de la Commission Européenne
Un article de Libération sur le programme français d'e-éducation
Le programme du Ministère de l'éducation américain
Du plan " Informatique pour tous " au plan Allègre : qu'est-ce qui a changé ?
2001-02-01 00:00:00
Alors que la plupart des pays développés introduisent de plus en plus fréquemment l'ordinateur dans les salles de classe, que la plupart des gouvernement se glorifient de leurs programmes d'équipement scolaire, une association américaine de protection de l'enfance vient de jeter un pavé dans la mare en publiant un rapport qui pointe les effets nocifs de l'ordinateur sur les plus jeunes élèves.
Les auteurs du rapport rappellent en effet que la plupart des études constatent une faible amélioration des résultats aux exercices lorsque l'élève s'entraîne sur un ordinateur. Plus profondément, l'association pointe les effets néfastes que peut avoir la pratique intensive de l'informatique sur les plus jeunes enfants. Outre une sédentarisation accrue propice au développement de l'obésité, l'informatique a tendance à isoler les enfants en les coupant de tout contact inter-personnel avec d'autres enfants ou des adultes. A haute dose, elle constitue, au même titre que la télévision, une entrave à leur créativité, alors qu'elle ne les motive pas à acquérir de nouvelles connaissances.. Enfin, si l'ordinateur leur permet d'être " connectés ", ce n'est certainement pas avec le monde réel mais sur des univers artificiels ou virtuels qui sont dans un rapport de représentation par rapport au monde concret.
Forte de ces diagnostics posés par d'éminents pédiatres, l'association appelle à un moratoire immédiat sur l'informatisation des écoles primaires et dénonce la pression de la part de l'industrie informatique, relayée par le gouvernement fédéral pour imposer l'ordinateur aux plus jeunes enfants, et ce pour des motifs commerciaux.
Ce serait une erreur cependant de considérer que cette association développe des positions purement technophobes. Dans la plupart de ces déclarations elle reconnaît les apports de l'outil informatique lorsque celui-ci est utilisé par les adultes et adolescents, c'est-à-dire des individus dont le développement intellectuel leur permet d'en tirer pleinement profit. Mais, rappellent plusieurs pédiatres, le développement du jeune enfant passe par une confrontation avec le monde réel, par la manipulation d'objets physiques, par l'échange avec des êtres de chair, par une activité physique qu'aucun ordinateur ne remplacera. Cela fait longtemps en effet que l'on sait combien la maîtrise corporelle, qui s'acquiert par le jeu " physique ", est une étape indispensable au développement postérieur des facultés purement intellectuelles.
Finalement, les sommités médicales convoquées pour la circonstances rappellent une évidence : les enfants ont besoin de jouer, de crier, de courir et de se dépenser ; ils ont besoin d'attention, d'affection et d'opposition de la part de leur entourage. L'aurait-on oublié ?
Liens :
2001-02-01 00:00:00
Le dernier salon de l'éducation qui a fermé ses portes le 26 novembre fut cette année résolument placé sous le signe des nouvelles technologies. Le Ministère de l'éducation nationale y a dévoilé ses initiatives pour intégrer durablement l'usage de l'ordinateur à l'école, tandis que certains éditeurs comme Havas Interactive tenaient la vedette avec le cartable électronique ou leurs projets multimédia.
Cette orientation reflète bien les tendances de l'année en matière d' "e-éducation " pour reprendre l'expression officielle, où l'on a pu relever un véritable saut qualitatif dans le domaine des TIC appliquées à l'enseignement ; et au premier chef dans la politique du gouvernement : il ne s'agit plus seulement d'initier tous les enfants à l'informatique, mais d'utiliser celle-ci comme outil pédagogique permettant une transmission plus efficace des savoirs.
Et c'est là que le bât blesse car si les objectifs purement quantitatifs de connexion de tous les établissements scolaires sont en passe d'être réalisés, l'utilisation effective de l'informatique dans les pratiques pédagogiques est loin d'être généralisée. D'abord par un manque évident de formation des personnels - et de ce point de vue, on peut se demander si le ministère ne compte pas sur les nombreux départs à la retraite des années prochaines pour se passer de programmes de formations coûteux à mettre en place. Mais aussi parce que la structure de la relation pédagogique est extrêmement difficile à faire évoluer. Et ce n'est pas l'adresse e-mail fournie " gracieusement " par La Poste à tous les élèves de France qui y changera quelque chose.
Pourtant, il y a manifestement urgence. Car si l'Education Nationale se lance avec autant de précipitation sur le secteur après tant d'années d'apathie, c'est qu'un " marché " de l'éducation est en train de se constituer à grande vitesse, marché que comptent bien dominer les poids lourds américains de l'e-learning. Pour l'instant cantonnée à la formation professionnelle, l'offre privée d'enseignement à distance est en train de s'étendre à l'enseignement supérieur, et pourquoi pas, dans un deuxième temps, à celui des plus jeunes. Autrement dit, l'éducation qui restait jusqu'à présent un sanctuaire de " l'exception culturelle " risque bien dans les prochaines années de connaître un effet mondialisation reposant sur les technologies d'enseignement à distance. Déjà, plusieurs universités américaines des plus prestigieuses proposent des modules de formation et de certification des connaissances.
C'est précisément ce qui fait débat en France où le secteur éducatif est très loin de se considérer comme un marché concurrentiel. Déjà plusieurs enseignants dénoncent l'e-éducation comme une forme de marchandisation des savoirs, en particulier parce que le Ministère sous-traite la réalisation de produits pédagogiques à des éditeurs privés. Derrière une mutation technologique se cache donc bien un débat de société dont les implications sont avant tout politiques : l'école, pilier de la République où sont transmises autant des valeurs que des connaissances est aujourd'hui malade des multiples rôles qu'on lui assigne. Le défi technologique qu'elle doit maintenant relever provoquera peut-être la clarification et le débat dont elle a besoin.
2001-02-01 00:00:00
L'e-learning est à la mode ; en témoignent les initiatives que multiplie le très " branché " ministre français de l'éducation nationale, mais aussi la publication de livres sur le sujet. Petite bibliographie commentée pour qui veut approfondir le sujet :
· Luc-Olivier Pochon et Alex Blanchet (dirs.), L'Ordinateur à l'école, de l'introduction à l'intégration, Neuchâtel, 1997 : cette ouvrage collectif tente de faire le point sur son sujet. Déjà un peu ancien lorsqu'il évoque des expérimentations concrètes, il contient des articles théoriques et méthodologiques très intéressants sur l'innovation des pratiques pédagogiques liées à l'utilisation de l'ordinateur, notamment la contribution d'Eric Bruillard qui développe ici sa conception de l'ordinateur non pas comme simple outil, mais comme instrument modifiant la nature et le fonctionnement de la relation pédagogique.
· Eric Bruillard, Les machines à enseigner, Hermès, 1997 : dans cet ouvrage, Eric Bruillard tente de dresser un panorama des applications de l'informatique à l'enseignement depuis les années 50. Il met au jour la mise en oeuvre de trois types de modèles éducatifs (transmissifs, découvertes et exploratoires), au cours d'une analyse qui s'appuie sur de nombreux exemples concrets et détaillés.
· Michel Alberganti, A l'école des robots ? L'informatique, l'école et vos enfants, Calmann-Lévy, 2000 : journaliste au Monde, Michel Alberganti croit dur comme fer à l'e-learning. Il publie ici un ouvrage très " grand public " qui, mélangeant les récits d'anticipation, les analyses et l'enquête sur les expérimentation existantes, tente de dresser un tableau de l'éducation de demain. Le point de vue n'est pas très objectif, mais c'est au moins plaisant à lire...
D'autres ouvrages :
· Jacques Crinon et Christian Gautellier (dirs.) Apprendre avec le multimédia, où en est-on ?, CEMEA-RETZ pédagogie, 1997
· Comment informatiser l'école?, Gérard Puimatto, Robert Bibeau (dirs.),Publications du Québec, 1996
· Multimédia, enseignement, formation et téléformation, Gérard Puimatto, CNDP, 1995
Liens :
Le site du livre de Michel Alberganti
Une analyse de Apprendre avec le Multimédia
Analyse de Les machines à enseigner
Analyse de L'Ordinateur à l'école
2001-01-04 00:00:00
On le sait depuis longtemps maintenant, quand les marchands investissent un lieu, la police n'est jamais loin. Le cyberespace n'a pas échappé à la règle : c'est pour l'essentiel les attaques conduites contre les grands sites commerciaux américains, entraînant des pertes de plusieurs millions de dollars, puis les craintes des industries du disque et du logiciel à l'égard du piratage qui ont incité les polices à se doter de moyens d'investigation et de répression de ces nouvelles formes de criminalité.
Il faut dire que jusqu'à récemment les services de police
étaient régulièrement distancés par les hackers notamment, ces
derniers ayant l'avantage de la connaissance du terrain par rapport à
des fonctionnaires peu habitués à l'outil informatique. C'est
pourquoi on a vu jusqu'à récemment des hackers repentis embauchés
temporairement par ces services. Il est notoire que le Defcon, une
des rencontres les plus importante de hackers américains sert aussi
de salon de recrutement pour le FBI.
Il est probable qu'on touche aujourd'hui au terme de cette
époque héroïque. De plus en plus, les polices nationales
développent leur propre service, gage de professionnalisation et de
la mise en oeuvre de moyens plus conséquents ; à commencer par les
moyens matériels. Le FBI s'est récemment fait remarquer avec son
programme Carnivore, capable d'intercepter et d'analyser les données
électroniques transitant par les fournisseurs d'accès qui acceptent
de collaborer. Carnivore soulève aux Etats-Unis une intense
polémique, similaire à celle provoquée par le programme Echelon.
Les deux programmes sont très proches dans leur mode de
fonctionnement et posent les mêmes questions, notamment sur la
possibilité de contrôler l'usage qui est fait de ces interceptions.
Pour Echelon, on sait les obstacles opposés par la NSA à tout
contrôle parlementaire, ce qui ne rassure guère les associations de
droits civiques américaines en ce qui concerne Carnivore.
Du côté du Ministère de la Justice américain, on trouve
le Computer Crime and Intellectual Property Section (CCIPS),
constitué d'une vingtaine de juristes spécialisé dans le droit
informatique. Ce bureau a un double rôle d'information et d'appui
technique auprès des autre services du département, mais aussi la
responsabilité des poursuites sur son domaine de compétence.
L'Angleterre et la France parient pour leur part sur les
moyens humains. Ces deux pays ont tous deux créé ces derniers mois
leur propre service dédié à la cyber-criminalité. Jack Straw, le
ministre britannique de l'intérieur vient de créer la "
National Hi-Tech Crime Unit ", forte de 80 personnes avec un
budget de 275 millions de francs. La nouvelle unité pourra appuyer
ses investigations sur la fameuse " Rip Bill ", autorisant
les écoutes gouvernementales sur les correspondances mail. En
France, c'est le tout nouvel Office Central de Lutte contre la
Criminalité liée aux Technologies de l'Information et de la
Communication (OCLCTIC pour faire court...) qui s'y colle. Créé au
sein de la direction centrale de la police judiciaire par le
gouvernement en mai dernier, l'office est placé sous la direction de
Marcel Vigouroux. Il est chargé de mener des enquêtes sur des
crimes et délits informatiques (réprimés par la loi de 1978 "
Informatique et libertés " et de 1988 sur la délinquance
informatique) ou apporter son concours à la répression de crimes "
traditionnels " utilisant des moyens informatiques (la
pédophilie évidemment, mais aussi la criminalité financière ou
encore les cybercasinos). La spécificité française est de s'être
dotée très tôt d'une loi protégeant les individus contre la
collecte informatique de données, avec une autorité - la CNIL -
chargée de la faire respecter. S'il n'y a pas conflit de compétence
entre les deux organismes, il est clair en revanche que l'on risque
de voir s'affronter deux philosophies opposées, comme en témoigne
une récente interview de Marcel Vigouroux dans le magazine
Transfert, traitant les fonctionnaires de la CNIL de "
paranoïaques sécuritaires ".
Beaucoup plus à l'Est, on évoquera la Russie, dont les
services spéciaux ne sont pas sans armes en matière de surveillance
électronique. Le programme SORM a pour objectif officiel de lutter
contre l'évasion fiscale et la criminalité financière en forçant
les fournisseurs d'accès à installer une " boîte noire "
directement reliée par fibre optique au siège du FSB. Le procédé
a au moins l'avantage de la clarté. Mieux encore, les forces de
sécurité prétendent faire payer l'achat et l'installation du
matériel aux fournisseurs d'accès. Plusieurs associations comme
Citizen's watch ou Human Rights Network ont engagé une bataille
juridique devant la Cour Suprême qui a récemment déclaré le
projet anticonstitutionnel.
La boucle ne serait pas bouclée sans le Japon qui s'apprête
à déployer son propre Carnivore, preuve du succès du système
auprès des gouvernements. On pourra évoquer pour finir les
orientations prises par Interpol qui espère pouvoir étendre son
action au crime informatique. La convention préparée par le conseil
de l'Europe sera un atout précieux pour cette cyber-police
internationale.
Liens :
· Un
article de Zdnet sur Interpol
· Deux articles de Digital
Freedom Network sur le projet SORM : 1
et 2
·
L'entretien accordé par Marcel Vigouroux à Transfert
·
Le
site de l'OCLCTIC
· Carnivore
sur le site du FBI
· Le site du CCIPS
2001-01-04 00:00:00
Depuis le début des années 90, la plupart des
pays développés ont manifesté une inquiétude grandissante à
l'égard du crime informatique. L'attaque spectaculaire par des
hackers plus ou moins isolés de sites commerciaux importants n'a
fait qu'accroître cette inquiétude. Très vite, la question d'une
harmonisation des législations nationales sur le sujet est venue
s'insérer dans les débats des institutions internationales, comme
le G-8, l'Union Européenne ou le Conseil de l'Europe : la disparité
entre les pays est en effet particulièrement importante, puisque
nombre d'entre eux n'ont pas adopté de législation spécifique en
ce domaine, tandis que d'autres, comme la France l'ont fait très tôt
(1977 pour la loi " Informatique et libertés ", et 1988
pour la délinquance informatique).
C'est en 1997 que le comité
des Ministres de la justice des 41 Etats membres décide de
constituer un groupe d'experts sur les questions juridiques liées à
la cybercriminalité. Composé entre autres de magistrats spécialisés
délégués par leur pays, le Comité (CP-PY) reçoit pour mandat
d'examiner et d'émettre des recommandations sur ces questions. Plus
précisément, il est chargé de " rédiger un instrument
juridiquement contraignant [...] en insistant particulièrement sur
les questions internationales et, au besoin, des recommandations
annexes sur certains points ". C'est la naissance d'un projet de
Convention dont on débat encore aujourd'hui., alors que le mandat du
Comité devait s'achever fin 99.
Trois ans de travail pour
aboutir à un projet d'une vingtaine de page dont la première
présentation publique eut lieu fin avril. Le document, qui en est
aujourd'hui à sa 24ème version tente de mettre en place des
procédures de coopération judiciaire entre Etats signataires - des
pays non membres comme les Etats-Unis, le Canada, l'Afrique du Sud se
sont associés au projet - pour la répression du crime informatique.
Les domaines couverts sont de trois ordres : tout ce qui
concerne l'intrusion non autorisée dans les systèmes informatiques,
la pornographie infantile, et les crimes liés à la propriété
intellectuelle. Au delà des accords habituels de coopération
judiciaire, les Etats signataires s'engagent à mener des enquêtes
et à mettre en oeuvre des moyens coercitifs sur leur territoire pour
le compte d'une partie requérante, du moment que les infractions
poursuivies tombent sous le coup de la Convention.
Très vite,
et notamment lors de la dernière conférence du G8 à Berlin, il est
apparu que cette convention relevait de la gageure sinon de la
mission impossible dans la mesure où elle interfère avec des
législations nationales très différentes, en ce qui concerne le
respect de la liberté d'expression ou de la vie privée notamment.
Les premières moutures du textes prévoyaient en effet la
possibilité de contraindre les fournisseurs d'accès à conserver
l'intégralité des données transitant par leurs serveurs (les
e-mails par exemple), et non seulement les données de connexion, ou
encore la répression de la simple publication d'un crack (ou d'un
lien vers un crack) sur un site personnel, ce qui relève de la
liberté d'expression selon la constitution américaine.
La
situation s'est encore corsée lorsque la 19ème version du projet
fut publiée ces derniers mois. Cette fois, ce sont les associations
de défense de la vie privée qui se sont mises de la partie : des
organisations comme l'Electronic Frontier Foundation, Privacy
International, l'EPIC, ou IRIS en France, se sont regroupées au sein
de la Global Internet Liberty Campaign pour rédiger une lettre
ouverte destinée à Walter Schwimmer, le secrétaire général du
Conseil de l'Europe. Parallèlement, plusieurs centaines
d'internautes ont bombardé le comité de messages réprobateurs. Du
coup, les rédacteurs du projet ont progressivement fait machine
arrière, jusqu'à la dernière mouture du texte, très en retrait
par rapport aux versions précédentes.
A lire cette dernière
version, on peut se demander si le projet a encore un sens. Nombre
d'articles risquent fort d'être inapplicables tant ils sont
surchargés ; par ailleurs, son impopularité grandissante fait peser
une hypothèque sur sa ratification finale et certains responsables
politiques, tel André Santini et les membres du groupe de travail
sur les technologies de la communication, commencent à hésiter sur
leur attitude à l'égard d'une convention qui ressemble de plus en
plus à une usine à gaz. Liens :
·
La création du Comité d'experts :
http://www.coe.fr/corruption/fpccy.htm
·
Le projet de traité :
http://conventions.coe.int/treaty/FR/projets/projets.htm
·
Plusieurs articles de Transfert et Libération :
·
http://www.transfert.net/fr/cyber_societe/article.cfm?idx_rub=87&idx_art=2529
·
http://www.transfert.net/fr/cyber_societe/article.cfm?idx_rub=87&idx_art=2156
·
http://www.liberation.fr/multi/pirates/20001115merze.html
2001-01-04 00:00:00
Face aux difficultés que pose l'application
des droits nationaux aux contenus diffusés sur un réseau par
principe ouvert et international, commence à germer l'idée de la
mise en place de régulations diverses permettant d'éviter le
recours à la justice pour contrôler la nature de ces contenus.
C'est sous l'égide du CSA que s'est tenu il y a plus d'un an un "
Sommet mondial des régulateurs sur Internet et les nouveaux services
" où fut développée l'idée d'un marquage des contenus selon
leur nature. Car c'est à cela que revient en pratique l'idée si
vague par ailleurs de régulation ou " co-régulation " :
une sorte d'index ou d'enfer numérique auquel seraient condamnés
les sites contrevenant aux bonnes m·urs par un aréopage composé de
" professionnels de la profession ". Outre le fait de
contourner les problèmes que pose le recours à la justice pour
faire disparaître de la toile des contenus illégaux, l'idée de
régulation à l'"avantage " de ne pas s'en tenir à la
stricte légalité pour écarter tout contenu jugé moralement
condamnable, ou choquant. Les hébergeurs joueraient le rôle de bras
armé de la régulation en refusant d'héberger des sites proposant
des contenus contraires à leur déontologie. Si la classification
des sites web existe déjà, ne serait-ce que par l'intermédiaire
des logiciels de filtrage, dont l'efficacité reste d'ailleurs très
limitée et le fonctionnement douteux, la mise en oeuvre et le
développement de ces derniers relèvent d'entreprises privées. Il
reste que plusieurs pays sont plus ou moins avancés dans la mise en
oeuvre d'un principe de régulation. Exemples : L'Australie est le
premier pays à avoir mis en place une classification des sites web
sur le principe des films, sous la responsabilité de l'Australian
Broadcasting Authority. Ainsi tout citoyen peut se plaindre du
contenu d'un site auprès de l'autorité qui choisit ensuite de le
placer ou non sur sa liste noire. Par ailleurs, les fournisseurs
d'accès ne sont pas obligés de filtrer leurs communications mais
sont tenus d'informer leurs utilisateurs de l'existence de filtres
logiciels dont la liste est déterminée par l'autorité. La mise en
oeuvre de cette législation fait actuellement l'objet d'une vive
campagne en Australie, où des organisations comme l'EFF Australia
crient à la censure. En Europe, l'Union Européenne est en train de
développer un programme similaire en étroite liaison avec un projet
privé baptisé INCORE (Internet Content Rating for Europe) basé sur
le même principe et financé par Microsoft entre autres. En France,
l'idée d'un organisme de régulation spécifique à Internet est
devenue plus concrète depuis le rapport du député Christian Paul
qui fut chargé par Lionel Jospin d'en éclairer la possibilité. Le
résultat est le " Forum des droits sur l'Internet ",
chargé d'élaborer des chartes de bonne conduite et d'encourager
l'utilisation de logiciels de filtrage. Le Forum, dont la création
prochaine fut récemment confirmée par Lionel Jospin, aurait le
statut d'association loi de 1901. De son côté, Hervé Bourges qui
espérait bien récupérer Internet dans le giron du CSA apparaît
comme le grand promoteur de l'idée de régulation. Très "
woltonien " dans ses raisonnements, il considère Internet comme
une seconde télévision, l'internaute comme un téléspectateur
passif qu'il faut protéger en lui évitant tout contenu "
offensant ". Impossible de terminer ce passage en revue sans
évoquer la Chine qui vient de rendre publique sa conception de la
régulation : interdiction de publier certaines informations,
identification préalable des contributeurs sur les newsgroups,
autorisations nécessaires à la publication sur le web, interdiction
des pages personnelles diffusant de l'information, censures de toutes
sortes, impossibilité de retransmettre une information provenant
d'une source étrangère sans en référer au Ministère de
l'Information. Liens :
· Plusieurs articles du mini-rezo
contre la régulation
· La
campagne australienne contre la censure
· Le
rapport de Christian Paul
· Un discours d'Hervé
Bourges sur la régulation d'Internet
· Les articles de
Transfert sur la régulation chinoise : 1,
2
et 3
· Le projet INCORE
2001-01-04 00:00:00
" Ca ne va pas, ça ne va pas du tout ".
C'est ainsi qu'on pourrait résumer la position des associations de
défense de la liberté d'expression sur le web, à propos du projet
européen de convention contre la cyber-criminalité.. La lettre
ouverte qu'ils ont publié fait en effet apparaître que plusieurs
articles de ladite convention contreviennent purement et simplement à
la Déclaration universelle des droits de l'homme, ainsi qu'aux
principes constitutionnels de plusieurs pays et de l'Union
européenne. Revue de détails : · Plusieurs articles et notamment
l'article 18 de la convention permettent aux Etats signataires de
contraindre les fournisseurs d'accès à collecter, enregistrer et
communiquer les données transitant par leur serveur, sans plus de
précision sur la nature de ces données. · L'article 6 réprime "
la production, la vente, l'obtention pour utilisation, l'importation,
la diffusion " de " dispositifs illégaux ",
c'est-à-dire permettant une intrusion dans les systèmes
informatiques. Autrement dit, ce n'est plus seulement l'acte
d'intrusion qui est criminel, mais la détention et la publication de
moyens d'intrusion. · Les articles 9 et 11 rendent complices les
fournisseurs de service Internet des contenus qu'ils véhiculent ce
qui entraînerait de leur part un contrôle indu des communications
privées. · Les articles 14 et 15, conduisent à
l'auto-incrimination (obligation pour une personne de fournir des
preuves contre elle-même) en permettant d'enjoindre à quiconque de
fournir des clés de chiffrement ou les moyens d'accès à des
données informatiques. · Plus généralement, les organisations
signataires s'inquiètent du manque de garantie juridique lors des
procédures de coopération entre Etats et de la criminalisation des
infractions au droit sur la propriété intellectuelle. A la lecture
de cette lettre, on voit bien que la convention incriminée pèche
essentiellement par son imprécision et le manque de garantie pour le
respect des droits individuels dans les procédures qu'elle met en
oeuvre. Note : le texte sur lequel se fondent les critiques du GILC
est la version 19 puis la 22bis. La version 24 a été publiée le 21
novembre dernier et n'a pas encore suscité de réaction. Liens :
·
La lettre du GILC :
http://www.iris.sgdg.org/les-iris/lbi/lbi-251000.html
·
Les principales organisations signataires :
· IRIS :
http://www.iris.sgdg.org
·
EFF : http://www.eff.org/
·
EPIC : http://epic.org/
·
Privacy International :
http://www.privacyinternational.org/issues/cybercrime/
·
Le site du GILC : http://www.gilc.org/
·
Le dossier sur le sujet présenté par IRIS :
http://www.iris.sgdg.org/actions/cybercrime
·
Un article de David Banisar sur le site Securityfocus :
http://www.securityfocus.com/templates/article.html?id=98
·
Un article de Wired :
http://www.wired.com/news/politics/0,1283,39519,00.html
2001-01-04 00:00:00
A contrario, une expérience récente prouve
que le recours en justice peut être une arme à double tranchant :
le 16 décembre de l'année dernière, l'UEJF, le MRAP, la LICRA et
la LDH obtiennent devant la cour d'appel de Paris une condamnation de
l'artiste Jean-Louis Costes pour avoir publié des textes racistes
sur un site personnel. Mais ces textes ont été publiés en
septembre 1996, ce qui les soumet en principe à la prescription.
Contre toute attente, la Cour d'appel considère que sur Internet, le
principe de prescription ne peut être appliqué puisque "
l'acte de publication devient continu ". Stupeur devant cet
arrêt qui soustrait les publications électroniques de la protection
de la loi de 1881 sur la liberté de la presse. La loi de 1881
instaure une prescription de trois mois après la publication d'un
texte, ceci afin d'éviter que les organes de presse ne soient
constamment harcelés par des poursuites judiciaires. Le 21 mars de
cette année, la cour de cassation a annulé le pourvoi de l'artiste
contre ce jugement pour le moins surprenant et confirmé
implicitement le principe de la publication continue. Fin de
l'épisode. Il y a quelques semaines, Carl Lang porte plainte contre
le Réseau Voltaire, une association de défense de la liberté
d'expression, pour diffamation à propos d'un article disponible dans
les archives de son site, l'article original datant, lui, de
plusieurs années. Pour soutenir sa plainte, l'avocat du leader
d'extrême droite s'appuie évidemment sur l'arrêt Costes et son
fameux principe de " publication continue ". Cette double
affaire illustre bien les dangers qu'entraîne la volonté
d'instaurer un droit d'exception pour le numérique. Une des
constantes les plus remarquables de la justice française est de
réprimer plus sévèrement les délits lorsqu'ils sont commis sur
des supports numériques. Un discours ambiant sur les " dérives
d'Internet " et les dangers qu'il ferait courir n'en est pas la
moindre raison. Il reste tout de même qu'à vouloir " réprimer
100% des délits ", à défendre " une présomption de
responsabilité de l'hébergeur " comme l'affirme un peu
légèrement Henri Leclerc, président d'honneur de la LDH, on
s'expose à des retours de manivelle pour le moins inquiétants. "
Internet ne doit pas être une zone de non-droit " affirment les
partisans d'une régulation tous azimuts. Certes, mais le droit,
c'est aussi le droit de s'exprimer librement sans craindre d'être
poursuivi à tous propos et à tous moments sur des bases parfois
douteuses. Liens : · Un article d'uZine
sur l'arrêt Costes et l'utilisation qu'en fait le Front National
·
Le compte-rendu
en texte intégral des décisions de justice relatives à cette
affaire
2001-01-04 00:00:00
La France est l'un des premiers pays à s'être
inquiété des dangers que pouvait comporter le traitement
informatisé des données personnelles et à y avoir répondu par
voie législative. C'est la loi "informatique et liberté"
qui contrôle, via un organisme ad hoc, la CNIL, toutes les
opérations de fichage et de collecte des données personnelles qui
peuvent etre faites. Cette loi donne à l'utilisateur un droit
d'information et de rectification sur les donnes collectées à son
propos. Intéressante dans son principe, la loi est difficilement
applicable, notamment auprès de l'administration qui rechigne bien
souvent à donner accès aux informations qu'elle utilise. Cette loi
est donc restée longtemps bien abstraite, bien peu de citoyens ayant
le courage d'entamer les procédures dont la longueur et la
complexité sont justement faites pour maintenir l'opacité. Le
développement d'Internet lui redonne une seconde jeunesse et place
la CNIL au centre de nombres de débats ayant trait notamment à
l'utilisation commerciale de données personnelles collectées via
les cookies et les adresses email. De ce point de vue, le site web de
la CNIL est une référence pour l'information du public sur ces
pratiques commerciales. En janvier 1988 fut votée une loi spécifique
à la répression de la fraude informatique, punissant
d'emprisonnement quiconque s'introduit frauduleusement dans yun
système informatique, pour en modifier les données en particulier,
ou falsifie des données informatiques. La loi "Godfrain"
n'est évidemment pas conçue pour le web, inconnu alors du grand
public, et visait la fraude financière via le piratage des systèmes
électroniques bancaires. Il reste qu'elle constitue aujourd'hui une
arme efficace de lutte contre les pirates, et dote la France d'un
arsenal législatif dont ne disposent pas encore tous les pays. Cest
pourquoi la France se sent relativement peu concernée par la
convention européenne actuellement en discussion, puisque son droit
interne en applique déjà les dispositions essentielles. Troisième
et dernier acte de la législation sur l'informatique, la loi adoptée
l'été dernier sur la liberté de communication, établit clairement
les responsabilités de chacun en matière de publication
électronique. Le besoin d'une législation spécifique s'est fait
sentir lorsque plusieurs affaires ont impliqué la responsabilité
d'hébergeurs de sites personnels dont le contenu était délictueux.
Ce fut notamment le cas pour Altern.org, hébergeur indépendant tenu
par Valentin Lacambre, qui fut condamné pour un site présentant des
photos d'Estelle Halliday. Ce qu'on a appelé depuis l'"amendement
Bloche " précisait que les hébergeurs doivent procéder aux "
diligences appropriées " lorsque un tiers les avertit de la
présence de contenus illicites sur leur serveur. Par ailleurs, ils
doivent conserver leurs données de connexion afin de les transmettre
à un juge le cas échéant. Enfin, les éditeurs de sites web
doivent communiquer au public leur identité lorsqu'ils sont
professionnels, à leur hébergeur lorsqu'il s'agit de particuliers.
On sait que le Conseil Constitutionnel a censuré l'article sur les "
diligences appropriées ", dont la formulation est beaucoup trop
vague et risque de nuire à la liberté d'expression en incitant les
hébergeurs à censurer par avance leurs usagers, par crainte des
poursuites. Mais le gouvernement ne désespère pas de compléter ce
troisième volet dans le cadre de la loi sur la Société de
l'Information qui devrait être présentée devant le parlement au
début de l'année prochaine. C'est en tous cas le sens de la
dernière intervention de Marylise Lebranchu au cours d'un colloque
organisé par la LICRA à la suite de l'affaire Yahoo. De manière
générale, les positions défendues par la Garde des Sceaux sont
relativement " répressives ". Se félicitant du jugement
rendu contre Yahoo, elle indique que le gouvernement " travaille
sur le bien-fondé du rétablissement " de la partie censurée
de l'amendement Bloche " en matière de responsabilité civile,
étant entendu que la censure du Conseil Constitutionnel n'a été
fondée que sur un raisonnement propre au droit pénal ". La
législation française sur les communications électroniques est
actuellement une des plus complète et des plus anciennes parmi les
pays développés. En résumé, elle couvre trois domaines distincts
: la confidentialité des données (loi " informatique et
libertés "), la criminalité informatique (loi " Godfrain
"), les responsabilités en matière de contenu (amendement
Bloche en suspens). L'année prochaine risque d'être fort
mouvementée avec la présentation de la loi sur la société de
l'information qui prétend reprendre et parachever l'oeuvre déjà
faite. Liens :
· Le discours de Marylise
Lebranchu
·
Le projet de loi " Société de l'Information "
·
Le site de la CNIL
· La
loi Godfrain
2001-01-04 00:00:00
Lundi 20 novembre, le juge des référés
Jean-Jacques Gomez a rendu son arrêt dans l'affaire opposant la
LICRA et l'UEJF à la filiale française de l'annuaire Yahoo.
S'appuyant sur le rapport des experts qui précisait que des systèmes
de filtrage pouvaient être mis en place quoique le résultat ne
puisse être garanti à 100%, il a condamné Yahoo à utiliser cette
technique de filtrage sous trois mois. Pour nombre d'observateurs, il
était clair que quelle que soit la décision du juge, celle-ci ne
pouvait avoir que des conséquences préjudiciables : relaxer Yahoo
eût été donner un blanc-seing à toute forme de propagande
extrémiste sur le net, instituer un régime d'exception (les mêmes
opinions étant réprimées sur un support papier mais non sur un
écran d'ordinateur) et enfin étendre les particularités du droit
américain en matière de liberté d'expression à tous les pays.
Condamner au contraire, comme l'a fait le juge, entraîne un ensemble
de conséquences problématiques pour la liberté d'expression. Parmi
toutes les critiques qui se sont fait entendre à la suite du
jugement, il vaut la peine d'en retenir deux : 1. Sur le plan
politique, Robert Ménard, de Reporters sans Frontières, rappelle
que nombre de dissidents politiques utilisent le net comme un moyen
de contourner la censure que font peser les Etats sur la presse
traditionnelle. Le jugement français crée un dangereux précédent
puisqu'il justifie par principe l'imposition d'un filtre national sur
les communications en provenance du réseau. Difficile après cela de
critiquer la Chine qui prétend mettre en oeuvre une telle pratique.
Et ainsi de suite pour tous les pays qui peuvent se prévaloir de
l'application de leur droit national en matière de liberté
d'expression pour fermer leur frontière électronique. C'est la fin
de l'Internet tel que nous le connaissons et le début des intranets
nationaux, coexistants sans interconnection réelle. On se prive par
là d'un des apports les plus intéressants (le seul peut-être) du
développement d'Internet : la libre circulation des idées qui est
un principe démocratique fondateur. 2. Sur le plan juridique,
Sébastien Canevet, professeur de droit spécialisé sur le droit
informatique, a publié dans sa lettre de diffusion du dimanche 26
novembre un argumentaire juridique plutôt intéressant : il rappelle
tout d'abord que Yahoo a été condamné pour exposer des objets
nazis (et non pour les mettre en vente, ce qui n'est pas réprimé
par la loi, et que la consultation de textes nazis n'est pas non plus
répréhensible au regard de la loi. En ce qui concerne la compétence
territoriale du juge, il considère que le raisonnement considérant
que l'infraction a lieu sur le territoire français puisque les
photos peuvent s'afficher sur les écrans français n'est pas faux en
droit, mais difficilement applicable en ce qui concerne Internet.
Selon ce principe en effet, la totalité des sites mondiaux tombe
sous le coup de la loi Toubon puisque leurs pages ne sont pas
traduites en français. Pire encore, rappelle l'universitaire, le
webmaster d'un site de vente en ligne de spiritueux pourrait tout à
fait être arrêté s'il s'avisait de mettre les pieds dans un pays
comme l'Iran puisque son site est en infraction avec la loi
nationale. Finalement, ce que fait ressortir ce genre de raisonnement
par l'absurde, c'est que le droit doit prendre en considération la
nature du public à qui sont destinées les pages web, sous peine de
virer à l'absurdité. Dès lors, la position de la justice à
l'égard du site de vente aux enchères américain, et
essentiellement à destination de ceux-ci, pourrait être fort
différente, sans pour autant renier la spécificité du droit
français. Au total, si le combat des deux associations de lutte
contre le racisme est juste sur le fond - c'est toujours bon de le
rappeler, puisqu'on ne l'a pas beaucoup entendu dans la bouche de
leurs détracteurs les plus virulents - la méthode reste très
critiquable. L'action en justice a eu pour double effet de pointer
l'inadaptation de la loi française et de faire apparaître Yahoo
comme une victime. Il est clair en effet que la justice ne peut pas
résoudre tous les problèmes et que des formes d'action plus
originales, comme l'hacktivisme, et parfaitement adaptées à la
technologie informatique, auraient été plus afficace. Il ne se
passe pas une semaine sans que des militants des droits de l'homme ne
" relookent " à leur manière le site de la Birmanie, de
la Chine, ou d'un autre pays aussi peu démocratique. Les abonnées
mécontents de fournisseurs d'accès indélicats savent parfaitement
à l'occasion exprimer leur mécontentement en produisant des
parodies drôles, méchantes et parfaitement efficaces. Ces moyens
d'action, à la limite de la légalité parfois -mais Yahoo aurait-il
eu l'affront d'intenter un procès à ses détracteurs ? -, visent
juste parce qu'ils s'attaquent à quelque chose d'essentiel dans la
société de l'information : l'apparence. Liens :
· Le
site de Sébastien Canevet
· Le
texte de sa lettre de diffusion
· Le site de Reporters
sans frontières et sa campagne contre " les ennemis
d'Internet "
· Un débat organisé par la Ligue
des Droits de l'homme sur Internet et la liberté d'expression
2001-01-30 00:00:00
De l'uniforme jean-Tshirt au tutoiement généralisé, de la rémunération par stock-options à l'écrasement des hiérarchies, du " newbiz " au " funky business ", la montée en puissance du secteur des nouvelles technologies au sein de l'économie en général a coïncidé avec l'émergence de ce qu'il faut bien appeler un imaginaire social qui a vite pris la force d'un modèle pour la redéfinition des relations de travail au sein de l'entreprise. Car derrière la caricature grotesque des start-up véhiculée par la presse magazine en particulier sur l'air du " une start-up, c'est une bande de copains ", s'est profilé un discours social particulier prétendant renvoyer aux oubliettes de l'histoire le conflit capital / travail, avec la représentation syndicale, la gestion du personnel et la législation du travail. Discours repris avec force et opportunisme d'ailleurs par le MEDEF à l'occasion du débat sur les 35 heures... Pour qui a de la mémoire, le modèle de la nouvelle économie, dont le socle repose pour l'essentiel sur la transformation des salariés en actionnaires, ressemble étrangement au vieux rêve gaulliste de la participation conçu comme dépassement théorique du capitalisme et du collectivisme, et périodiquement réactualisé depuis, sous la forme d'un discours antisyndical : " chez Amazon, nous n'avons pas besoin de syndicats, puisque nos salariés sont des actionnaires ", proclame régulièrement Jeff Bezos. Voire...car le retournement de tendance de ces derniers mois a jeté une lumière crue sur la réalité du capitalisme technologique : les licenciements massifs et instantanés ont révélé que parmi les actionnaires, certains étaient plus égaux que d'autres, ouvrant la voie à une réévaluation globale du secteur des nouvelles technologies comme modèle économique. On a beaucoup parlé des horaires élastiques et de la faiblesse des rémunération nominales, surtout au sein des start-up à proprement parler, dont le modèle se rapproche finalement, et de manière tout à fait banale de celui des PME. On a moins évoqué l'absence de la liberté d'expression, la répression systématique de tout désaccord et de toute revendication organisée parmi les salariés, les manœuvres visant à empêcher la formation de représentation syndicale. Car la désillusion des salariés s'accompagne souvent d'un repli sur des techniques éprouvées. Aux Etats-Unis, des syndicats comme Washtech se sont spécialisés sur les dot com, établissant occasionnellement des alliances inattendues avec les syndicats français qui, à l'instar de SUD, considèrent de plus en plus le secteur des nouvelles technologies comme une terre de mission. Tout indique donc la normalisation du secteur et sa réintégration dans un modèle plus traditionnel de relations salariales avec, en ligne de mire, le dégonflement de la baudruche " post-capitaliste ". Après coup, et lorsque le secteur high-tech ne sera plus qu'un domaine de production parmi d'autres, ni plus ni moins prestigieux que les autres, la période qui vient de se terminer apparaîtra certainement comme celle d'un retour étrange vers une forme post-moderne du paternalisme patronal, ou plutôt, comme un paternalisme réactualisé sous forme de " fraternalisme ", le jeune patron se considérant comme une sorte de grand frère, égal, mais pas tout à fait quand même, à ses employés. A n'en pas douter, le développement fulgurant de la " nouvelle économie " donne à ce début de XXIème siècle l'étrange aspect d'une collision entre une hyper-modernité technologique (le web, les gadgets, les réseaux) et un archaïsme social hérité des débuts du capitalisme (les grandes fortunes personnelles et familiales, l'absence de protection des salariés, la faible rémunération du travail, le paternalisme) : c'est que tandis que les connaissances techniques s'accumulent au cours de l'histoire, l'histoire des sociétés elle, n'est jamais qu'un éternel recommencement.
2001-01-30 00:00:00
Et de trois ! Comme si les ennuis judiciaires de Microsoft ne suffisaient pas, voici qu'un nouveau procès est intenté à la firme de Redmond, cette fois-ci de la part d'ex-employés de la firme, sur la base de discrimination raciale. Cette plainte fut déposée en juin à l'initiative de Rahn D Jakson, un ancien cadre de la firme, et fut complétée ce mois-ci par six autres employés. Leurs accusations reposent sur des allégations selon lesquelles il existerait des freins à la progression des noirs au sein de la hiérarchie. A l'appui de ces accusations, Willie Gary, un des avocats des plaignants a produit un document montrant que si 2.6 % des employés de Microsoft étaient noirs, ils ne représentaient plus que 1.6% au niveau des cadres dirigeants. Deborah Willingham, qui s'occupe de la gestion des ressources humaines au sein de Microsoft, a rejeté l'idée qu'il puisse exister de quelconques discriminations au sein de Microsoft. Il reste malgré tout que cette plainte vient s'ajouter à d'autres plaintes précédemment déposées, notamment pour discrimination sexuelle. L'ironie de l'histoire est que le juge chargé d'examiner l'affaire est Thomas Jackson, qui s'était déjà fait remarquer lors du procès anti-trust intenté contre la firme de Redmond. Au delà des particularités de ce type d'accusations, dont la nature est liée à la législation fédérale protégeant les minorités aux Etats-Unis, la multiplication des plaintes déposées par d'anciens employés témoigne d'un changement d'attitude, ceux-ci étant jusqu'à présent remarquablement fidèles à l'entreprise la plus prestigieuse et une des plus prospères du secteur. Par ailleurs, le syndicat Washtech, qui défend les droits des travailleurs " high-tech " de l'Etat de Washington, accuse Microsoft de constituer des dossier secrets sur ses intérimaires, ce qui est une violation de la législation de l'Etat sur le travail. L'organisation est en train de mener campagne pour que les employés aient accès à leur dossier personnel, comme ils en ont le droit. Déjà l'année dernière, la compagnie avait dû réviser sa politique en matière de recrutement qui se caractérisait par l'emploi d'un nombre important d'"intérimaires permanents ", exclus de fait des avantages maison réservés aux vrais permanents. Liens :
Un article de Zdnetl
Un article de Canoë
La campagne de Washtech sur les dossiers secrets
2001-01-30 00:00:00
Pour quelques success story combien d'emplois précaires, sous-rémunérés, combien de stagiaires et de contrats de qualification ? De manière générale, le secteur high-tech allie surqualification et sous-rémunération. Ceux que l'on qualifie souvent de " soutiers d'Internet ", graphistes, référenceurs, techniciens, intégrateurs, rédacteurs sont rarement payés bien au-delà du SMIC, malgré leur qualification, autour de bac+2 ou 3. Situation quelque peu paradoxale étant donné la renommée dont jouit le secteur tout entier ; mais précisément, il y a fort à parier que si tant de salariés ont accepté jusqu'à présent des conditions de rémunération aussi faibles, c'est qu'une partie de cette rémunération était symbolique. Par ailleurs, l'histoire d'un nombre important de start-up, comme Multimania, plonge ses racines dans l'activité personnelle, non rémunérée. Bien des créateurs d'entreprises ont consacré des heures "gratuites" à lancer leur activité, souvent avec l'aide d'amis. Le caractère informel de ces débuts s'est souvent prolongé au cours de la phase de croissance de l'entreprise, alors même que celle-ci embauchait un personnel parfaitement étranger à la phase de création. Il ne faut pas forcément voir de cynisme dans la manière dont certains dirigeants traitent leurs salariés, mais plus le refus de normaliser une activité qu'ils considèrent encore comme une aventure collective. Autre problème, c'est le secteur tout entier qui est désorganisé en ce qui concerne les relations salariales. Il n'existe pas de convention collective au niveau de la branche et c'est tour à tour celle des SSII, de l'audiovisuel, des intermittents du spectacle ou pas du tout, qui s'applique. Difficile dans ces conditions de s'y retrouver. Et de fait, à lire les petites annonces, il n'est pas rare de voir des rémunérations variant du simple au double pour des mêmes dénominations de postes, des fonctions essentielles devoir être assurées par des stagiaires, voire des statuts improbables comme ce portail sur l'œnologie recherchant un "pigiste stagiaire" (sic). Du coup, en l'absence d'organisation des relations salariales, au niveau du secteur comme au sein de l'entreprise, les revendications et conflits s'expriment de manière parfois anarchique. Ainsi récemment chez Club-Internet, un délégué syndical s'est senti fondé à entamer une grève de la faim pour obtenir des augmentations de salaire. Si beaucoup ont désapprouvé l'utilisation de moyens aussi extrêmes dans la négociation salariale, le gréviste a avancé comme justification qu'une grève classique eût été impossible à mettre en oeuvre étant donné la faiblesse des rémunérations. Plus largement, ce type d'action au même titre que la floraison de sites contestataires comme Ubi Free indique une certaine absence de dialogue social au sein de bien des entreprises. Plus largement, les syndicats ont du mal à s'implanter en leur sein, non pas forcément du fait d'une politique délibérée de la part de l'équipe dirigeante, mais surtout de l'important turn-over qui affecte les salariés. Tout contribue donc à décourager la formulation de revendications précises dans ce secteur : les emplois les plus mal rémunérés sont aussi les plus précaires, et sont occupés par les plus jeunes. Une situation classique finalement, mais ici représentée sous sa forme la plus extrême. Liens :
Les articles du Monde sur le sujet
2001-01-30 00:00:00
Rien ne va plus chez Amazon.com. Depuis plusieurs mois, les employés du plus connu des libraires en ligne se révoltent contre leurs conditions de travail : la litanie des récriminations est bien connue et toujours la même : la multiplication des heures supplémentaires, le non-respect des jours fériés, la précarité de l'emploi, les horaires modifiés en dernière minute. Mais l'affaire devient plus originale lorsqu'on découvre que la direction a mis en place une politique anti-syndicale systématique. C'est d'abord le discours constant du créateur de l'entreprise, Jeff Bezos, et de sa porte-parole, Patty Smith (ce n'est pas la chanteuse rock qui s'est reconvertie), contre la création de syndicats, inutiles et néfastes selon eux dans une entreprise où les employés sont actionnaires. Mais aussi, selon Washtech, la direction d'Amazon a fait expulser en décembre dernier de la cafétéria de Seattle quatre employés qui y exposaient de la littérature syndicale. En novembre, c'est l'existence sur l'intranet de l'entreprise d'un manuel de guérilla contre les syndicats qui fut révélée. Des initiatives qui n'ont pas peu contribué à alourdir l'atmosphère dans l'entreprise. Les salariés américains ont réagi en s'alliant à des organisations qui soutiennent aujourd'hui leur cause : il s'agit de Washtech, déjà évoqué, dont la section " amazonienne " s'est surnommée Day2@Amazon.com, et du Prewitt Organizing Fund. De manière plus étonnante, ils ont entrepris de faire une tournée des filiales européennes d'Amazon, dont la filiale française, située près d'Orléans, où ils ont reçu le soutien de SUD. Evidemment, la direction française ne se sent pas concernée dans la mesure où la législation sur le travail est beaucoup plus stricte. Mais la réaction de SUD qui a procédé à la distribution de tracts sur le lieu de travail est intéressante car elle témoigne de la volonté de la part de l'organisation syndicale d'internationaliser son action : plus qu'ailleurs en effet, les nouvelles technologies permettent la mise en place de délocalisations plus ou moins brutales, comme l'a déjà fait Amazon avec ses centres d'appel. Les salariés français entendent bien répondre à l'internationalisation des capitaux par celle des revendications : nouvelles technologies, vieilles problématiques : etravailleurs de tous les pays... Liens :
Un article de Transfert
Un entretien croisé entre Patrick Morand du POF et Marie-Thérèse Deleplace de SUD
Un article du Monde sur Amazon
Un article du New York Times
Le site de Day2
2001-01-30 00:00:00
Ce jeune graphiste de 29 ans, ex-employé chez l'éditeur de jeux Ubisoft est connu pour avoir été le premier à tenter de créer une représentation syndicale dans une entreprise du secteur des nouvelles technologies...sans succès apparemment. Rien de bien folichon à première vue. Mais le personnage retient l'attention lorsqu'il tente d'élargir son expérience à tout une génération. Le problème quand vous dirigez une entreprise dans ce secteur, c'est que si vous muselez vos salariés au sein de l'entreprise, ceux-ci trouvent très facilement le moyen et les compétences pour s'exprimer ailleurs. C'est ce qu'a fait Jérémie Lefebvre en publiant un site web contestataire intitulé UbiFree fin 1998. Construit sur le thème de l'île aux enfants, une grande référence culturelle pour cette génération, UbiFree dénonce méthodiquement et souvent avec virulence les abus présumés de la part de la direction et les conditions de travail au sein de l'entreprise. Le recours a ce type d'action est déjà utilisé depuis plusieurs années par les salariés américains, avec efficacité dans la mesure où la valeur (boursière et économique) de ces entreprises est souvent plus liée à l'image qu'elles donnent d'elles-mêmes qu'à leur rentabilité immédiate, presque toujours négative. Autrement dit, les dot com ne valent la plupart du temps que l'équivalent du crédit financier et symbolique que leur accordent les investisseurs. Les sites contestataires montés par les salariés viennent brouiller une image patiemment élaborés par les départements de communication, et vitale pour la pérennité de l'entreprise. De la même manière, un site comme Ubisoft vient contrarier le discours social consensuel diffusé par la direction au sein de l'entreprise, qui joue sur la solidarité générationnelle (" les syndicats, c'est un truc de vieux pour les vieux ") et de qualification. Discours informel qui correspond d'ailleurs à une pratique informelle de la gestion du personnel : pas de grille de salaire ni de DRH, pas de représentant du personnel, etc. Avec une certaine intelligence, Jérémie Lefebvre a développé dans son site un discours à mille lieux du traditionnel " travailleurs, travailleuses " qui serait resté totalement inaudible. S'il a avancé des revendications très classiques, c'est en utilisant l'ironie et le pastiche, un " esprit Canal " pour aller vite, partagé par l'ensemble de sa génération ; seul moyen de briser l'individualisme qui y domine et de retourner la solidarité générationnelle manipulée selon ses dires par la direction. Quelques mois après la création du site, Jérémie Lefebvre démissionne et se consacre à l'écriture d'un roman autobiographique paru récemment : La Société de consolation. Il y dresse le portrait d'une " génération ensorcelée " à travers son expérience de deux ans de travail chez Ubisoft. Totalement dépolitisée, encore plus étrangère à la notion de bien commun, cette génération constitue peut-être le rêve capitaliste enfin réalisé : des individus totalement atomisés aussi bien comme consommateurs que producteurs et a priori insensibles à toute forme de solidarité, c'est-à-dire incapables de faire valoir leurs droits en tant que collectivité. Un comble dans une société en réseaux... Liens :
Un portrait de Libération
Deux articles dans Canoë.fr : 1 et 2
Un entretien publié dans Samizdat
2001-02-11 00:00:00
Projet de loi sur la société de l'information, projet de convention européenne contre la cybercriminalité, directive européenne sur le droit d'auteur, décret de taxation des supports numériques... Après plusieurs années d'abstention, les politiques semblent mettre un grand coup de collier pour se mettre dans le bain de la société de l'information et récupérer une partie de la souveraineté qu'ils estiment devoir leur revenir sur le cyberespace. Louable effort au vu des conflits qui s'accumulent et prennent de l'importance à mesure qu'Internet attire un public de plus en plus large. Louable effort dans la mesure où les dernières affaires judiciaires liées à Internet - affaires Costes, Yahoo, Lang, montrent que les juridictions ont bien du mal à établir une jurisprudence cohérente en matière de technologies de l'information. Pourtant, tout indique que le débat est mal engagé puisque l'on voit se constituer des oppositions frontales entre partisans du "tout-répressif", que ce soit en matière d'expression publique ou de protection du droit d'auteur, et défenseurs des libertés, ces derniers se dispersant d'ailleurs entre "extrémistes" hostiles à toute forme de législation, très représentés sur les forums et "modérés" qui acceptent l'idée d'une législation, mais sont très critiques à l'égard des projets existants. Un exemple du dialogue de sourds qui est en train de s'instaurer en France est la directive européenne sur le droit d'auteur, jugée "laxiste" par le Syndicat national de l'édition phonographique, parce qu'elle autorise la reproduction à titre privé, et répressive par d'autres, parce qu'elle autorise la mise en place d'outils logiciels de protection et prohibe la décompilation de ces outils. Autre exemple, la future LSI dont le magazine Transfert a dévoilé la teneur est vertement critiqué par l'association IRIS, mais ne fait par ailleurs que répondre aux inquiétudes de tous ceux qui dénoncent les fameuses "dérives de l'Internet", en matière de diffamation notamment. Au delà des arguments échangés, l'incompréhension grandit entre utilisateurs intensifs des nouvelles technologies et le grand public au nom duquel le législateur prétend agir. Or cette incompréhension mutuelle est fondée sur un fossé culturel qui doit être explicité : Internet a en effet permis l'éclosion d'une culture spécifique qui est issue des conditions historiques dans lesquels il est né, dans les universités américaines en 1969. Cette culture spécifique tient à la fois des idéologies libertaires qui se sont développées dans les années 70, mais aussi de la culture scientifique des premiers acteurs du réseau et de la manière très particulière dont cette culture appréhende la circulation et la divulgation de l'information : le refus du secret et le refus de tout argument d'autorité en sont les règles primordiales. C'est sur la base de cette éthique scientifique vis-à-vis de l'information que va se développer plus tard une culture "nerd" basée sur l'accès au code-source des logiciels, le travail collaboratif tel qu'il s'est développé avec Linux, le refus de toute entrave à la liberté de communication, l'égalitarisme de Usenet, etc. Si les utilisateurs intensifs d'aujourd'hui ne sont plus forcément ni des scientifiques ni des nerds, ils défendent avec âpreté ces principes qui forment la culture du réseau et leur donne, pour certains d'entre eux, pourquoi ne pas l'avouer, le sentiment d'appartenir à une élite. La plus grande partie du public, mais aussi des médias traditionnels, reste fondamentalement étrangère à cette culture et considère Internet comme un média comme un autre, ni plus ni moins qu'une chaîne de télévision interactive. C'est un point à prendre en considération si l'on veut comprendre le succès du discours sur "les dérives d'Internet" et les "pédo-nazis". Hervé Bourges qui aurait bien vu le CSA compétent dans le domaine en est le plus parfait exemple. On est alors dans une logique de diffusion verticale de l'information (ce sont les fameux mass-médias), avec des autorités ou instances qui décident qui peut être informé de quoi, qui peut diffuser quelle information. Si "fracture numérique" il y a, c'est bien là qu'elle se situe, dans l'affrontement entre deux cultures de l'information profondément antithétiques. Or, l'une et l'autre s'expriment aujourd'hui sous la forme de prises de position qui ne sont pas tenables. La culture du " tout libre " n'est plus tenable en tant que telle parce que le réseau a aujourd'hui une audience qui dépasse les cercles scientifiques des premiers temps. Autrement dit, c'est un espace public qui, pas plus qu'aucun autre espace public ne peut se passer de règles. Que le discours sur les pédo-nazis relève souvent de la manipulation et du miroir grossissant est évident. Il n'en reste pas moins que, alors qu'aucune concession n'est accordée à ces activités criminelles dans le monde réel, on ne comprend pas pourquoi elles devraient être tolérées de facto sur le réseau. Que la requête de la Licra et de l'UECJF contre Yahoo soit inadaptée, notamment parce qu'elle ne prend pas en compte la dimension internationale du réseau, c'est entendu. On s'étonnera tout de même qu'il ait fallu attendre l'intervention de ces associations pour que soit mis fin à la vente d'objet nazi sur le portail le plus consulté au monde. Pourquoi les défenseurs de la liberté du net, si prompts à dénoncer par ailleurs les manœuvres de Microsoft ne s'en sont-ils pas émus auparavant ? Par manque de culture historique ou par indifférence ? Il est étrange tout de même que le moindre contrevenant à telle ou telle règle de la netiquette sur n'importe quel newsgroup reçoive des tombereaux d'injures alors qu'un nazi peut tranquillement vendre des insignes de la SS sans susciter l'indignation de la part de la communauté des internautes. Dans cette affaire comme dans d'autres, la netiquette ne suffit manifestement plus à réguler "naturellement" les comportements sur le réseau, tout simplement parce qu'elle est adaptée à une époque où ne s'y trouvaient que des gens de bonne compagnie. Aujourd'hui, on y trouve aussi (et non pas seulement contrairement à ce que croit Philippe Val) des voyous, des salauds, des fous furieux, des gens dangereux, bref un échantillon simplement représentatif de la condition humaine en général, contre les agissement desquels une législation est nécessaire. Prétendre le contraire relève de l'hypocrisie, de l'inconscience ou plus simplement de l'adolescence. De la même manière, en ce qui concerne la protection du droit d'auteur, on ne fera croire à personne que le piratage pur et simple de logiciels ou de disques ne recèle pas quelque malhonnêteté. Il ne s'agit pas d'entrer ici dans le débat sur l'impact économique du piratage. On sait que les études concernant le mp3 sont très contradictoires selon qu'elles ont été financées ou non par l'industrie du disque. Plus encore, on sait que c'est parce qu'ils ont fait l'objet d'un piratage intensif que nombre de logiciels, à commencer par Office de Microsoft, comme le rappelle judicieusement David Coursey dans Zdnet cette semaine, se sont imposés comme des standards. C'est davantage sur le plan des principes que le bât blesse. Les partisans du "libre" s'opposent à toute forme de protection des oeuvres numériques selon le principe de libre circulation de l'information. Mais là encore, peut-on traiter de la même manière une information scientifique et un fichier mp3, une opinion politique et un logiciel ? Peut-être pas et on peut s'étonner que l'"information " soit souvent considérée globalement sur le réseau (c'est sans doute un point de vue de technicien : tout ça, c'est des " paquets ") sans que soit développée la moindre casuistique sur le type d'information que l'on traite. Soyons concrets au risque de choquer : la gratuité, le libre accès, la reproduction sans contrainte d'une oeuvre ou d'une information n'est possible que lorsque la rémunération de l'auteur ne dépend pas directement de la diffusion de cette oeuvre. Que les éditeurs paient mal leurs auteurs est un autre problème qui n'excuse pas le piratage. A contrario, les projets actuels de législation sur Internet font souvent la part belle à la paranoïa et représentent quelquefois, dans leurs excès, une menace pour la liberté d'expression. Sans entrer ici dans le détail de ces mesures, parfaitement analysé ailleurs, on fera simplement remarquer l'essentiel, à savoir la manière dont ces projets sont élaborés : dans l'opacité la plus totale, sans interaction ni collaboration avec la communauté des internautes, qui sont bien les seuls à ne pouvoir exercer d'activité de lobbying contre les intérêts puissants des groupes industriels. C'est ne pas prendre en compte la spécificité du réseau qui, formellement du moins, n'est que la somme de ce que chacun en fait, qu'il soit un simple particulier ou une entreprise au chiffre d'affaire astronomique. Il y a notamment une règle de base que nos gouvernants feraient bien de garder à l'esprit, c'est que chaque acteur du réseau en représente un maillon, formellement aussi important que n'importe quel autre. Autrement dit, il ne peut y avoir d'équivalent Internet du CSA avec des gens pour prendre les décisions à la place des autres, il ne peut y avoir de législation imposée d'en haut par des " responsables " dont la légitimité sur le réseau est nulle. Et ce ne sont pas les vagues procédures de consultation déjà expérimentées et qui fonctionnent comme des enquêtes d'utilité publique (défoulez vous sur les forums, la décision est déjà prise) qui y changeront quelque chose. La démocratie du net est à inventer : d'abord parce que des règles de fonctionnement sont nécessaires, ensuite parce que personne ne peut les définir à la place des internautes eux-mêmes, et ceci sans représentation, sans médiation, sans pondération, en un mot sans hiérarchie, à l'image du réseau lui-même. Le défi est passionnant et demandera de l'imagination. Mais avant d'en arriver là, il demande que chacun retrouve sa bonne foi et accepte ces deux propositions : des lois sont nécessaires, c'est aux citoyens du réseau de les rédiger.
2000-11-15 00:00:00
Le terme fut inventé à propos du roman fondateur de William Gibson, paru en 1984, The Neuromancer. Ce récit de science fiction y décrit un avenir façonné par les technologies numériques (Gibson a inventé le terme " cyberespace ") et très noir, plus ou moins entièrement privatisé, dominé par le complexe de Big Brother, et sous la coupe de gouvernements fascisants. Peu à peu s'est construite autour de cette oeuvre, et d'autres dans la même veine, une culture cyberpunk, faite de contestation d'un ordre jugé répressif, d'une représentation particulièrement pessimiste de la réalité, de pratiques alternatives, notamment sous la forme du hacking. La culture punk appliquée à l'informatique en somme. Mais surtout, la culture cyberpunk a progressivement engendré sa propre mythologie, avec ses références obligées, ses films, sa musique, ses romans, ses clichés. C'est par ce biais qu'elle influence une part notable de la création numérique, et non directement, dans la mesure où une bonne part de l'activité cyberpunk se concentre sur le hacking, plus que la création artistique. Il reste que les frontières ne sont pas toujours bien définies : si certains hackers considèrent leur activité comme une forme d'art, plus sérieusement on peut considérer que la culture cyberpunk est à la source d'un univers visuel que l'on retrouve souvent en partie chez les auteurs du numérique. Plus largement, des magazines (comme Crash, Boing-Bonig), ou plus souvent des webzines comme Nirvanet ou La Spirale en France, se trouvent à la confluence de la création visuelle (design, animations, démos) et du hacking, voire de l'hacktivisme. Le mouvement cyberpunk est un bon exemple des particularités que peut représenter l'art numérique : la confrontation de la création artistique avec un environnement fortement technologique produit un entrelacement de problématiques politiques, sociales et esthétiques : placées sous le signe du futur (d'où la prédominance de la SF), les technologies numériques sont encore largement marquées par l'indétermination, permettant toutes les projections, tous les fantasmes. Parce qu'ils représentent ces technologies en même temps qu'ils les utilisent, les artistes participent activement à définir la perception que nos sociétés ont des technologies qu'elles créent. La culture cyberpunk comme source d'inspiration pour nombre d'entre eux en représente le versant le plus pessimiste. Liens :
2000-11-15 00:00:00
C'est sans doute dans le domaine de l'animation et de la vidéo que l'outil informatique a le plus changé les conditions de la création artistique, et ce, sur deux plans : en multipliant d'abord les possibilité d'interactivité avec le spectateur : projetés sur des écrans d'ordinateur ou des écrans tactiles, les vidéos ou films d'animation requièrent maintenant l'intervention du spectateur dont l'action modifie le déroulement. A la limite de cette logique, on rejoint certains jeux vidéos, parmi lesquels l'Amerzone de Benoît Sokal, dessinateur de bande dessinée (l'inspecteur Canardo en particulier), représente un exemple très réussi. Dans la création plus traditionnelle, des artistes comme Luc Courchesne, auteur d'installations vidéo interactives, proclament que "dans une oeuvre interactive, le public est un des ingrédients de l'œuvre". Les français Couchot, Pret et Tramus ont mis au point dans les années 90 un programme générant des images tridimensionnelles à partir du souffle des spectateurs. D'autres, comme Maurice Benayoun, invitent les spectateurs a modifier par leur action l'environnement de leur exposition. Certains enfin retravaillent les interfaces windows et invitent l'utilisateur a venir se perdre dans le dédale de leur imagination foisonnante. Deuxième révolution, les technologies numériques ont considérablement abaissé les coûts de fabrication et la quantité de travail exigée pour mettre au point une vidéo ou une animation de bonne qualité. Si le tournage d'un film entièrement en numérique restera une pratique exceptionnelle pendant plusieurs années (le premier film numérique a été réalisé cette année par Pitof), le numérique modifie déjà considérablement les pratiques dans la réalisation vidéo. Plus récemment, l'arrivée de la technologie Flash constitue une révolution dans la programmation web, permettant d'intégrer des éléments animés, voire de réaliser de véritables petits court-métrages d'animation et interactifs aisément diffusables sur le net. De nombreux sites, comme Shockwave, présentent désormais des collections de ces courts-métrages, parmi lesquels on trouve de véritables joyaux. De tonalité souvent humoristiques et agressive tout à la fois, ces petites œuvres détournent, parodient souvent avec un malin plaisir les univers visuels du cinéma, de la télévision ou de la publicité. En France, on peut consulter sur le site Underground un des exemples les plus inventifs de la mise en œuvre de ces technologies. Les auteurs du site invitent l'internaute à un voyage dans les méandres de la contre-culture en se promenant dans un univers visuel inspiré du métro. A celui-ci de dévoiler des éléments d'information en cliquant aux endroits appropriés (porte de métro, distributeur de boisson, signal d'alarme, etc...) Dernier exemple des possibilités qu'offrent les techniques de programmation, l'arrivée du VRML permet la construction d'univers en 3D dans lequel les internautes peuvent se promener de manière intuitive. La plupart des applications actuellement existantes en réalité virtuelle sont décevantes et peu créatives. Le projet coopératif Rhizome02 en constitue l'exception. Initié par deux étudiants en architecture, il est constitué de plusieurs mondes regroupés dans un métamonde au sein duquel ils tissent des liens plus ou moins étroits. L'urbanisme digital est à inventer écrivent les auteurs du site, se réclamant de William Gibson pour former le projet de donner un début de réalité, fût-elle virtuelle, au cyberespace que cet auteur de science-fiction a été le premier à nommer. Liens :
Les " repérages de Gizmoland " sur vidéo et interactivité
Une interview de Pitof par le magazine Transfert
2000-11-15 00:00:00
A la fin du mois d'octobre s'est tenue la traditionnelle FIAC, la foire internationale de l'art contemporain. Ce fut l'occasion pour l'artiste Fred Forrest de réaliser une première mondiale : la vente aux enchères d'un site artistique, "couleur-réseau", qui fut adjugé pour 180000 francs. Constitué de dix-sept pages apparemment monochromes, "couleur-réseau" n'est accessible qu'à son seul propriétaire, via un code d'accès. Un beau coup, astucieusement préparé par une campagne marketing ciblée sur le gratin de la nouvelle économie et qui permit à Fred Forest d'obtenir ce qu'il voulait : qu'on parle de lui. Au delà de l'anecdote, il est clair cependant qu'un marché du cyberart est en train de se créer, avec notamment la multiplication des galeries en ligne, où l'on peut acquérir des œuvres multimédia (fonds d'écran, animations, images, lignes de code) en donnant son numéro de carte bleue. Gizmoland.com s'est spécialisé sur ce créneau en offrant un bouquet bien garni de services sur l'art numérique : magazine, lieu permanent d'exposition, le site est conçu de manière très pédagogique, de manière à amener l'internaute vers l'acte d'achat. De manière plus traditionnelle, les musées et institutions culturelles commencent à subventionner et exposer les œuvres numériques. Fondé en 1994, le Walkerart center du musée d'art moderne de Minneapolis fait figure de précurseur en ce domaine. Le site Ada'web qui dépend du centre est un des plus visité dans sa catégorie et fait office de lieu d'exposition permanente. Depuis, nombre d'institutions, européennes et américaines pour la plupart, lui ont emboîté le pas et exposent de plus en plus d'œuvres. En France, l'Etat commence à jouer son rôle de mécène en passant commande auprès des créateurs les plus primés et reconnus. La dernière fête de l'Internet fut l'occasion pour le Ministère de la culture de commander plusieurs œuvres, par exemple l'"économiseur-reposoir d'écran" de Valérie Grancher. L'INA pour sa part, joue un rôle important et surtout dans la continuité en ce qui concerne la mise en œuvre d'une politique publique de soutien à la jeune création numérique. Mais c'est sans doute des circuits commerciaux traditionnels que vient le financement le plus important et le plus méconnu de la création artistique. Nombre de créateurs, pas les plus célèbres sans doute, mais le plus grand nombre à coup sûr, sont avant tout des illustrateurs, graphistes, voire programmeurs professionnels réalisant quotidiennement des sites web pour des entreprises et institutions. Nul besoin d'être grand clerc pour comprendre que sur le web, la mise en forme du contenu compte plus que dans n'importe quel autre media. Si la masse des sites commerciaux reste dans le cadre d'une banalité formatée en matière de présentation de l'information, certains d'entre eux sont de véritables chef-d'œuvres (c'est surtout vrai des sites institutionnels) et font preuve d'originalité. Par ailleurs, l'évolution des techniques multimédia, notamment la technologie Flash qui permet d'animer le contenu des sites web, ouvre des perspectives aux créateurs de sites, qu'ils soient artistiques ou commerciaux, et leur donne de plus en plus les moyens de valoriser leur réalité. Dans le domaine des arts visuels, les interactions entre la création artistique et l'illustration dans le cadre d'une commande ont toujours eu lieu. Le passage au numérique ne change pas fondamentalement la donne, sinon en amplifiant le phénomène. Liens :
Deux articles de Transfert sur la vente de " couleur-réseau " : 1 et 2
2000-11-15 00:00:00
Le mail peut-il être une forme d'art ? Il existe bien des romans épistolaires, factices, certes. Pour ce qui est du mail, certains ont déjà depuis plusieurs années répondu par l'affirmative : c'est ce qu'on appelle le net.art. Des listes de diffusion comme 7-11 sont presque aussi vieilles que le mail lui-même : les abonnés peuvent s'envoyer des messages dont l'intérêt repose autant sur la forme que sur contenu. Une des méthodes les plus anciennes consiste à utiliser les caractères ASCII du message pour dessiner des figures : ce sont des e-calligrammes en quelque sorte. Aujourd'hui, avec les possibilités qu'offrent certains logiciels de messagerie en matière de codage HTML des textes envoyés (ce qui est parfaitement contraire à la netiquette du reste), les messages deviennent de véritables tableaux, de plus en plus animés et sophistiqués. Mais le jeu ne s'arrête pas là, car il existe aussi des générateurs de calligrammes qui mettent en forme automatiquement le texte que l'on souhaite. L'art du "callimail" devient alors accessible sans peine à tous. C'est ce qu'à réalisé Frédéric Madre avec sa liste Palais Tokyo. Dans ce dernier cas, il suffit que les abonnés inscrivent un texte, et la machine se charge de spamer le mail à toutes les listes de diffusion concernant le net.art. Lorsque la liste fut mise en ligne, ce fut évidemment un tollé dans les listes qui se sont vues spamées. Le modérateur de Nettime, une des listes les plus importantes sur le net.art, attaqua violemment Frédéric Madre dans ses messages. L'exercice a récemment atteint son apogée avec les rencontres X-00 de Lorient où Palais Tokyo et Pavu.com se sont livrés à un concours de spam, inondant plusieurs listes de diffusion de plus de 250 messages. Dans l'esprit de Madre, le "spam-art" vise à contester la notion de modération dans les listes de diffusion. C'est la notion de filtrage de l'information, de la légitimité du contrôle que les modérateurs s'attribuent sur elle qui est remis en question. Partisan du foisonnement de la libre expression sur le net, Madre s'intéresse à ceux qui y diffusent des informations triviales, et notamment biographiques, comme il le fait avec son site Pleine-peau, une référence en la matière. On n'est plus très loin des recherches de Philippe Lejeune (qui commence d'ailleurs à s'intéresser au cyberespace) sur les relations qu'entretiennent esthétique et journal intime. Liens :
Palais Tokyo (le moteur est fermé)
interview de Frédéric Madre dans Rhizome.org
Un article de Transfert sur les rencontres de Lorient
2000-10-19 00:00:00
L'ICANN, le " gouvernement d'Internet ", vient de terminer la procédure permettant aux internautes du monde entier d'élire leurs représentants au Board of Directors. Pour la première fois, cet organisme non-gouvernemental qui gère l'attribution de noms de domaines entre autres, se soumettait à la loi de la démocratie et de la transparence...avec quelques ratés. Ainsi, le vote en ligne qui était organisé fut transformé en véritable parcours du combattant pour nombre d'internautes inscrits, une série de défaillances techniques empêchant de valider son vote. Au delà, l'élection de 5 des 19 directeurs de l'ICANN par les internautes a ménagé quelques surprises : pour l'Europe, c'est Andy Müller-Maguhn, porte-parole du Chaos Computer Club qui a été élu, face au candidat français, le très classique Olivier Muron, ingénieur de France Télécom. Cette élection représente bien l'état du débat européen sur l'avenir d'Internet. Dans son programme de campagne, le candidat français développe une vision très technicienne du réseau, dans la continuité du travail effectué jusqu'à présent par l'ICANN. Andy Müller pour sa part, joue les trublions en appelant à une remise en cause des règles de fonctionnement de l'organisme, une plus large démocratisation de la gestion du réseau ainsi qu'à une autonomie plus grande vis-à-vis du gouvernement américain et des intérêts commerciaux. Pour les nouveaux élus, le travail ne manquera pas : l'ICANN est actuellement en pleine phase d'extension des noms de domaines de premier niveau ( Top level Domain ). Aux habituels .com, .org et .net, aujourd'hui engorgés, devraient succéder de nouvelles extensions, adaptés aux différents domaines représentés sur le net. Et déjà, les contestations se multiplient, notamment sur la procédure d'attribution des licences de gestion des TLD, une caution de 50000 $ étant demandée ; ce qui écarte d'emblée les associations d'utilisateurs.
2001-04-01 00:00:00
Publié il y a plus d'un an, l'ouvrage de Luc Boltanski et Eve Chiapello a renouvelé considérablement le débat sur le capitalisme et les modèles critiques qu'on pouvait lui opposer. Les auteurs prennent en effet comme point de départ leur interrogation sur le contraste saisissant qui a marqué ces trente dernières années entre la prospérité du capitalisme d'une part et la dégradation des conditions des salariés, le tout sur fond d'affaiblissement des discours critiques sur le capitalisme. C'est en s'interrogeant sur cet affaiblissement que Boltanski et Chiapello en viennent à distinguer deux types de critique : une critique sociale du capitalisme, dénonçant la misère et l'exploitation, très affaiblie à partir des années 70 mais qui renaît aujourd'hui ponctuellement avec le succès de la " gauche radicale ", et une critique " artiste " qui s'est développée dans la foulée de mai 68, dénonçant plutôt l'aliénation psychologique que font subir les conditions de travail aux salariés, et en même temps les ravages écologiques et culturels de la société de consommation. Le point central de l'ouvrage consiste à démontrer que la critique artiste, qui revenait peu ou prou à dénoncer à la fois le taylorisme à la source du " travail en miette " et le matérialisme consumériste fut récupérée et intégré par les entreprises, sous la forme de mise en œuvre de méthodes managériales nouvelles (fonctionnement par projet, responsabilisation des salariés, écrasement des hiérarchies internes, intéressement aux résultats de l'entreprise) et d'une réorientation des stratégies marketing (développement des dimensions identitaires et culturelles des produits, marketing " éthique ", " écologique ", etc.) sur l'imaginaire et l'immatériel. Il est frappant de constater combien les auteurs français et l'américain Rifkin, partant de points de vue totalement différents, finissent par décrire les mêmes phénomènes dans les deux pays. Mais tandis que Rifkin s'interroge sur la marchandisation de la vie humaine et des relations sociales, Boltanski et Chiapello tentent de montrer que cette évolution est synonyme pour les salariés d'un accroissement considérable de la pression qu'ils subissent dans la mesure où le risque inhérent à toute entreprise commerciale est transféré sur leurs épaules. De ce point de vue, les entreprises de la " nouvelle économie ", a fortiori les start-up dont on a voulu faire un modèle, en représentent l'expression presque caricaturale. Luc Boltanski et Eve Chiapello, Le Nouvel Esprit du capitalisme, Gallimard, 1999, 843 p A lire aussi : La revue Esprit s'interroge dans son numéro de janvier 2000 sur " quelle critique du capitalisme ? ". Cet ouvrage est confronté à ceux de Daniel Cohen (Nos Temps modernes) et Manuel Castells ; on y retrouve de nombreuses contributions élargissant le débat. Le Travail sans qualités de Richard Sennet (chez Albin Michel) défend la même thèse de l'autre côté de l'Atlantique.
2001-04-01 00:00:00
Des trois ouvrages ici examinés, celui du sociologue Manuel Castells est le plus ancien (1996 dans sa version originale), mais il n'en est pas moins pertinent. Il est d'ailleurs devenu une sorte de classique en la matière, point de départ de toute réflexion sur la nouvelle économie. Son objet est de décrire comment la révolution des technologies de l'information a modifié considérablement à partir des années 70 le secteur économique. L'un des points les plus intéressants de son argumentation consiste à montrer que la réorganisation de la production capitaliste à partir des années 70 ne correspond pas seulement à une meilleure utilisation et une plus grande diffusion de l'information, mais à la mise en place de boucles de rétroaction de l'information sur l'information de telle manière que l'information devient un produit économique en tant que tel. Ceci est tout à fait évident quand on cherche à appréhender le mouvement de financiarisation de la vie économique qui voit les marchés financiers acquérir une importance grandissante à la fois dans le destin des entreprises, mais aussi dans la source de leur richesse (puisque nombre d'entre elles gagnent plus d'argent avec leurs investissements financiers que leur métier de base). Comme Boltanski et Chiapello, M. Castells remarque que la réorganisation du capitalisme s'est faite à la suite d'une baisse continue à la fois des gains de productivité et des taux de profit dans les années 70. L'intégration mondiale des marchés financiers, permise à la fois par le développement des technologies informationnelles et par des politiques nationales de dérégulation est un des éléments les plus importants permettant d'expliquer que le capital ait retrouvé une rentabilité qu'il n'avait plus depuis les années 60. En circulant librement et instantanément sur la totalité de la planète, il met en concurrence les économies nationales qui se lancent alors dans une recherche effrénée de compétitivité, notamment en relançant la course à la productivité (où les technologies de l'information jouent aussi leur rôle). Finalement, Manuel Castelles montre bien que les technologies de l'information ont joué un rôle multiforme, à tous les niveaux du cycle de production, dans la mutation du capitalisme mondialisé relançant une machine économique qui avaient tendance à s'essouffler. Se situant dans la continuité jusqu'à un certain point des analyses classiques de Robert Reich et Imanuel Wallerstein, Castells montre que l'émergence de l'"économie mondialisée " n'aurait pas été possible sans la présence de technologies nées, pour l'essentiel dans la Silicon Valley il y a près de trente ans. M. Castells, La Société en réseau, t. 1, Fayard, 1998, 613 p. A lire aussi : Daniel Cohen, Nos Temps modernes, Gallimard, 2000 Robert Reich, L'économie mondialisée, Dunod, 1997 Immanuel Wallerstein, Le système du monde du XVème siècle à nos jours, Flammarion, 1997
2001-04-01 00:00:00
Ce n'est pas une des moindres qualités de l'ouvrage de Jeremy Rifkin que d'être parsemé d'exemples concrets permettant de mieux comprendre les mutations qu'il décrit tout en soutenant l'intérêt de la lecture. Ce qu'il décrit n'est pas un futur de science-fiction, mais existe déjà. Exemples choisis : - L'entreprise Nike, le premier fabricant de chaussures au monde ne possède plus d'usine ni d'entrepôt mais sous-traite intégralement sa production en Asie du sud-est (ce qui lui valut bien des déboires, notamment lorsque le public fut informé des conditions de travail des ouvriers). - 90 % des Jaguars en circulation aux Etats-Unis sont en location, préfigurant le cas de la plupart des véhicules dans le futur, à la fois parce que les consommateurs voudront se débarrasser des frais d'entretien afférents à la possession d'un automobile, mais aussi parce que leur prix d'achat a considérablement augmenté ces dernières années. - Les ensembles résidentiels privés se développent au point de devenir de véritables villes : les promoteurs qui les commercialisent prétendent offrir à leurs clients un mode de vie communataire artificiellement recréé selon leurs désirs. Ces " villes ", espaces privés, échappent totalement aux règles constitutionnelles qui régissent les libertés individuelles dans l'espace public. Ainsi les société qui les gèrent ont-elles le droit d'en interdire l'accès à qui bon leur semble ou d'interdire la distribution de tracts politiques et syndicaux dans ces espaces, en contradiction totale avec le premier amendement. La société Disney est propriétaire d'une de ces villes, baptisée Celebration. - La firme de produits chimiques Monsanto commercialise des semences agricoles dont le capital génétique est breveté. Il est ainsi interdit aux agriculteurs " achetant " ces semences d'utiliser l'année suivante des semences issues des plantes qu'ils ont récoltés. Ils n'achètent pas des semences, mais paient un droit d'accès temporaire à un capital génétique. Afin d'éviter d'intenter des milliers de procès coûteux, Monsanto développe un programme de stérilisation des semences baptisé Terminator : les plantes qui se développent à partir des ces semences sont stériles. A feuilleter : Le tout nouveau magazine Futur(e)s contient des reportages sur plusieurs entreprises "fabless", comme Xemics qui commercialise des micro-processeurs, ainsi que sur Steve Mann, chercheur à l'université de Toronto qui remodèle constamment son champ de vision au moyen de lunettes-écrans.
2001-04-01 00:00:00
Les théories des Rifkin, Castells et Boltanski sont par moment remarquablement convergentes quoique partant de points de vue différents. Il reste que chacun développe une méthode d'approche qui lui est propre, à la source de différences notables, sur trois point notamment : La mutation de capitalisme est-elle synonyme de la mort du capitalisme de marché ? Pour Rifkin, la réponse est positive. L'âge de l'accès, c'est la mort du marché où vendeurs et acheteurs entrent dans une relation commerciale ponctuelle et relativement anonyme. Pour l'économiste américain, nous sommes tous appelés à devenir des abonnés ; des sociétés, d'ailleurs de moins en moins nombreuses du fait des fusions et accords de partenariat gèreront des pans entiers de notre vie quotidienne et de nos expériences. Castells reste quant à lui plus prudent. La mise en réseaux du capitalisme n'est qu'une réorganisation interne qui lui permet de dégager des taux de profits importants. De quand date l'émergence de la nouvelle économie ? Boltanski et Castells sont d'accord pour la situer aux alentours des années 70, en réaction à la crise économique. Castells lui donne une origine nettement technologique : le développement dans de petites entreprises de la Silicon Valley de technologies informatiques efficaces, peu onéreuses et faciles à diffuser sur une large échelle. Pour Boltanski et Chiapello, il s'agit avant tout d'une réorganisation managériale qui s'appuie secondairement sur la technologie. Rifkin pour sa part, attribue à l'industrie hollywoodienne des années 50, l'origine du recours systématique à la sous-traitance. Les studios devaient alors réagir à la concurrence de la télévision en produisant des films plus riches de contenu. Les investissements en terme d'infrastructure devenaient trop important pour une seule société et l'industrie cinématographique se mit à répartir les risques en sous-traitant. Peu à peu elle est devenue un modèle pour d'autres secteurs d'industrie. Quel rôle les technologies de la communication jouent-elles dans cette mutation ? Aucun des trois auteurs ne voit dans l'informatique la cause unique des mutations récentes du capitalisme. Si Manuel Castells lui accorde le plus d'importance, il ne néglige pas pour autant les facteurs sociologiques. Et de fait, la notion de réseau qui est au cœur de ces mutations n'est pas consubstantielle à l'informatique. Il s'agit plutôt d'un schème conceptuel dont le succès présent est le résultat de changements profonds dans les manières de penser : remise en cause de l'autorité, spontanéisme, succès de l'échange d'idées et ouverture des groupes sociaux.. Technologie et organisation économique n'en sont que des expressions particulières.
2001-04-01 00:00:00
Si le capitalisme industriel était centré sur la notion de propriété privée, avec ses corollaires, droit d'exclusivité et d'aliénation, le capitalisme contemporain se fonde sur la notion d'accès et vide la propriété de sa substance. Telle est la thèse développée par l'auteur de deux ouvrages célèbres, La fin du travail et Le siècle biotech, dans son dernier livre. Le paradigme de l'accès lui permet en effet d'expliquer la plupart des phénomènes économiques et sociaux de ces dernières décennies : de la réorganisation des entreprises (externalisation des services puis de la production, downsizing, liquidation des actifs et des stocks, stratégies marketing du freeware), au développement des technologies de l'information (internet, le portable, la multiplication des informations de toutes natures), en passant par l'explosion du tourisme et de manière générale de l'industrie du loisir, l'importance grandissante des marques ou encore l'émergence d'une industrie biotechnologique. Alors qu'à l'âge industriel les rapports marchands s'organisaient sur des marchés autour de la cession de droits de propriété sur des biens matériels, le capitalisme numérique fonctionne en réseau et les échanges marchands commercialisent des droits d'accès à un certain nombre de services, durables dans le temps. L'objectif des entreprises n'est donc plus de vendre un produit définitif à un client qu'il ne reverra jamais, mais de l'abonner à un service qui doit durer le plus longtemps possible. Le consommateur n'est plus un acheteur, mais un abonné à des services multiples : prestation de soins, communications téléphoniques et informatiques, location de biens divers, informations, loisirs, etc. Ce changement de perspective ne concerne pas seulement la grande consommation mais l'organisation même des entreprises qui depuis vingt ans externalisent leurs services internes et se débarrassent de leurs biens matériels et immobilier jusqu'à la limite extrême du " fabless " (sans fabrication) : entrepôts, usines et bureaux sont loués à des entreprises spécialisées, la gestion des données, des salariés et de la production est sous-traitée. En prenant l'exemple de Nike, Rifkin montre que l'entreprise ne fait plus que gérer une marque, c'est-à-dire un pur signe, qu'elle s'est " dématérialisée " dans un contexte économique où elle ne vend plus des chaussures, mais un ensemble de signes culturels (identité, distinction, modèle imaginaire, rêve) dont le produit matériel n'est plus que le support. Que ce soit au niveau de la consommation ou de la production, les agents économiques opèrent par interconnexion au sein de réseaux plus ou moins spécialisés. C'est leur capacité à être et rester connectés qui détermine leur richesse économique, et non plus l'accumulation de capital ou de biens matériels. Liens :
Jérémy Rifkin interrogé par Libération
La Fondation of Economic Trends dont il est président
La biographie de l'auteur
Un autre entretien, avec Transfert
2001-04-01 00:00:00
Combien a-t-il fallu d'années pour que les sciences sociales produisent des analyses pertinentes de l'ère industrielle ? Combien en faudra-t-il avant qu'elles ne nous fournissent des descriptions adéquates de la " nouvelle économie " ? Certainement beaucoup moins. Après plusieurs années de marasme dans la production éditoriale de langue française, plusieurs ouvrages ont été récemment publiés qui permettent de comprendre un peu mieux, sans détestation ni idolâtrie, la nature de la révolution, à la fois technologique et économique qui transforme aujourd'hui le capitalisme. Ce fut d'abord La Société en réseau de Manuel Castells, dont le premier tome, L'ère de l'information, s'attachait surtout à décrire comment les technologies de l'information avaient modifié l'organisation et les méthodes de travail des entreprises. Tout récemment, le sociologue et économiste Jérémie Rifkin, a décrit avec talent le passage qu'est en train d'opérer le capitalisme de l'âge de la propriété à l'âge de l'accès, de l'ère industrielle à l'ère numérique. Mais, comme il le remarque à plusieurs reprises, cette transformation de la nature du capital et du capitalisme n'est pas le seul fait d'une révolution technologique. Elle est aussi une mutation sociologique qui lui a permis de récupérer et convertir en espèces sonnantes et trébuchantes le foisonnement culturel que la génération 68 a produit contre la société de consommation. Autrement dit, la " critique artiste " du capitalisme, de l'homme unidimensionnel et de la marchandisation du monde est aujourd'hui totalement intégrée au système économique, et constitue la ressource naturelle la plus précieuse de l'industrie du rêve ; c'est du moins ce que démontre Le Nouvel esprit du capitalisme, de Luc Boltanski et Eve Chiapello, dont la pertinence est d'autant plus étonnante qu'il ne centre pas son analyse sur la technologie. L'histoire des sciences l'a établi depuis longtemps, une découverte technique n'est pas une révolution tant que les structures sociales, juridiques et mentales ne sont pas prêtes à l'accueillir. Le capitalisme industriel est le résultat de la machine à vapeur mais aussi des enclosures qui ont permis l'émergence de la propriété privée. Commencer à comprendre ce qu'est le capitalisme d'aujourd'hui, c'est considérer à la fois la révolution informatique et numérique, et à la fois l'extension des rapports marchands qui sont passés de la commercialisation des biens matériels à celle de l'imaginaire et des cultures. M. Castells, La Société en réseau, t. 1, Fayard, 1998, 613 p. Luc Boltanski et Eve Chiapello, Le Nouvel Esprit du capitalisme, Gallimard, 1999, 843 p. Jeremy Rifkin, L'âge de l'accès, La Découverte, 2000, 393 p.
2001-02-25 00:00:00
" Forum des droits et des libertés de l'Internet ", tel
est le nom (provisoire) attribué à la future instance de régulation
du réseau français promise par le gouvernement Jospin au
lendemain du rapport remis par Christian Paul en juin dernier.
Depuis
le début de l'année, on en sait un peu plus sur ce qui est appelé
à devenir l'instance française de " corégulation "
d'Internet : à sa tête, Isabelle Falque-Pierrotin,
conseillère d'Etat qui coordonna en 1998 un rapport sur Internet et
les réseaux numériques. Statut juridique : une association loi de
1901. Enfin, le forum n'est pas destiné à devenir une instance de
réglementation à l'instar du CSA. Il s'agira plutôt
d'élaborer des recommandations, d'organiser et susciter la réflexion
sur les pratiques de l'Internet. Pour le reste, le flou règne encore
: on parle d'un collège d'experts internationaux, d'un conseil
d'administration à plusieurs étages, de travail collaboratif. Sa
mission devrait comporter enfin un volet d'information auprès du
grand public et de recension des textes s'appliquant au réseau des
réseaux.
Pourquoi bouder son plaisir ? Ces grandes orientation
sont plutôt alléchantes : on a échappé à un CSA bis, ou
pire, à une annexe du CSA comme certains le souhaitaient. Il est
vrai qu'entre la CNIL et l'ART, il restait peu d'espace pour une
troisième instance de régulation. Mieux, un espace de discussion et
de débat sur les questions de société liées à Internet faisait
jusqu'à présent cruellement défaut en France. Résultat, on a eu
droit à un débat émietté, crispé et pour tout dire pas très
élevé entre libertaires et répressifs, avec à la clé une
jurisprudence bien peu cohérente. Que le vide soit enfin comblé est
donc une bonne nouvelle ; mais...
Mais certains éléments
incitent à la prudence tout de même. Tout d'abord, on peut
s'étonner du calendrier de mise en place de cette instance : quel
sens peut-elle avoir alors que la loi sur la société de
l'information est déjà bien avancée est sera sans doute votée
dans les mois qui viennent ? On voudrait donner l'impression que tout
est déjà joué et que le forum n'est qu'un gadget de plus, on ne
s'y prendrait pas autrement. Par ailleurs, des incertitudes demeurent
quant à la composition du forum et son mode de fonctionnement :
l'association IRIS s'est récemment émue des tendances qui
semblaient se dégager des deux rapports préparant le terrain pour
sa mise en place : celui de 1998, dont Isabelle Falque-Pierrotin
était rapporteur semblait envisager une représentativité des
acteurs proportionnelle à leur contribution financière au
fonctionnement de l'organisme. Emoi dans le Landernau de l'Internet
libre. Celui de 1999, produit par Christian Paul, envisageait
plutôt un mode électif par collèges dont il pointait
lui-même d'ailleurs les problèmes que cela posait en terme
de représentativité. Qui représente quoi ? quelle serait sa
représentativité dans un secteur inégalement organisé et mouvant
? A l'évidence, il s'agit là d'une erreur de méthode : recourir
aux recettes traditionnelles de la démocratie représentative, c'est
ignorer les immenses possibilités du réseau en terme de
participation de chacun au débat. En l'occurrence, le terme de "
forum " qui a été choisi ne doit pas être pris à la
légère : un forum est un espace public où tous les
citoyens débattent des affaires de la cité. Si un forum réel est
inimaginable à l'échelle d'une nation comme la France, rien
n'empêche de l'inventer dans le cyberespace.
Alors
pourquoi ne pas se lancer ? et ne pas adopter la seule méthode
légitime sur le réseau, à savoir la démocratie directe ? Il
suffit de quelques gros serveurs, de beaucoup d'imagination et
d'organisation, mais surtout d'une volonté réelle d'élargir le
débat au plus grand nombre, sans confiscation, sans représentation,
sans hiérarchie. Il n'est pas sûr que cette philosophie
politique ait jamais été très appréciée ni de Christian Paul qui
prévoyait un système en cercles concentriques, ni d'Isabelle
Falque-Pierrotin qui parle de " guichet unique de la régulation
pour l'Internaute ". De quoi parle-t-on exactement ? d'un
guichet ou d'un forum ? Il semble que les implications politiques ne
soient pas exactement les mêmes.
Il reste malgré
tout que rien n'est encore fixé. L'opportunité est donc à saisir
pour les internautes de faire entendre leur voix : c'est à eux seuls
qu'il revient de décider, par leur intervention en amont du projet,
ou leur abstention, si le Forum des droits de l'Internet ne sera
qu'un " guichet " aux mains de l'administration ou un
espace de débat entre netizen.
Liens :
L'association
IRIS s'inquiète du projet
Un
haut fonctionnaire critique le projet sous le pseudonyme de
Clisthène
Le
rapport Christian Paul
Un
portrait d'Isabelle Falque-Pierrotin dans Transfert
2000-11-15 00:00:00
Les nombreuses questions à la fois économiques et politiques liées à l'émergence des nouvelles technologies sont restées remarquablement ignorées par les deux candidats dans leur campagne : à lire le " high-tech plan " de Bush, ou encore les discours prononcés par Al Gore sur le sujet, on se trouve devant un discours consensuel, évitant soigneusement toute de prise de position dans les controverses actuelles sur la protection des données personnelles, la taxation de l'e-commerce, la réduction de la fracture numérique ou les droits de propriété intellectuelle.
Du coup, les commentateurs en sont réduits à des conjectures sur les politiques qui seraient possiblement appliquées selon que l'administration sera démocrate ou républicaine. En fait, l'inflexion politique ne viendra pas directement de la Maison blanche, mais de deux organismes directement impliqués dans la gestion de ces affaires, la Commission fédérale sur le Commerce (FTC) et la Commission fédérale sur les Télécommunications (FCC) qui doivent se trouver un nouveau directeur l'année prochaine, sans compter le ministère de la justice qui joue un rôle non négligeable dans la définition d'une jurisprudence en la matière. Le magazine Wired a récemment établi la liste des grands dossiers sur lesquels l'élection de Georges Bush pourrait entraîner une inflexion de la politique fédérale
1. La politique anti-trust : Même s'il est hautement improbable que l'administration républicaine abandonne les poursuites contre Microsoft, comme Reagan l'a fait pour IBM, Georges Bush a critiqué à demi-mot le procès intenté à la firme de Redmond comme une entrave au dynamisme du secteur tout entier. Il est possible que la prochaine administration soit moins sourcilleuse dans la surveillance des firmes dominantes.
2. La protection des données personnelles : sous la conduite de Robert Pitofsky, l'actuelle FTC a défini une politique de contrôle relativement étroit de l'utilisation que les entreprises d'e-commerce faisaient de leurs fichiers. Il n'est pas sûr que son successeur soit aussi strict, surtout si c'est le libertarien Orson Swindle qui est nommé.
3. Les taxes sur l'e-commerce : actuellement, le commerce électronique inter-états aux Etats-Unis est libre de taxe selon l'Internet Tax Freedom Act de 1998 qui arrive à expiration en 2001. La question de sa prolongation (jusqu'en 2006) commence à être posée. Globalement, le candidat républicain s'est prononcé pour la prolongation ; mais la décision revient au Congrès et l'affaire n'est pas tranchée : les gouverneurs voient dans cette loi, qui leur enlève une partie de leurs ressources un coup de force de Washington contre leur souveraineté. Par ailleurs, le commerce traditionnel soumis aux taxes, crie à l'injustice et à la concurrence déloyale.
Liens :
L'article de Wired
Une article du New York Times sur l'e-commerce
2000-11-15 00:00:00
Les promesses n'engagent que ceux qui les écoutent. Comme il est probable que le 43ème président des Etats-Unis sera républicain, autant prendre connaissance de ses perspectives pour les nouvelles technologies. Sur ce point, la concurrence est rude entre les deux candidats, qui ont reçu l'un et l'autre des financements de la part d'entreprises high-tech. Si Al Gore est connu pour avoir " inventé Internet " selon ses dires, Georges Bush a l'avantage d'être gouverneur d'un état très dynamique dans ce secteur. Il publie sur son site un " high-tech plan " pas révolutionnaire, mais qui permet de dégager une philosophie générale. Revue de détails :
1. Augmentation des quotas d'immigration concernant les travailleurs qualifiés.
2. Mise en place d'un législation empêchant la multiplication des procès sans fondement à l'encontre des entreprises du secteur
3. Augmentation du budget fédéral de Recherche et Développement, notamment dans le secteur militaire (il promet 20 milliards de dollars)
4. Aide aux entreprises biotech, notamment en obtenant l'ouverture des marchés extérieurs aux OGM américains
5. Extension du moratoire sur la taxation de l'e-commerce
6. Réforme du contrôle fédéral sur l'exportation de hautes technologies
7. Extension de l'e-commerce comme zone de libre-échange au niveau mondial
8. Réforme de l'éducation publique et développement de l'enseignement des matières technologiques
9. Réhabilitation des écoles publiques invitées à produire des résultats tangibles (" accountability systems ")
10. Encouragement de l'investissement high-tech par diverses mesures fiscales dt financières.
On sait désormais à quoi s'attendre...
Liens :
Le programme de Gore :
Sur la protection des données personnelles
2000-11-15 00:00:00
L'idée aurait germé au même moment en plusieurs lieux des Etats-Unis : depuis plusieurs jours, les responsables de la campagne démocrate accusaient les partisans du candidat vert Ralph Nader, démocrates pour la plupart, de donner leur voix à Bush en votant pour un candidat qui de toute façon n'aurait aucune chance d'être élu. L'argument ne manquait pas de poids étant donné le faible écart séparant les deux poids lourds dans certains états.
Alors, pourquoi ne pas échanger les voix ? Le mode de scrutin, indirect et par état, y est en effet favorable : il suffit qu'un électeur démocrate habitant un état fortement républicain vote Nader, en échange de quoi un électeur vert pourrait voter Gore dans un état sur la sellette. Au lieu de " gâcher " sa voix puisque de toutes façons son état enverra à coup sûr des représentants républicains, il la transfert dans un état où rien n'est décidé. C'est la stratégie " win-win " : Gore gagne les élections et Nader ses 5% qui lui permettent d'accéder au financement public pour les prochaines présidentielles.
Internet est évidemment l'outil le plus adapté pour organiser sur une grande échelle ce genre d'échange. En quelques semaines, on a vu fleurir une multitude de sites : Nadertrader, winwin200, voteexchange, qui ont rapidement connu un trafic important. L'un d'entre eux a enregistré près de 5000 promesses d'échanges en une semaine. Jamin Raskin, un professeur de droit constitutionnel, fit paraître un article de soutien dans le magazine Slate. Mais le défaut du système est qu'il n'est pas contrôlé : il repose sur l'engagement d'honneur et la confiance. A priori, rien n'empêche un électeur républicain de se connecter et de se faire passer pour un vert.
Enthousiasmante pour certains, l'idée fut très mal vue par les état-majors de campagne. Tandis que le comité démocrate restait dubitatif sur son efficacité, Ralph Nader a toujours condamné ce genre de pratique. Mais la réaction la plus violente vint du secrétaire d'Etat, républicain, de Californie, Bill Jones, qui menaça les sites de poursuites judiciaires sur la base de la loi électorale interdisant à quiconque de percevoir une rémunération ou un avantage en échange de son vote. Panique chez les webmasters dont certains ont fermé leur site, alors qu'il s'agissait avant tout d'une opération d'intimidation : il est clair qu'il s'agit d'une interprétation abusive de la loi électorale, comme le fait remarquer Peter Eliasberg de l'ACLU, une organisation de défense des droits civiques. L'ACLU a d'ailleurs décidé depuis d'attaquer l'Etat de Californie.
Liens :
Les sites d'échange :
http://www.winwincampaign.org/
Les articles de presse
2000-11-15 00:00:00
Que ce soit dans le déroulement de la campagne ou le jour de l'élection même, le web n'aura pas révolutionné les pratiques politiques de la démocratie américaine : sur les sites des candidats, c'est l'éternel tryptique biographie-programme-actions que l'on retrouve. Ceux-ci semblent avoir été conçus comme des brochures électorales, luxueuses, certes, mais pas plus interactives que leur équivalent papier. Et de fait, c'est essentiellement à la télévision que cette campagne s'est déroulée, à travers les débats entre les deux candidats, ou sur le terrain, avec le marathon accompli par l'un et l'autre pour couvrir le maximum d'états. Le dialogue avec les internautes fut réduit au minimum, et dans la plupart des cas ceux-ci étaient d'abord conviés à mettre la main au portefeuille pour soutenir leur candidat favori.
Car plusieurs études ont pu montrer que les visiteurs des sites électoraux étaient pour la plupart des militants convaincus, a priori intéressés par la politique, et venant chercher des informations plus pointues que celles que leur délivrait la presse écrite ou radio-télévisée. Il est clair que l'inscription de la campagne sur le web a peu modifié la donne et n'a pas plus attiré les publics se désintéressant traditionnellement de la vie politique.
De même durant la folle nuit électorale qu'a vécue l'Amérique. Les grandes chaînes de télévision avaient préparé des pages spéciales sur leur site pour que les résultats y apparaissent en temps réel. Et les pics de fréquentation enregistrés montrent bien que c'était la bonne stratégie... apparemment. Apparemment, car les prévisions furent en deça de la réalité, ce qui se traduisit, tôt dans la soirée, par une dégradation incontestable de la qualité du service ; autrement dit, nombre d'internautes ne purent se connecter en raison de l'encombrement du réseau.
On peut légitimement s'interroger sur l'intérêt d'une telle utilisation du réseau dans la mesure où, tout d'abord, il ne fut jamais conçu pour cela, et par ailleurs, il n'est intéressant à utiliser que dans un modèle de communication très différent de celui qui fut mis en place le soir de l'élection. S'il s'agit de diffuser une information ponctuelle au plus grand nombre de destinataires possible, la télévision est bien suffisante pour cela, qui organise un cheminement unilatéral de l'information d'une source unique vers une multitude de récepteurs. A l'opposé, le web, et au delà Internet, permet une multiplication des sources d'information, et une circulation de l'information entre des récepteurs qui sont autant de sources ou de relais potentiels. Internet aurait joué son rôle durant la campagne si de véritables débats spontanés s'y étaient organisés, entre les citoyens, et sans le contrôle des appareils politiques. A quelques exceptions près, ce ne fut pas le cas.
Liens :
Plusieurs instituts de recherche en sciences politiques ont suivi et analysé la campagne sur le web :
Libération a monté un dossier très détaillé sur la " cyber-campagne "
2000-00-00 00:00:00
Vous pouvez, si vous le souhaitez, contribuer au site Homo Numericus en y publiant vos textes, articles ou brèves. Homo-numericus.net est géré par le système dynamique [SPIP->http://www.spip.net] qui vous permet d'obtenir un accès personnel à l'espace auteur du site. Pour cela, il vous suffit dans un premier temps de vous inscrire en indiquant vos noms et adresses e-mail. Vous recevrez alors vos identifants de connexion dans votre boîte à lettre électronique.
Identifiants personnels
Indiquez ici votre nom et votre adresse email. Votre identifiant personnel vous parviendra rapidement, par courrier électronique.
Brèves et articles sont modérés a priori et n'engagent que la responsabilité de leur auteur. SPIP dispose par ailleurs d'un forum interne permettant de discuter d'un article avant publication. En demandant un login, vous pourrez participer à un travail collaboratif d'amélioration des textes, les vôtres et ceux des autres.
2000-00-00 00:00:00
Homo Numericus est un site non commercial, personnel et gratuit -Contacts Le site a pour éditeur principal et directeur de publication Pierre Mounier, à Paris. Le site est hébergé par [Dreamhost->http://www.dreamhost.com] -Droits de reproduction Tous les articles publiés sur Homo Numericus sont la propriété de leur auteur. La reproduction partielle ou intégrale des textes publiés est autorisée dans le cadre défini par la licence qui leur est attachée. -Confidentialité Les données personnelles collectées pour l'accès à l'interface privée ne sont communiquées volontairement à personne, encore moins revendues à une entreprise commerciale. Tout ceci a fait l'objet d'une déclaration à la CNIL dont le numéro d'enregistrement se trouve quelque part. -Crédits La maquette graphique et l'intégration ont été réalisées par Mika et Patrick, du collectif [Sur le toit->http://www.surletoit.com]. Les illustrations photographiques sont la propriété de leur auteur, [Cédric->http://flickr.com/photos/lecedre], qui nous autorise aimablement à en faire usage sur ce site Maquette et illustration ne peuvent faire l'objet d'aucune reproduction Homo-Numericus fonctionne grâce au logiciel [Spip->http://www.spip.net] -Divers Les propos tenus sur les forums sont de la seule responsabilité de leurs auteurs respectifs et ne peuvent en aucun cas engager la responsabilité d'Homo Numericus Pour toute question complémentaire, envoyez un mail à l'adresse suivante contact@homo-numericus.net
2001-05-07 00:00:00
Le 19 avril dernier, le député du Tarn Thierry Carcenac rendait au premier ministre son rapport " pour une administration électronique citoyenne ". Après le rapport Baquiast en 1998, et la mise en route du PAGSI depuis, ce nouveau rapport indique que l'administration française n'échappera sans doute pas au grand chambardement lié aux NTIC. Toute la question est de savoir de quel chambardement il s'agit. Car l'administration n'a pas attendu le tournant du siècle pour s'informatiser bien sûr. Mais il ne s'agit plus seulement aujourd'hui de constituer des bases de données au sein des ministères. Le temps est à l'informatique communicante et à l'administration en réseau, comme le dit si bien le rapport Carcenac. Après les bases de données, la question est donc bien de savoir comment et dans quelles conditions les faire communiquer. D'où une série de questions induites : 1. Comment faire en sorte que la communication entre les diverses administrations mais aussi entre les administrations et les usagers soit la plus aisée possible, ne serait-ce que d'un point de vue technique ? C'est la question de l'interopérabilité. 2. Les droits de l'administré sont-ils protégés lorsque plusieurs administrations se mettent à croiser leurs fichiers dans le cadre d'une mise en réseau ? Cette question, qui n'est pas abordée dans le rapport Carcenac (mais ce n'était pas sa mission), est en principe du ressort de la CNIL. 3. Quel doit être le degré d'ouverture des bases de données, et plus largement des intranet administratifs sur Internet ? D'un point de vue technique, le rapport Carcenac préconise de s'appuyer sur le réseau d'interconnexion AdER existant déjà. 4. Comment la mise en oeuvre des NTIC dans les administrations peut-elle modifier et améliorer le mode de fonctionnement des ces administrations et leurs relations avec les usagers ? On le voit, les questions que soulève l'introduction des NTIC dans l'administration relèvent finalement plus de l'analyse des relations sociales, ne serait-ce que parce ce qu'elles touchent à l'information personnelle et au pouvoir qui lui est associé, que de la technologie pure. De fait, certains pays, comme le Canada, l'Australie ou la Suisse, mais surtout les pays scandinaves, très en avance sur ce point, ont profité de l'évolution technologique pour repenser leur organisation et les services qu'ils offraient. De ce point de vue, les NTIC constituent, comme le montre si bien le rapport Baquiast, un profond défi pour l'administration, et surtout l'occasion de s'interroger sur les fonctions sociales et politiques qu'on veut lui assigner. Voir une version plus complète de l'article
2001-05-21 00:00:00
Internet tel que nous le connaissons est mort. C'est le constat sans appel que dresse le cabinet d'études Forrester dans son dernier rapport sur les grandes tendances qui remodèlent constamment le réseau. En effet, selon Georges Colony, CEO de Forrester, " le problème avec Internet aujourd'hui, c'est qu'il est lourdingue, ennuyeux et isolé ". Ainsi, surfer sur le Web se résumerait peu ou prou à feuilleter de vieux ouvrages dans une bibliothèque poussiéreuse. Au delà de l'effet d'annonce, ce rapport ne fait qu'affirmer clairement ce que tout le monde pressent : si les informations présentées en ligne se contentent d'être un portage de ce qui est disponible à la radio ou dans les journaux - météo, cours de bourse, résultats sportifs, la plupart des gens retourneront à leur media traditionnel une fois l'effet nouveauté du net estompé. D'où un plafonnement du trafic global et de la fréquentation des sites qui se fait déjà sentir. Pour Forrester, le salut ne peut venir que de deux directions, formant le futur " Internet X": Un Internet " exécutable ", c'est-à-dire accédé à travers des interfaces spécifiques téléchargées sur le PC de l'utilisateur. L'Internet du futur ne sera donc plus isolé du reste du monde mais donnera la possibilité d'agir à distance sur le réel. On retrouve évidemment là le fantasme de la domotique dont Microsoft et Cisco nous ont récemment donné des exemples. Il est clair en effet que les technologies permettant la mise en oeuvre du " tout-réseau " sont au point et en passe d'être commercialisées pour le grand public. Reste à savoir si leur disponibilité commerciale sera suffisante pour lever l'obstacle majeur sur lequel bute depuis ses débuts la domotique : les réticences des utilisateurs pour qui l'univers quotidien des objets domestiques est souvent le dernier bastion d'un certain contrôle sur leur vie. On comprend bien le rêve d'une meilleure efficacité -pour ne pas dire productivité, sous-jacent au rêve domotique. Mais c'est là une vision issue de l'environnement économique qui ne prend pas en compte les besoins psychologiques des utilisateurs. L'exemple fourni par Forrester dans son communiqué de presse est flagrant : le " tout-réseau " permettrait par exemple à une entreprise californienne de réduire automatiquement la consommation d'électricité des climatiseurs chez les particuliers lorsque la région atteint un pic de consommation, problème effectivement crucial dans cet état. Tout cela est effectivement très efficace, notamment pour prévenir les coupures brutales de courant dont cette région des Etats-Unis est coutumière. Mais qui souhaiterait installer chez soi un appareil que quelqu'un d'autre, ou une machine, contrôle à distance, indépendamment de sa volonté ? Plus globalement, cette perspective, et la mise en réseau de l'ensemble des objets courants, soudain promis à une communication tous azimuts, soulève un problème généralement écarté de ce genre d'études : comment concilier les habitudes et attitudes fondées sur une coupure radicale entre espace publique et espace privé instaurée par la civilisation européenne en particulier, avec un développement technologique du " réseau " qui ignore magistralement cette coupure ? Plus encore, la notion d'individu, dont l'émergence est historiquement liée à celle de vie privée, implique un contrôle de celui-ci sur sa communication. De ce point de vue, le PC, le PDA, et même le téléphone portable ne heurtent pas nos habitudes parce qu'ils peuvent toujours être éteints. Ce n'est pas le cas du frigo, du climatiseur, du four à micro-ondes, etc. dont nous avons constamment besoin. Il n'est pas sûr que les consommateurs, européens en tous cas, se précipitent sur des objets qui ouvrent en grand les portes de leurs maisons. Un Internet connecté au reste du monde, c'est-à-dire présent dans chacun des appareil électriques qui nous entourent. Exemple à l'appui, Carl Howe, un des auteurs du rapport, imagine qu'on puisse faire ses courses à travers une interface calquée sur le jeu Doom. Au lieu de placer bêtement les articles dans son caddie, on les " shooterait " sur l'écran. On voit bien l'idée, mais il faudrait qu'ils apprennent à choisir leurs exemples chez Forrester. Même pour un fanatique, shooter des yaourts dans les couloirs glauques du célèbre jeu, n'est pas très enthousiasmant. Cette idée pose par ailleurs un certain nombre de problèmes : elle implique en effet l'exécution en résidentiel de lignes de code téléchargées pour un usage unique, ce qui implique une certaine puissance en terme de processeur et de mémoire qui n'autorise pas à se passer du PC. Or, c'est sans doute de là que vient le frein essentiel à l'extension d'Internet dans la vie quotidienne : il faut toujours en passer par une interface matérielle, le bon vieux PC qui fut conçu essentiellement pour un usage bureautique professionnel. Dès lors, l'alternative est simple : ou bien les utilisateurs utilisent un ordinateur dans le cadre de leur travail, et dans ce cas, ils n'ont pas vraiment envie de s' remettre chez eux pour faire leurs courses, ou bien ils n'en côtoient pas dans leur vie professionnelle, et dans ce cas la maîtrise d'un engin qui leur est peu familier est difficile à apprendre. Il est vrai que les tentatives de Web sans PC, par l'intermédiaire de l'écran de télévision par exemple, sont toutes des échecs. Il semble donc qu'avant de se poser la question de l'interface logicielle (qui a tout de même fait des progrès grâce aux technologies Java etFlash), il faudrait tenter de résoudre celle du support matériel. Certains constructeurs s'y sont d'ailleurs atelés avec plus ou moins de bonheur. Et d'ailleurs, les résutats sont sans cesse meilleurs. A titre d'exemple, le Simpad SL4 de Siemens semble une alternative intéressante quoique encore hors de portée de la plupart des budgets. Si cette étude ne donne pas nécessairement les bonnes réponses, elle a le mérite de poser de bonnes questions. Il est clair en effet qu'Internet est en train de se heurter à un seuil : le commerce électronique est en chute libre, le nombre de nouveaux utilisateurs se réduit considérablement, en tous cas aux Etats-Unis. C'est que le Réseau a du mal à se renouveler au delà de la fonction première qui lui a été assignée : l'échange et la diffusion simple d'information et de connaissance. Pour beaucoup d'entre nous, c'est déjà beaucoup. Pour tous ceux qui ne s'intéressent qu'aux résultats sportifs et à la météo, cela n'apporte pas grande chose. Une vérité première qu'il est bon de méditer
2001-03-15 00:00:00
Bernard Benhamou est maître de conférence à Sciences-Po où il organise un enseignement sur les enjeux de l'Internet. Co-responsable de l'exposition "Nouvelle image, nouveaux réseaux" à La Villette en 1997 où il a conçu l'espace "passeport pour le cybermonde", il ne cesse depuis de porter la bonne parole de l'Internet en France. Celui qui fut le premier à introduire les NTIC à l'ENA tente d'initier l'administration française aux joies ineffables de la démocratie numérique. La tâche est rude...Rencontre avec un passionné lucide Les risques inhérents au haut débit Homo Numericus : Récemment, et à plusieurs reprises, vous avez émis des doutes sur les bienfaits supposés du développement du haut débit. Selon vous, ces développements technologiques risquent d'accroître la fracture numérique, et par ailleurs risquent de transformer les internautes en téléspectateurs passifs. Pouvez vous nous expliquer plus concrètement quelles sont vos craintes ? Bernard Benhamou : A l'heure actuelle, les technologies qui sont déployées vers les citoyens (ADSL, câble et le futur UMTS) en plus d'être coûteuses, sont asymétriques, ce qui signifie que la capacité de réception est plusieurs fois supérieure à la capacité d'émission de l'information. Parfois même l'émission peut-être surtaxée, comme dans le cas du câble, ce qui a créé de mauvaises surprises pour les utilisateurs de systèmes de "pair à pair" comme Napster. Ainsi, dans la mise en œuvre du haut débit, au niveau technologique, et pour des raisons liées aux coûts et aux stratégies des opérateurs, la voie descendante est privilégiée . Comme si l'on considérait qu'on a beaucoup plus d'information à apporter (ou à vendre) à l'internaute qu'il n'en a à apporter au réseau. Or, le développement de l'Internet est lié depuis l'origine, à des protocoles qui permettent à chaque individu connecté d'émettre à égalité de droit sur le réseau. Dans l'architecture originelle de l'Internet, il n'y a pas un serveur et des clients. Cette particularité tient au fait que le réseau a été créé par des chercheurs pour des chercheurs. Or cette architecture est aujourd'hui remise en cause par le développement des technologies d'accès rapides, sans même que les protocoles initiaux ne soient remis en cause. Aux Etats-Unis, on commence même à développer des technologies de réception satellitaires de téléchargement pur sans voie de retour . HN : c'est le développement de la " video on demand " BB : ou de la télévision très modérément interactive… Mais plus profondément les stratégies qui sont à l'origine de cette évolution ont pour objectif plus ou moins avoué de revenir à des modèles économiques connus, là où Internet crée des modèles économiques nouveaux et inconnus et qui sont parfois en contradiction avec les modèles économiques existants. C'est ce que décrit Jérémy Rifkin dans L'Age de l'accès : la mise en place de l'expérience de vie tarifée (life time value) ce qui, à mon sens, est en contradiction avec ce qui a créé la véritable émulation autour de l'Internet. Si l'on arrive à ce genre d'architecture, on pourrait stériliser toute une partie de la création liée à Internet et ce serait une erreur aux conséquences lourdes pour notre devenir économique et politique. Les blocages de la superstructure face à Internet HN : Vous incriminez les choix technologiques dans cette évolution. Mais quand on regarde les récentes évolutions de la législation sur Internet ou encore les prises de position des deux derniers présidents du CSA, Hervé Bourges et Dominique Baudis, on se rend compte qu'au sein des élites politiques et administratives, il y a aussi cette idée que l'internaute est une sorte de téléspectateur. BB : A l'issue du Forum des Régulateurs de l'Internet, qui fut organisé par Hervé Bourges justement, le Premier ministre a précisé que l'Internet ne se limite pas à l'audiovisuel et n'est donc pas du ressort du CSA… HN : Oui ; on peut se demander d'ailleurs pourquoi Dominique Baudis revient sur ce point alors qu'il sait que l'affaire est perdue d'avance… BB : Parce qu'en terme de prérogatives pour son institution, l'enjeu est d'importance. Nous n'avons pas la même expérience que nos voisins, notamment américains en matière de régulation. L'expérience du FCC fait rêver tous les régulateurs européens. Son ancien président Reed Hundt développe dans son dernier ouvrage une vision stratégique dont nous sommes encore très loin ; nous en sommes encore à régler des contentieux et des querelles de chapelles au jour le jour. Mais la question que nous devrions nous poser est une question politique et stratégique : quelle est notre vision politique de la société de l'information ? Quelle évolution souhaite-t-on pour l'Internet au coeur de cette société ? HN : Le fait que nous n'arrivions pas à faire émerger ce genre de débat en France ne révèle-t-il pas un blocage des élites politiques et administratives face à Internet ? BB : Il est clair que pour la plupart, les acteurs publics et privés d'ailleurs, manquent de maîtrise et de formation dans le domaine des NTIC. Il y a là un déficit majeur. Bien peu sont ceux qui ont une culture de l'Internet suffisante pour leur permettre de voir au-delà des contentieux immédiats. Je pense qu'on a péché par excès de confiance en espérant un "effet tâche d'huile ". On s'est dit que les Français allaient se connecter à l'Internet, ce qu'ils font d'ailleurs moins que leurs voisins européens, et que du seul fait de leur connexion, ils allaient magiquement comprendre les enjeux de cette technologie. C'est une logique absurde. D'où l'intérêt de développer des enseignements sur les enjeux de l'Internet, tels que ceux que nous avons mis en place à Sciences Po. Cela est aussi valable pour ceux qui occupent déjà des positions de prise de décision. Parce que les décisions cruciales pour l'avenir vont se prendre dans les toutes prochaines années. Or en France, l'Internet est encore l'objet exclusif d'un petit village de techno-initiés. Aussi bien dans l'ensemble des administrations que dans les entreprises, on trouve une demande de formation stratégique qui n'est pas satisfaite. On a pu le constater à maintes reprises et cela à tous les niveaux : il y a des questions fondamentales sur les conséquences sociales, culturelles, politiques de l'Internet qui ne sont jamais abordées parce que les acteurs n'ont pas la maîtrise de ces enjeux. HN : vous pointez du doigt un défaut de formation, de culture technologique. Mais ne s'agit-il pas plus prosaïquement de blocages liés à des enjeux de pouvoir ? du fait que l'Internet remet en question, potentiellement du moins, des positions établies ? BB : C'est la thèse défendue par René Tregouët dans son rapport sur la pyramide du pouvoir et les réseaux de savoir. Il a raison, mais je pense que les problèmes auxquels nous faisons face aujourd'hui sont autres. Les enjeux de pouvoir se définissent sur le long terme. Ce sont des questions internationales et historiques, qui sont liées aux évolutions de l'Etat-nation, telles que peut les poser Manuel Castells . Mais, dans l'immédiat, les questions ne sont pas aussi complexes et subtiles. On est tout simplement face à des personnes, qui n'ayant pas eu d'appétence particulière pour ces domaines, se retrouvent en situation d'inertie, et pas toujours de blocage idéologique. Nous n'en sommes pas au niveau d'une réflexion politique et stratégique. Vous évoquez des enjeux à dix ou vingt ans. Se sont les toutes prochaines années qui m'intéressent. HN : Pourtant, la récente polémique entre Philippe Val et Arno indique bien que la question de la maîtrise de l'information, de qui est autorisé à parler, fait déjà l'objet d'une lutte de pouvoir. BB : Pour moi, ce débat est surtout caractéristique de la démagogie de ceux qui considèrent que tout ce qui est américain est dangereux et nuisible. D'abord, parce qu'Internet n'est maintenant plus américain, l'essentiel des échanges se faisant en dehors du territoire des Etats-Unis. Le vrai risque pour les Européens réside dans le fait que les infrastructures de transports des "telcos" soient massivement "orientées" vers les Etats-Unis. Par ailleurs, je pense que Philippe Val se trompe totalement de cible, en tapant inconsidérément sur les internautes, en disant qu'il faut être nazi ou pédophile pour faire son site personnel. Ce qui est odieux et absurde. Cette position, en plus de son américanophobie exacerbée, revele aussi une crainte et une absence de maîtrise par rapport à ce qui est en train de se produire. Plus généralement, dans le champ des sciences sociales en France, on entend souvent des discours de personnes qui ne maîtrisent pas ces sujets. On peut évoquer évidemment Paul Virilio qui, sans connaître, sans même avoir tenté d'approcher réellement ce dont il parle, prononce de grandes paroles définitives sur le danger majeur de l'interactivité. Je le répète, s'il y a un risque de déterminisme technologique, il est avant tout dans le complexe de l'autruche ; rejeter en bloc, c'est se condamner à subir. Je crois au contraire qu'il faut tenter de maîtriser les évolutions de l'intérieur, comprendre les mécanismes internes des évolutions technologiques et leurs répercussions sur l'économie, la politique, la citoyenneté, pour pouvoir agir et éviter des dérives qui peuvent exister, comme celle de la "clientélisation" à outrance et celle de la " broadcastisation ". Comment réguler l'industrie des NTIC ? BB : Si on ne le fait pas, les choses vont se structurer d'elle-même et pas forcément dans le bon sens. Contrairement à une idée reçue, la constitution de l'Internet existe. Elle n'est pas lisible par le citoyen car elle réside pour l'essentiel dans des protocoles techniques que seule une poignée d'individus maîtrise, mais elle existe. Et si on continue dans une telle opacité, on arrivera à des résultats politiques et sociaux catastrophiques. C'est en tout cas le point de vue que je défends : quelles que soient nos craintes, qui peuvent être fondées, en matière de respect de la vie privée par exemple, il nous faut agir de l'intérieur. Il faut surtout agir en amont : pour l'instant les entreprises du secteur ne sont pas régulées. La seule manière dont le gouvernement américain a pu les contrôler, était en intentant un procès anti-trust contre Microsoft ; c'est-à-dire par une action lourde et a posteriori. Ce que l'on doit essayer de mettre en œuvre au contraire, ce sont des principes selon lesquels on pourrait demander à l'ensemble des acteurs d'inclure certaines préoccupations concernant la protection de la liberté du citoyen, dans le cadre du développement de leurs systèmes et de leurs logiciels. HN : Comment, autrement que par une sanction a posteriori ? BB : Pour trouver des alternatives il faut penser les technologies dans leur ensemble. C'est en particulier ce que propose Lawrence Lessig . Ce constitutionnaliste, professeur de droit à Harvard est en même temps - ce qui est extrêmement rare, un grand connaisseur de l'industrie des technologies. C'est à ce titre qu'il a été recruté par le gouvernement américain dans le cadre du procès contre Microsoft. Dans son ouvrage, Code and other laws of cyberspace, il montre que jusqu'à présent le code -pas le code de loi, mais celui des logiciels, est totalement opaque pour les utilisateurs. Il propose qu'au niveau du code, certaines protections vis-à-vis des droits du citoyen soient incluses, au moment même où le code est écrit . Un peu comme cela se fait dans l'industrie automobile où vous ne pouvez pas faire une automobile comme vous le voulez. Actuellement, vous pouvez faire un logiciel exactement comme vous l'entendez, sans aucun contrôle. Il suffit de mettre une notice " disclaimer " qui vous décharge d'une série de responsabilités. Personne ne lit jamais ces textes, tout simplement parce qu'ils sont trop longs et écrits dans une langue "technico-juridique". L'industrie du logiciel est à ce titre une industrie qui s'autorégule… mal. D'où la nécessité qu'il y ait un consensus démocratique qui nous permette d'imposer en amont à l'industrie du logiciel un certain nombre de règles dans la programmation du code. Les cookies sont un autre exemple intéressant. Au début de leur utilisation, qui savait qu'ils pouvaient constituer une atteinte à la vie privée ? Donc, sur ces questions de la régulation en amont de l'industrie informatique et de télécommunication, il y a un débat démocratique à mener ; et pas seulement sur les enjeux économiques de cette industrie, comme l'UMTS qui est le seul à passionner les foules parce qu'il y est question de milliards d'Euros, mais sur le devenir de l'Internet comme outil social. HN : Comment un tel contrôle se concrétiserait-il ? par une agence indépendante ? BB : Là encore, vous vous situez dans une logique de l'intervention a posteriori. Or, il s'agit avant tout de demander en amont à l'ensemble des développeurs d'inclure un certain nombre de préoccupations dans leur travail, ce qui pourrait par la suite donner lieu à un contrôle. Pour l'instant, le risque est que, faute de débat, faute d'une prise de conscience, une partie des prérogatives publiques dérive de manière invisible vers des autorités industrielles et techniques dont les intérêts ne sont pas superposables aux intérêts publics. Le code informatique, comme Internet d'ailleurs, peut être liberticide ou au contraire protéger les libertés individuelles. Cela dépend de ce que nous en ferons, des décisions qui auront été prises "en amont" de sa création. On le voit tous les jours. La tentative d'Amazon en matière de prix variable suivant les utilisateurs (ou " dynamic pricing ") en est un bon exemple. Il a fallu que des associations de consommateurs s'en émeuvent pour que ce système soit retiré. On ne peut en rester à la logique du "pas vu, pas pris". Ce genre de pratique doit être visible pour donner lieu à un débat. HN : Si l'on vous suit bien, le débat public à propos d'Internet est en décalage par rapport aux enjeux réels. BB : C'est en effet l'un des problèmes auxquels nous sommes confrontés. On a un débat comme on sait très bien les mener à propos des enjeux économiques et industriels, mais pas un débat citoyen. Le seul débat citoyen qui existe sur ces questions se limite à celui sur la démocratie électronique qui n'est pas le débat essentiel. A mon avis les enjeux ne sont pas là. Ils sont bien plus dans la question de l'évolution de l'architecture de l'Internet dans nos sociétés. Quel modèle économique pour Internet ? HN : Il semble qu'Internet contribue à l'émergence d'un espace public d'un genre peu connu en France, c'est-à-dire ouvert, peu hiérarchisé, où chacun est autant producteur que consommateur d'information. Il y a plusieurs questions qui découlent de ce constat : la première est comment le modéliser : comme un marché, comme une assemblée virtuelle, comme une communauté ? BB : C'est étrange de voir le besoin que l'on éprouve de reconstituer pour Internet des distinctions qui existent dans le monde réel. Sur Internet comme dans un espace urbain, on trouve des espaces commerciaux, des espaces citoyens etc. Notre besoin de vouloir saisir Internet comme un objet d'étude en soi, de la définir comme un espace en dehors du réel relève pour moi de la querelle philosophique. Le vrai problème de cette discussion est celui de la coexistence sur Internet de préoccupations non exclusives les unes des autres. Il faut qu'il y ait un pôle public, un pôle citoyen, un pôle marchand sans que l'un de ces pôles ne fasse disparaître les autres. Comment garder un certain équilibre, dans la mesure où les évolutions actuelles portent en elles des risques importants de déséquilibre ? Le vrai problème est donc celui de la viabilité et de la stabilité des modèles économiques sur Internet. Car les modèles actuellement à l'oeuvre ont abouti à un déséquilibre dans la chaîne de valeur entre création et distribution de l'information. A l'heure actuelle, et ce malgré la tourmente boursière, il est plus simple de réclamer de la valeur quand on est Yahoo, AOL ou un opérateur de télécoms plutôt que lorsqu'on est un créateur d'information. Il se trouve que pour l'instant, l'absence de modèle transactionnel pour le contenu a privilégié les agrégateurs, les grands portails et les distributeurs d'informations qui peuvent générer des revenus par la publicité (surtout dans un marché raréfié) en concentrant une part importante du trafic sur leur site, au détriment des créateurs de biens informationnels. HN : Comment expliquez-vous cette évolution, a priori contradictoire avec les principes de création du réseau ? BB : Il y a d'un côté des protocoles mis en œuvre, et de l'autre l'évolution du marché liée à des contraintes économiques et financières. Aujourd'hui, sur Internet, on paie des objets physiques, des livres, des disques, des objets chers, mais l'information en tant que telle ne fait pas l'objet de transaction. Tout simplement parce que les systèmes mis en œuvre pour essayer de rémunérer l'information, les systèmes de micropaiement ou d'abonnement, ont le plus souvent échoué jusqu'à présent. Du coup, on a été contraint à une gratuité forcée qui, pour séduisante qu'elle soit, est un levier puissant pour la concentration des sources d'information et l'agrégation de contenu. Un rééquilibrage devra être fait dans les années à venir entre les agrégateurs, les transporteurs, et les concepteurs de contenu. Sinon, on court un risque majeur d'atteinte à la pluralité d'expression. Et pour l'instant, c'est un débat qui n'intéresse que quelques spécialistes. A mon sens, il est important que les Internautes aient conscience que certains contenus doivent être rémunérés sur Internet. Cela ne concerne pas les données publiques comme le très symbolique Journal Officiel ainsi que l'ensemble des documents nécessaires à l'exercice de la citoyenneté. Il existe désormais une doctrine importante en France sur la gratuité des données publiques. A ce propos, on pourrait évoquer le contre-exemple du "Louvre. edu" qui est un site public, financé sur fonds du Ministère de l'Education Nationale, et dont l'abonnement est payant. C'est totalement choquant, notamment au vu de son intitulé ". edu ", alors qu'il n'y a pratiquement pas de sites " edu " au monde qui ne soient pas gratuits. Certains vont plus loin en prônant la gratuité des données culturelles essentielles. C'est l'idée par exemple que l'ensemble des données nécessaires aux scolaires jusqu'au baccalauréat soient accessibles gratuitement. Mais c'est un projet d'une tout autre étendue. Internet est-il républicain ? HN : dans quelle mesure le développement de l'Internet est-il compatible selon vous avec la tradition politique française plutôt jacobine et centralisatrice ? A priori, il y a une contradiction BB : Contrairement à ce qu'on croit, Internet n'est pas décentralisateur par nature. Ce n'est pas parce que la structure de l'Internet est décentralisée à quelques exceptions près, comme le root server du DNS, qu'il ne peut pas être un facteur de centralisation. L'exemple typique est la société Oracle qui a réorganisé l'ensemble de sa gestion pour économiser plusieurs milliards de dollars. Ils l'ont fait tellement bien que l'ensemble des informations produites par les niveaux intermédiaires de la société sont transmises au sommet où elles sont traitées de manière hyper-centralisée. L'ensemble des missions qui revenaient aux cadres intermédiaires de la société se sont vues vidées de leur intérêt. Cette accélération de la centralisation a été permise par les technologies issues de l'Internet. HN : le contre-exemple en serait Cisco ? BB : C'est ce que dit Chambers en grand communicateur qu'il est. Il faut être prudent : La décentralisation à outrance est une possibilité, mais elle nécessite une volonté politique. Le déterminisme technologique n'est pas entier. Il peut y avoir une centralisation comme une décentralisation, ce n'est pas inscrit dans le code en tant que tel. Internet sera ce que nous en feront. Il n'y a pas d'évolution inscrite inéluctablement dans les principes de l'Internet. HN : Est-ce que la généralisation d'une pratique " citoyenne " de l'Internet que vous souhaitez développer ne présuppose pas l'existence d'une société civile riche et active qui a du mal à exister en France ? BB : Je reconnais l'existence d'une fracture entre saxons et latins. Il y a une tradition culturelle présente dans les pays saxons qui existe moins chez nous. Les différences de culture politique sont-elles à ce point prégnantes qu'elles soient irréductibles ? Je ne le pense pas et je ne ferai pas partie de ces défaitistes qui pense que ces processus sont irréversibles. Les mécanismes culturels mettent infiniment plus de temps que les mécanismes technologiques à se mettre en œuvre. Mais sur le fond, les choses sont plus complexes qu'elles n'apparaissent de prime abord. Par exemple, au départ, Internet apparaissait à beaucoup comme un outil libertaire. Il s'est trouvé ces dernières années que même les utilisateurs les plus libertaires aux Etats-Unis ont été obligés de faire un pas vers notre vision des choses, vers notre vision "cnilienne". Par exemple, le débat sur la protection des données personnelles qui était totalement absent aux Etats-Unis finit par émerger dans ce pays. Les associations de consommateurs ont fini par dire que les Européens n'avaient peut-être pas tort sur ces questions. On pouvait imaginer que lors des négociations sur ces données personnelles entre Etats-Unis et Europe les Américains ne transigeraient pas… et ils ont transigé, ne serait-ce que pour ne pas s'aliéner le marché européen. Mais plus largement, les associations américaines de défense des consommateurs développent un discours qui nous conforte, nous Européens. Les Américains se rendent compte de la nécessité d'une régulation publique. Ils se rendent compte que l'Internet des débuts, organisé autour de chercheurs et de pôles non-marchands, n'est pas le même que celui qu'il est devenu ; et qu'à ce titre la régulation publique est plus nécessaire qu'auparavant. Sur ce point nous -Européens- avons des valeurs à défendre sur l'Internet. Les chantiers gouvernementaux : Loi sur la Société de l'Information et Forum des Droits de l'Internet HN : Alors justement, évoquons précisément les modalités de l'intervention publique dans le domaine. En France, il y a deux chantiers en cours : d'un côté la Loi sur la Société de l'Information, et de l'autre, la mise en place du Forum des Droits de l'Internet. BB : Pour ce qui est de la LSI, cette loi est surtout l'occasion, de l'aveu même de ses promoteurs, que le débat puisse exister à l'assemblée, ce qui peut être une finalité en soi. Il faut souhaiter qu'il y ait une prise en main plus en profondeur de ces questions par le politique. Sur ce point, j'ai pour l'instant quelques doutes. Contrairement aux débats sur les lois de bioéthique par exemple, qui concernaient des choix philosophiques, plus accessibles, ici au contraire, ce sont des choix qui sont à la fois techniques et sociologiques, et l'on sait très bien qu'il n'y a qu'une frange infime des politiques qui se soit vraiment formée sur ces questions. L'impact du débat sur la classe politique risque donc d'être modéré ; toujours parce qu'on a compté sur l'effet tâche d'huile, sur la mise en place des systèmes, et beaucoup moins sur l'accompagnement des personnes. Sur le fond, je crois donc qu'il faut, comme on a pu le faire pour le projet de loi sur la signature électronique, élargir le cercle des personnes qui sont amenées à discuter de ces questions, car pour l'instant, il est terriblement restreint. Pour le reste, il faut prendre garde à ne pas faire de procès d'intention sur un texte qui n'est pas définitif. HN : est-ce qu 'on n'est pas d'autant plus tenté par le procès d'intention que ce texte est préparé dans une relative opacité ? BB : Pourquoi est-ce opaque ? Parce que ce n'est pas un sujet politique ou électoral. Ce genre de question ne deviendra l'objet de débat que lorsqu'elle revêtira un aspect immédiatement "politique". Faire savoir aux citoyens français l'intérêt d'une position européenne commune sur les données personnelles dans les négociations internationales sur ce sujet relève encore du tour de force. Et cela en partie parce qu'il n'y a pas de "portage" politique du débat. Alors qu'en Angleterre, en Allemagne ou Etats-Unis des débats politiques sur ces sujets ont lieu au plus haut niveau, ce n'est pas encore un sujet assez sensible pour qu'il en soit de même en France. A ce titre, et sans jugement politique, le départ de Dominique Strauss-Kahn a été une perte pour l'action du gouvernement dans ces domaines, car il était l'un des rares politiques français à avoir un goût pour ce dossier. HN : La mise en place du Forum des Droits de l'Internet est censée répondre à cette nécessité d'une sensibilisation de l'opinion publique. BB : C'est un dossier qui a été en gestation longtemps, peut-être trop longtemps : il intervient après une année où ont eu à être traités des dossiers chauds comme Yahoo. Ce procès a été l'occasion de mettre en place des pratiques innovantes en matière de jugement avec le recours à un collège d'experts ; avec des résultats un peu ambigus d'ailleurs. L'une des missions qui me semble essentielle pour ce Forum, c'est la mission de sensibilisation de l'opinion publique par rapport à ces sujets. Il ne faudrait pas qu'il apparaisse uniquement comme une instance de régulation. Il faut en faire un outil de sensibilisation du public, ce qui serait en soi est une chose positive. Plus profondément, la légitimité de cette institution sera fortement liée aux échanges qui pourront être mis en œuvre dans son mode de travail, avec une ouverture internationale et une collaboration de l'ensemble des acteurs. Pour ma part, je crois profondément à la nécessité d'intégrer la réflexion des pays étrangers sur ces sujets, car à l'évidence, ces sujets sont de nature internationale ; ils feront l'objet de nombreuses négociations internationales dans les années qui viennent. Les malheurs de l'ICANN HN : Vous avez récemment participé en tant que candidat à l'élection des nouveaux directeurs de l'ICANN. Les conditions dans lesquelles se sont déroulées ces élections ont été vivement contestées et depuis, l'ICANN est au centre de nouvelles polémiques, en ce qui concerne l'attribution de nouveaux TLD notamment. Ces récents développements posent le problème de la légitimité non seulement de l'ICANN, mais aussi plus généralement de la notion de représentation au niveau des organismes de régulation du réseau. BB : L'ICANN a cherché à établir une légitimité par l'élection de certains de ses directeurs au suffrage universel des internautes. Cela a posé quelques problèmes, cela a été contesté et a donné lieu à des disparités très importantes, ne serait-ce qu'entre la France et l'Allemagne pour ce qui est de l'Europe. La légitimité est un Graal, une recherche permanente, nécessaire parce que l'on ne peut rester dans le champ clos de la discussion entre telle ou telle corporation, tel ou tel groupe. Il faudra forcément en arriver à la participation des internautes dans les instances de décision, ne serait-ce que parce que l'Internet est un espace public, propriété collective de l'ensemble des citoyens/internautes. HN : cet échec relatif ne condamne-t-il pas dès lors la procédure élective comme mode de fonctionnement politique appliquée à Internet ? Pour qu'une élection et des représentants élus soient légitimes, il faut au minimum qu'il y ait un corps électoral constitué, ce qui est impossible sur le réseau. BB : Il ne faut pas abandonner parce que la première tentative a échoué. Il est clair qu'il y a un problème quant au processus même de déroulement de ce type d'élection. Mais le vrai enjeu de cette discussion est de savoir si l'on doit se diriger vers un "gouvernement mondial de l'Internet" quelle que soit sa forme. HN : la seule possibilité d'une évolution de ce type concernant l'ICANN a provoqué des levées de boucliers dans les milieux associatifs et universitaires qui s'expriment sur des sites comme Icannwatch ou Icannot.
BB : L'ICANN a connu une histoire troublée. Sur le fond, la tentative " démocratique " qui consistait à organiser des élections, ce qui était d'ailleurs inscrit dans les bylaws de l'ICANN, était une bonne chose. Cela s'est mal déroulé, c'est clair, et ce dysfonctionnement fut renforcé par le cybersquatting des anciens directeurs, qui n'ont pas voulu démissionner et laisser la place aux nouveaux élus. Tout cela au moment où avaient lieu les prises de décision sur les nouveaux suffixes, décisions qui ont donné lieu à des actions contentieuses lourdes et à des remontrances du Congrès américain. A ce propos, on oublie trop souvent que l'ICANN est adossée au Département du Commerce américain dans la gestion des noms de domaine. Cette relation n'a pas été remise en question, elle a même été reconduite l'année dernière. Cette " haute main " du Département du Commerce sur la gestion de l'Internet pose un vrai problème qui a été soulevé de nombreuses fois par la Commission européenne . HN : Le déficit de légitimité de l'ICANN porte en lui des menaces d'éclatement de l'Internet, y compris sur le système de noms de domaines comme des initiatives récentes l'ont montré. BB : C'est 'un problème lié à la structure centralisée du DNS, mais il existe aussi des risques de fragmentation par divergence politico-économique, ou encore technologique. Ainsi, à titre d'exemple on peut citer le développement du langage XML qui, en professionnalisant l'élaboration des sites risque de marginaliser les sites personnels. La mise en place d' IPv6 avec ses possibilités de discrimination des flux, est aussi porteuse de risques. C'est pourquoi, l'ensemble des organismes régulateurs du réseau, que ce soit l'ICANN, le W3C ou l'IETF ont une responsabilité immense ; et ils s'en rendent compte. Lorsque le FBI a demandé à l'IETF de pouvoir écouter l'ensemble des communications passant sur le territoire des Etats-Unis, ils ont refusé, ce qui était déjà une prise de position politique importante qui sortait du pur cadre technique. Ce genre de problèmes montre qu'à terme, il faudra une structure internationale d'une forme nouvelle qui regroupera ces organismes. Nous ne savons pas encore par quel moyen et si elle devra être placée sous la tutelle des Nations Unies ou non, mais il est clair qu'à terme il faudra la créer. Voir une version avec liens de cet entretien
2001-08-27 21:46:58
Cela s'appelle Spip, Système de Publication pour Internet, et c'est tout simplement l'invention de l'été pour le web. On connaissait déjà PHPNuke, invention assz étonnante elle aussi, permettant à des webmasters indépendants d'installer et de gérer un site dynamique disposant des mêmes fonctionnalités que les sites professionnels. Mais si PHPnuke est pratique d'utilisation, malgré quelques difficultés d'installation, ce système a le défaut de ne permettre qu'une personnalisation relativement limitée : malgré le grand nombre de thèmes disponibles, les sites sous Nuke se ressemblent à peu près tous. Rien de tel avec Spip, qui permet de personnaliser complètement l'apparence des pages publiées, comme en témoigne la présentation actuelle d'Homo Numericus, reflet fidèle du site statique utilisé jusqu'ici. Et les avantages ne sont pas négligeables : pour l'auteur, une procédure de publication entièrement automatisée permettant de faire le travail de mise en page une fois pour toutes afin de se consacrer ensuite à l'écriture pure et simple. Pour les lecteurs, Spip permet toute l'interactivité que l'on est en droit d'attendre d'un site dynamique : forums et système de gestion d'auteurs pour les publications.Mieux, Spip met en place un forum interne permettant aux auteurs de discuter et améliorer leurs articles avant publication. Spip, distribué sous licence GPL utilise deux autres outils du monde (du )libre : PHP et Mysql. Les inventeurs d'un système aussi performant ne sont autres qu'Arno et Antoine du minirezo. Derrière leur initiative, c'est toute la philosophie du site uZine en matière de web indépendant que l'on retrouve évidemment. La preuve, la fonction de syndication intégrée à Spip et qui permet aux webmasters des différents sites utilisant ce système de mettre en commun leurs nouvelles. Spip, c'est donc tout simplement le système qui permet de réconcilier le fond et la forme et permettra dans les mois à venir de donner aux publications indépendantes l'importance qui leur revient sur le web. En attendant, voici déjà une petite sélection personnelle de sites tournant sous Spi(p). Ces sites ont été choisis essentiellement pour leur inventivité graphique et leur intérêt rédactionnel :
Sans oublier uZine2 A n'en pas douter, le vent souffle dans les voiles du libre.
2000-11-15 00:00:00
La première élection en ligne eut lieu, paraît-il, en Allemagne, plus précisément à l'Université d'Osnabrück, à l'occasion de la nomination des délégués étudiants au conseil de l'université. Depuis, deux expériences importantes eurent lieu, en Arizona d'abord, pour les primaires démocrates, en France ensuite, lors du dernier référendum sur le quinquennat. Dans ce dernier cas, les votes ne furent d'ailleurs pas validés par le ministère de l'intérieur. Lors des présidentielles américaines, une expérience fut tentée à l'égard de deux cents militaires expatriés qui purent voter sur une ligne sécurisée. Que ne l'eût-on organisé pour les expatriés de Floride ! Au delà de l'anecdote, plusieurs pays semblent prêts à se jeter à l'eau pour les prochaines échéances : la Belgique, les Pays-bas, le Brésil.
Si dans ce dernier cas, l'intérêt du vote en ligne semble évident, en raison notamment de l'immensité de son territoire, avec des zones très isolées, on peut se poser la question de l'utilité du vote en ligne dans les autre pays. L'argument le plus souvent avancé est qu'il inciterait les plus jeunes générations, fortement dépolitisées, à prendre part à la vie publique. C'est sans espoir, si ce nouveau mode d'élection en reste au niveau du gadget électronique ; et c'est sans doute méconnaître la nature et la profondeur de la crise politique que d'escompter le résoudre par un clic de souris. Par ailleurs, il est connu que les plus forts taux d'abstention se rencontrent dans les classes les plus défavorisées de la société, celles précisément qui sont de l'autre côté du fossé numérique.
Les problèmes que soulève la mise en place du vote à distance sont en revanche fort nombreux : banalisation de l'acte du vote, risque de hacking et de manipulation des résultats électoraux, exclusion politique de franges entières de la population. L'expérience américaine est sur ce point riche d'enseignements : la sécurité du vote ne fut obtenue qu'au prix de la mise en place d'une procédure relativement lourde (avec envoi de disquette contenant un code d'accès), utilisant les infrastructures de communication sécurisées de l'armée, le tout étant contrôlé par une institution.
A contrario, le dernier exemple en date " en grandeur réelle " de ce type d'expérience, les élections de cinq directeurs de l'ICANN, montra que le processus n'était pas maîtrisé, avec les bugs à répétition qui empêchèrent nombre de " netizen " de valider leur bulletin de vote. Et encore, l'identité des votants n'était même pas vérifiée par comparaison avec des listes électorales, ce qui simplifiait considérablement les choses.
Liens :
Election.com : la société qui a organisé les votes en France et en Arizona
Plusieurs articles du New-York Times sur le vote en ligne : 1 et 2
Le dossier de HN sur les élections de l'ICANN
A lire aussi : Yahoo Internet Life propose ce mois-ci un dossier sur " les promesses de l'e-démocratie "
2000-11-15 00:00:00
L'événement de cette semaine aura été un non-événement. Les élections présidentielles américaines promettaient d'être révolutionnaires, une préfiguration grandeur nature de la démocratie de demain, faite d'interactivité et d'Internet...et puis rien. Tout est suspendu au dépouillement manuel de cartes de vote envoyées par la poste ! Pourtant, ce ne sont pas les expériences qui ont manqué : vote en ligne, mise aux enchères des voix, échanges de bulletins de vote, couverture de l'événement sans précédent par les médias en ligne ; toutes ces innovations relevaient, au mieux du gadget, souvent de la parodie et ont parfois tourné au flop. Rien d'anormal à cela. Tout d'abord, les questions de société posées par la montée en puissance des nouvelles technologies ont été largement ignorées par les deux candidats. De la confidentialité des données personnelles et de la protection des droits d'auteur, il n'en a pas été question. Pas étonnant que la plupart des " techies ", comme les jeunes en général, ne se soit pas sentis concernés par une campagne centrée sur la question des retraites et de la sécurité sociale. Et le vote en ligne n'y changera probablement rien, parce qu'il n'est qu'une technique particulière de vote qui ne modifie pas le rapport des citoyens à la politique Deuxième remarque, globalement dans cette campagne électorale, Internet aura été utilisé comme une seconde télévision ; d'ailleurs, il n'est pas anodin que les sites électoraux les plus visités aient été ceux des grands réseaux télévisés américains, et précisément le soir de la consultation. C'est que la télévision comme moyen de communication de masse est bien plus adapté qu'internet à ce type d'élection, un des rares moments de la vie politique américaine où la nation se sent plus " unus " que " e pluribus ". A l'opposé, la circulation de l'information en réseau valorise la diversité et la multiplicité des sources d'information non contrôlées. Les candidats en auront fait l'expérience au cours de leur campagne, en étant confrontés à une myriade de petits sites parodiques, voire à des attaques contre leur propre site. Mais l'expérience la plus intéressante, quoique marginale, de cette campagne, reste les échanges de vote entre partisans de Ralph Nader et d'Al Gore, permettant aux électeur d'optimiser leurs voix. Ce site a été fermé sous la menace de poursuites de la part de l'Etat de Californie. Il préfigure bien cependant l'exercice d'une citoyenneté plus active, s'exerçant en réseau.
2001-08-30 00:00:00
Seuls les possesseurs individuels d'un nom de domaine pourront voter et être représentés au siège de [l'ICANN->art11] ; et ils devront payer pour cela ! C'est à peu près le sens du [rapport provisoire-> http://www.atlargestudy.org/draft_final.shtml]que vient de publier le comité chargé d'étudier comment représenter les internautes au sein de l'organisation qui gère l'activité hautement sensible d'attribution des noms de domaine. L'ALSC, pour At-Large Study Commitee, formé sous la présidence de Carl Bildt et de Chuck Costello, a travaillé pendant les six derniers mois sur les leçons à tirer du [semi-fiasco->art10] qu'ont représenté les premières élections ouvertes à tous de cinq directeurs de l'ICANN en octobre dernier. -Première conclusion : l'établissement d'un corps électoral sur la seule base de l'adresse e-mail des votants est trop compliqué à gérer, coûte trop cher et est vulnérable à la fraude. -Deuxième conclusion : puisque l'ICANN s'intéresse au premier chef (mais pas seulement) aux noms de domaine, il est logique que les premiers concernés soient représentés. Comme par ailleurs, les sociétés d'enregistrement de noms de domaine ont déjà des fichiers de clients sûrs et exacts, il suffit de les collecter pour obtenir un corps électoral en ordre de marche. -Troisième conclusion : comme l'ICANN est une organisation non-gouvernementale et non-commerciale, elle a des ressources limitées. C'est donc aux futurs citoyens du réseau de se prendre en charge financièrement. Et pour qu'ils ne se sentent pas trop lésés par un tel prélèvement, on crée pour eux une sous-organisation ad hoc, intitulée ALSO (At-Large Supporting Organization), sur le modèle du [DNSO->art13]. A cette différence près que l'ALSO est aussi décentralisée dans chacune des six régions mondiales qui élisent un directeur. Prudent, l'ALSC préconise que l'adhésion à l'ALSO ne soit pas obligatoire mais fasse l'objet d'un « opt-in » lors de l'enregistrement de nom de domaine. Il est vrai que dans le cas contraire, la contribution demandée s'apparenterait à un impôt, propre à déclencher les hurlements de tous ceux qui sont prompts à dénoncer la volonté de l'organisation à s'ériger en gouvernement mondial du net. Evidemment, les questions soulevées par une telle proposition sont au moins aussi nombreuses que les solutions qu'elle apporte. L'ALSC en est conscient et appelle à commentaires d'ici la présentation de son rapport final au mois de novembre. Des commentaires, il y en a déjà sur la liste de discussion qu'anime le comité ; et pas des plus sympathiques...Du nombre de directeurs élus (six dans le projet, soit un tiers des directeurs alors que beaucoup en espéraient la moitié, comme c'est le cas aujourd'hui) au prélèvement financier en passant par la création d'une sixième entité géographique ou la définition d'un « possesseur individuel de nom de domaine », tout y passe. Nul doute que les discussions seront animées dans les semaines à venir. Pour sa défense, l'ALSC pourra arguer que ses multiples efforts pour associer le plus grand nombre possible d'internautes à son projet seront restés vain. Il est sûr que 59 participants sur son [forum-> http://www.atlargestudy.org/forum.shtml], ce n'est pas beaucoup pour discuter d'un enjeu mondial. Mais que les internautes français ne se découragent pas ! Ils auront l'occasion de discuter les propositions de l'ALSC lors de sa prochaine réunion à [Paris-> http://www.atlargestudy.org/calendar.shtml], le 4 septembre prochain.
2001-09-04 23:02:28
Cette année Linux fête ses dix ans. l'âge de la maturité, avant celui de la majorité. Cet anniversaire consacre en effet l'éclatante réussite du célèbre logiciel libre, promis à un brillant avenir. Cette réussite, Linux la doit à deux facteurs : sa propre évolution, et celle de son concurrent Windows. Car il faut bien dire que depuis quelques années, le système au pingouin s'est considérablement amélioré, notamment en ce qui concerne sa facilité d'utilisation. La stabilité du noyau dérivé d'Unix qui en forme le coeur, la sécurité qu'il offre et la faiblesse de son coût lui a déjà permis d'emporter la mise sur le marché très particulier mais en expansion des serveurs Internet, grâce à Apache, lorsque son concurrent le couple IIS-Windows NT, édité par Microsoft a fait la preuve de sa vulnérabilité. La prochaine étape pour Linux consistera donc à conquérir le coeur des possesseurs de micro-ordinateurs personnels, encore massivement assujettis à la domination de Windows. Mais la conquête du grand public, qui passe par une plus grande simplicité d'utilisation, n'est plus désormais hors de portée de Linux. L'amélioration des deux bureaux qui jouent le rôle d'interface avec l'utilisateur, KDE et Gnome, l'émergence de distributions dotées de procédures d'installation entièrement automatisées, avec en particulier un partitionnement automatique du disque dur, le support et la reconnaissance d'un nombre croissant de périphériques matériels, sont autant d'éléments qui permettent de dire que ce système est en passe d'atteindre un point de maturité pour le grand public. Le succès de Linux et plus généralement du logiciel libre est par ailleurs dû à son environnement. L'évolution de la politique de Microsoft en matière de protection de ses logiciels, en particulier les verrous sécurisant la nouvelle version de son système d'exploitation, XP, risquent fort de décourager les consommateurs. Une des forces de la firme de Redmond a toujours résidé dans sa capacité à imposer son système d'exploitation préinstallé sur les nouvelles machines vendues. Dans la mesure où la plupart des nouveaux utilisateurs ne savent même pas ce qu'est un système d'exploitation, encore moins qu'il est indépendant de la machine qu'ils ont acheté, on comprend l'avantage d'une telle méthode, qui, soit dit en passant, équivaut à de la vente forcée. Ce qu'est un système d'exploitation, les futurs utilisateurs de XP vont très vite l'apprendre : un Léviathan très compliqué et instable installé au coeur de leur machine, qui les obligera à téléphoner à des gens qu'ils n'ont jamais vu, avec lesquels ils ne se savaient même pas avoir contracté pour leur demander l'autorisation de toucher à leur ordinateur. Dans ces conditions, les consommateurs risquent fort de suivre une formation accélérée qui les amène à se poser quelques questions ; et se rendre compte qu'avec une distribution Linux préinstallée, ils peuvent avoir accès aux mêmes fonctions basiques que Windows sans s'inquiéter pour l'avenir...et pour près de 600 francs de moins ! Alors maintenant, imaginons. Imaginons des ordinateurs d'entrée de gamme vendus en supermarché, environ 10% moins cher, tout configurés, avec une offre logicielle conséquente : une suite bureautique légère mais largement suffisante pour l'utilisateur moyen, Koffice, un logiciel de dessin performant, The Gimp, un navigateur remarquablement stable et supportant java, Mozilla, un logiciel de mail très simple d'utilisation, Kmail, des jeux suffisants pour la famille, Quake, Tux Racer, un logiciel de publication web, Screem, et ainsi de suite ad libitum. Le tout "plug&play", sans soucis ni coût supplémentaire. Ce que nous imaginons ici repose sur un étonnant paradoxe : Linux, l'OS des bidouilleurs, des nerds et autres fondus d'informatique est tout simplement en passe de devenir un produit grand public, bien plus adapté au marché des particuliers que ne l'est Windows. Il ne lui manque que deux choses : tout d'abord quelques années supplémentaires de développement, notamment en ce qui concerne la vidéo, encore très peu accessible sur Linux - aucun lecteur de DVD n'est disponible sous forme de package avec toutes les librairries, et surtout un immense effort de volonté de la part des distributeurs de matériel qui ont encore du mal à résister aux diktats de Microsoft. Mais la loi du marché se fait rarement attendre. Et l'évolution croisée entre Windows et Linux que l'on vient de décrire peut rapidement s'étendre à tout le secteur du logiciel. Si nombre de logiciels propriétaires, chers, lourds, mal conçus et buggés, ont pu se vendre jusqu'à présent, si l'"imposture informatique" a pu survivre, c'est bien parce que la plupart des utilisateurs, ou bien n'avait pas conscience de les acheter (ils étaient préinstallés), ou bien ne les achetait pas. A force de vouloir lutter contre le piratage, les éditeurs de ces logiciels risquent fort de scier la branche sur laquelle ils sont assis, en incitant leurs clients à aller voir ailleurs.
2001-09-17 18:48:15
Quelques jours après avoir été perpétrés, les attentats contre les tours du World Trade Center sont sur le point de provoquer une remise en cause importante de la protection des libertés individuelles, en particulier de la liberté de communiquer dans la plupart des pays occidentaux. Selon le magazine [Wired->http://www.wired.com/news/politics/0,1283,46816,00.html], un projet de loi est sur le point d'être proposé, qui contraindrait les éditeurs de logiciels de cryptographie à inclure dans leurs programmes une porte dérobée permettant aux services de police de décrypter les messages suspects. Cette proposition, motivée par l'information selon laquelle les réseaux terroristes utiliseraient de tels logiciels pour communiquer entre eux, a déjà suscité de [nombreuses réactions négatives->http://www.wired.com/news/politics/0,1283,46900,00.html] aux Etats-Unis, où la liberté d'utiliser des moyens de cryptographie est presque considérée comme un droit constitutionnel. Au delà de cette opposition de principe, la proposition du sénateur Gregg, est propre à remettre en cause la sécurité des transactions en ligne, dans la mesure où une porte dérobée dans un système de cryptage est un évident point de faiblesse qui peut être utilisé par des individus malintentionnés. Sans compter qu'une telle mesure est évidemment parfaitement inefficace : la plupart des logiciels de cryptage sont distribués dans le monde entier et nombre d'entre eux librement téléchargeables sur Internet, fait notamment remarquer [Phil Zimmerman->http://www.futur-e-s.com/home/News/Sommaire/index.php?Page_ID=41], l'inventeur de PGP, dans une interview qu'il a accordé à Futur-e-s Plus largement, la question de la cryptographie risque fort de faire l'objet d'un débat passionné dans les semaines à venir en France, où le projet de loi sur la société de l'information (LSI) sera prochainement débattu. Ce projet de loi en préparation depuis plus d'un an, comporte un important volet sur la cryptographie, curieusement rebaptisée "cryptologie", qui en réglemente sévèrement l'usage sous plusieurs aspects. Outre les critiques virulentes déjà évoquées dans [nos colonnes->article 2], de l'association IRIS contre le texte dans son ensemble, la LSI vient de se trouver de nouveaux opposants qui s'expriment dans le site [LSIjolie->http://www.lsijolie.net]. Oeuvre de quatre journalistes indépendants parmi lesquels le webmaster de l'excellent site d'information sur tous les aspects de sécurité sur Internet, [Bugbrother->http://www.bugbrother.org], LSIjolie se propose d'expliquer en quoi l'usage libre de la cryptographie est une liberté essentielle, et pourquoi la LSI en criminalise indûment l'usage. Dans ce prolongement, LSIjolie propose une pétition que l'on peut signer en ligne. On peut ne pas être toujours d'accord avec les opinions des auteurs de ce site, mais il faut leur reconnaître le mérite de vouloir faire naître un débat sur un aspect important de la vie numérique, là où règne jusqu'à présent un silence sidéral. Et il est à craindre que dans ce contexte, l'émotion suscitée par les attentats de mardi permette aux plus répressifs de nos gouvernants, de prendre des mesures contestables, sans susciter la moindre inquiétude. Ce ne serait pas en effet le moindre des paradoxes de cette vague de terrorisme que de provoquer une paranoïa aiguë pour tout ce qui touche à l'informatique, alors qu'a priori, elle a très peu de rapport avec ce type d'activité. Déjà, mardi, on s'inquiétait d'une deuxième vague d'attentats, réalisés cette fois-ci sur Internet, qui n'est jamais venue. Le lendemain, on nous apprenait avec fracas que les terroristes utilisaient l'e-mail pour communiquer entre eux, comme si c'était une arme terrifiante ; on ne voit pas très bien à quel titre. Le surlendemain, que le FBI installait des Carnivore chez plusieurs fournisseurs d'accès, recherchant finement des e-mails commençant par Allah et écrits en arabe... Aujourd'hui, on apprend que certains des terroristes auraient utilisé Flight Simulator pour s'entraîner, information qui obligerait Microsoft à repousser la sortie de la prochaine version de son célèbre jeu. On se demande jusqu'où on ira dans l'hystérie collective symbolisée par un éditorial du [Daily Telegraph->http://www.dailytelegraph.co.uk/dt?ac=006054581343786&rtmo=3HSu8HqM&atmo=gggggggK&pg=/01/9/14/do01.html], qui finirait par tourner au canular si le sujet n'était si triste et funèbre.
2001-09-17 22:46:37
C'est un article publié par deux scientifiques britanniques dans la dernière édition de [First Monday->http://www.firstmonday.dk/issues/current_issue/brown/index.html]. [Barry Brown->http://www.dcs.gla.ac.uk/~barry/] et Abigail Sellen, deux chercheurs de l'université de Glasgow et du HP Lab ont mené une enquête qualitative sur les difficultés que rencontrent habituellement les utilisateurs du web dans leur expérience quotidienne de ce nouveau media. Leurs conclusions cernent trois types de problèmes : l'utilisation des listes de favoris, le rassemblement d'informations en provenance de sites différents et l'inévitable question de la sécurité dans les transactions électroniques. -Les listes de favoris : les statistiques d'utilisation des favoris dans les navigateurs web sont bien connues. Globalement, les utilisateurs reviennent le plus souvent sur un nombre très réduit de sites et s'en contentent. Dans ces conditions, leur utilisation des listes de favoris reste très fruste. Pire, les entretiens que les deux chercheurs ont mené avec leurs informateurs montrent que ceux-ci se retrouvent rapidement avec des listes trop longues et totalement ingérables de favoris qu'ils ne prennent pas la peine de classer la plupart du temps. Du coup, la plupart des utilisateurs utilisent la fenêtre d'historique de leur navigateur pour retrouver un site qu'ils ont déjà visité, ou plus simplement, en tapent le nom dans la barre d'adresse avec un .com derrière. - La collecte d'informations : les auteurs de cette enquête remarquent qu'une grande partie de l'utilisation du web est liée à une activité spécifique, comme la préparation d'un voyage. Dès lors, l'utilisateur parcourt souvent cinq à six sites, voire plus, pour, par exemple, comparer des prix, accumuler de l'information sur un pays ou consulter les horaires de moyens de transport divers. Or, aucun outil n'est intégré aux navigateurs actuels pour permettre à l'utilisateur de conserver en un même endroit les pages qu'il a visitées et les revoir rapidement. Celui-ci est souvent contraint de recourir au copier/coller dans un fichier texte pour se constituer un clipboard thématique rassemblant les informations qu'il souhaite comparer par la suite. - La sécurité dans les transactions on-line : partant d'un constat déjà archi-connu : le consommateur hésite à donner son numéro de carte de crédit sur Internet, Barry Brown et Abigail Sellen développent un raisonnement original. Ils remarquent notamment que l'hésitation qu'évoquent souvent les individus dans les enquêtes quatitatives sur le sujet, sont pour une bonne part théoriques ou générales, et surtout purement liées au contexte télématique. Autrement dit, dans la vie réelle, les mêmes qui ne veulent pas transmettre d'information sensible en ligne, font souvent preuve d'une négligence étonnante. C'est le cas notamment de systèmes de fidélisation mis en place par les supermarchés anglo-saxons, qui récompensent les consommateurs utilisant systématiquement leur carte de crédit. Très populaires, ces systèmes sont utilisés pour "profiler" les consommateurs et recueillir des informations nominatives sur les habitudes de consommations des clients. Tout à fait acceptées dans un contexte off-line, ces pratiques ou la possibilité qu'elles soient mises en oeuvre sont à l'origine de la plus grande partie des blocages face à l'achat on-line. C'est à partir de ces trois questions que les chercheurs émettent des recommandations pour faciliter l'utilisation du réseau par le grand public ; sans se rendre compte d'ailleurs que les solutions qu'ils préconisent existent déjà : c'est le cas des logiciels permettant de créer une page de démarrage affichant la totalité des favoris enregistrés dans le navigateur. C'est le cas aussi des logiciels créant de véritables clipboards adaptés au format html, à l'instar de [Net Snippets->http://www.4dev.com/ns/index.htm]. C'est dans le domaine de l'e-commerce que les solutions proposées par cet article sont les plus innovantes. Il est clair en effet que le manque de confiance des consommateurs à l'égard de l'achat en ligne vient en grande partie de sa totale immatérialité. Les solutions doivent donc être cherchées du côté de l'introduction d'un support physique à la transaction, par exemple d'une carte d'enregistrement envoyée par les commerçants au moyen de laquelle les consommateurs pourraient finaliser leur achat. Ce système ne changerait rien à la sécurité réelle du système de paiement, mais jouerait sur la subjectivité d'internautes désarçonnés par l'absence de support physique à leur achat.
2001-10-01 09:52:53
Les nombreuses [analyses->http://www.journaldunet.com/0109/010912usa.shtml] qui ont été faites du rôle qu'avait joué le web dans la diffusion de l'information le jour des attentats à New York et Washington se sont toutes focalisées sur les pics de fréquentation qu'ont connu ce jour là les sites d'informations, et le recours massif des internautes à l'e-mail pour s'échanger des nouvelles. Il est pourtant un fait majeur qui a échappé à l'attention des analystes : la manière dont les webzines indépendants ont réagi face à une actualité massue, la première sans doute, depuis qu'ils existent de manière conséquente sur le web. "La circulation circulaire de l'information" : jamais la formule inventé par Pierre Bourdieu à propos du fonctionnement de la presse généraliste n'aura été aussi vrai que le 11 septembre ; jusqu'à la caricature. Et jamais elle n'aura été démentie avec autant d'ampleur que par la myriade d'organes de presse électronique, indépendante, non-commerciale et militante, ce jour-là. Parmi eux, deux sites méritent particulièrement l'attention : l'agence de presse [Indymedia->http://www.indymedia.org/], née des mouvements antimondialisation de Seattle en novembre dernier, a la particularité de s'appuyer sur un réseau serré de correspondants non-professionnels au plus proche de la réalité de terrain. l'Independant Media Center qui lui est associé, offre ainsi une déclinaison de sites locaux, reliés entre eux par syndication. Et dès les premières heures après l'attentat, l'IMC de [New York->http://nyc.indymedia.org/] fournissait une masse impressionnante de renseignements absents sur les grands media nationaux. C'est surtout la multiplication des témoignages sur le site dans les jours qui ont suivi qui fut la plus intéressante : témoignages bruts, non coupés, non encadrés par le discours général des envoyés spéciaux qui survolent la situation, au plus près des sentiments éprouvés par les témoins ; des témoignages "grassroot" en somme, qui correspondent bien à une partie de la philosophie de l'IMC. L'autre particularité d'Indymedia, c'est l'engagement militant, qui fit la notoriété de l'agence de presse lors des affrontements de Gênes. Dès le lendemain de l'événement, l'IMC New York appelait à un rassemblement pour la paix à Central Park, contrastant de manière significative avec le ton martial pris par le président des Etats-Unis. Mais c'est surtout sur le site collaboratif [Alternet.org->http://www.alternet.org/] que l'opposition à des représailles massives s'organise le plus efficacement. Ce webzine, lui aussi lié à l'IMC et fonctionnant sur le même principe qui permet à chacun d'y publier des articles, martèle depuis vingt jours son opposition à une vengeance aveugle. La plupart des articles insistent d'ailleurs sur la responsabilité des Etats-Unis et notamment de leur politique étrangère, dans la haine dont ils font l'objet de par le monde. Suscitant des articles écrits par des musulmans américains, ou des signatures aussi prestigieuses que celles de Michael Moore ou de journalistes connus à travers le pays, Alternet tente de jeter les bases d'un véritable mouvement "anti-guerre" qui le projette au delà du simple journalisme indépendant. Indymedia et Alternet, deux exemples parmi d'autres d'un traitement très différent de l'actualité la plus chaude. Et le plus intéressant est que, contrairement aux sommets du G8 ou de l'OMC à l'occasion desquels ils sont nés, les attentats du World Trade Center étaient, par nature, consensuels. Les webzines indépendants ont su à cette occasion échapper au rabâchage obsessionnel dont ont fait preuve les médias traditionnels, comme c'est toujours le cas en pareille circonstance. Un signe évident de leur maturité, et de leur capacité à fournir d'autres sources d'information dans un champ médiatique autrement gagné par l'uniformisation.
2001-10-01 10:19:26
Riche actualité que celle des deux dernières semaines en matière de protection des données personnelles. Au moment même où les Etats-Unis connaissent une polémique sans précédent sur l'évolution de la législation en la matière au lendemain des attentats de New York et Washington, Paris vient d'accueillir la [23ème conférence internationale des commissaires à la protection des données personnelles-> http://www.paris-conference-2001.org/fr/bienvenue.html], sous l'égide de la CNIL et des plus hautes autorités de l'Etat. Les débats menés de part et d'autre de l'Atlantique invitent à reconsidérer une question ardue, trop souvent abordée d'un point de vue purement théorique ou abstrait. Car la question de la "privacy" ne doit pas être abordée indépendamment de celle de la sécurité, c'est-à-dire de la certification des identités numériques, surtout sur le réseau où les besoins ne sont pas encore satisfaits. C'est parce qu'il y a besoin, à un moment précis, de savoir qui exactement est derrière l'écran d'ordinateur, qu'il y a transmission d'informations confidentielles et risque de divulgation de ces informations. La question de la protection des données personnelles dans un environnement informatique ne peut donc être évoquée qu'en rapport avec des cas, des situations et des usages particuliers. Il est même possible que cette question, sur laquelle se penche nombre de juristes et philosophes, soit en définitif du ressort quasi-exclusif des techniciens à qui il revient de mettre au point un outil permettant à la fois de certifier l'identité de l'usager lorsque c'est nécessaire, -pour effectuer un paiement par exemple, ou voter, ou s'inscrire à un concours, et en même temps de garantir à celui qui l'utilise qu'il communiquera uniquement les informations demandées, et non d'autres informations liées (comme l'adresse, le numéro de téléphone ou le lieu de naissance) qui permettent, par recoupement informatique de "profiler" au delà de l'acceptable celui qui divulgue de telles informations. Trois remarques s'imposent : : -La solution actuellement la plus en vogue repose sur le système du "coffre-fort électronique" : un compte unique, hébergé sur serveur sécurisé et accessible par Internet, dont l'usage est directement géré par l'utilisateur en fonction de ses besoins de certification. Le système Passport [proposé/imposé-> http://www.wired.com/news/business/0,1367,47001,00.html] par Microsoft en est l'exemple le plus connu. Mais il faut aussi évoquer son homologue, [Liberty-> http://www.vnunet.fr/actu/article.htm?date=2001-09-27&numero=8500] proposé par Sun, ou encore la version publique, évoquée récemment par [Michel Sapin-> http://www.fonction-publique.gouv.fr/leministre/lesdiscours/discours-200108211713.htm] en des termes on ne peut plus vagues. L'interrogation essentielle que soulève ce type de solution concerne évidemment la sécurité du coffre-fort. Les déboires récurrents de Microsoft en la matière font peser de nombreux doutes sur Passport, sans pouvoir évoquer son concurrent commercial, encore à l'état de projet. Au delà du cas particulier de Microsoft, c'est en fait la notion même de coffre-fort électronique qui pose problème, comme l'a fait récemment remarquer l'équipe qui anime le site [Kitetoa-> http://www.kitetoa.com/Pages/Textes/Textes/Textes8/ministrose.shtml]. Il n'est pas certain en effet que la centralisation des données soit la solution la plus adaptée à la communication en réseau où, précisément, la vulnérabilité est directement proportionnelle à la centralisation. - C'est au contraire dans les solutions les plus décentralisées et fragmentaires qu'il faut voir la garantie d'une meilleure confidentialité des données personnelles. Les solutions individuelles de cryptage et de certification des communications électroniques, telles que celles sur lesquelles travaille le laboratoire IBM de Zurich qui a envoyé un [représentant-> http://www.paris-conference-2001.org/eng/contribution/kaiserswerth_contrib.pdf] à la conférence de Paris, permettraient à chacun de transmettre exactement et uniquement les informations nécessaires en le laissant maître d'assurer sa propre sécurité ; ce qui est directement contradictoire avec le mouvement général de limitation de l'usage individuel des instruments de cryptage qui est en train de se développer depuis quelques semaines. Car en criant au loup à propos des logiciels de cryptage, les gouvernants oublient un peu vite qu'ils constituent le fondement ultime de toute communication sûre et, de ce point de vue représentent la pierre d'angle de la protection des données personnelles. C'est exactement le sens de l'intervention du représentant [Goodlatte->http://www.zdnet.com/filters/printerfriendly/0,6061,5097301-2,00.html] en réponse aux [propositions-> http://www.wired.com/news/print/0,1294,46816,00.html] d'introduire une porte dérobée dans les logiciels de cryptographie. - Poser le problème de la confidentialité des données personnelles sur le réseau ne doit pas empêcher de s'interroger sur la part qu'y joue l'imprudence dans la vie réelle. C'est une phénomène bien connu que la plupart des failles de sécurité dans le domaine informatique sont d'origine humaine : numéros de carte de crédit récupérés sur facturette, mots de passe d'administration des serveurs dévoilés par indiscrétions (affichés sur un post-it accroché à l'écran par exemple) ou devinés par pure logique (a quelle date est donc né le petit dernier de l'administrateur ?). De la même manière, une récente [étude->article 74] publiée dans First Monday montrait que beaucoup d'entre nous, excessivement peureux devant un ordinateur, pouvait divulguer sans problème nombre d'informations jugées confidentielles, dans la vie de tous les jours. Qui n'a jamais rempli de questionnaires de type "conso-data" en vue de recevoir des bons de réduction ? Qui s'inquiète aujourd'hui de l'usage que les banquiers font de nos opérations de compte ? Qui s'est même posé la question de la confidentialité des données recueillies sur la carte Vitale, dont la gestion est sous-traitée à une entreprise privée ? Qui n'a jamais répondu à un sondage, toujours nominatif ? Qui n'a jamais rempli de questionnaire d'assurance, dont l'indiscrétion est renommée ? On pourrait continuer ainsi à l'infini une liste qui montre que si fichage il y a, il prend ses sources bien plus souvent dans la vie physique que sur le réseau, parce que c'est tout simplement plus facile. A côté de cela, les fameux cookies, web bugs et autres épouvantails font un peu pâle figure. Dernière remarque : lorsque je reçois de ma banque une publicité me vantant les mérites des Sicav alors que mon compte flirte allègrement avec le zéro depuis plusieurs semaines, ou au contraire que la même m'envoie ses offres de crédit au moment précis où je n'en ai plus besoin ; lorsque Ooshop me gratifie régulièrement d'un échantillon de croquettes pour chats, animal que je n'ai jamais possédé et que je ne posséderai sans doute jamais, je me dis que la confidentialité des données a encore de beaux jours devant elle. Plus sérieusement, il est clair que les agents commerciaux ont des outils extrêmement sophistiqués d'analyse et de recoupement d'information sur leurs clients actuels et potentiels. De là à les utiliser...Cela fait par exemple des années que la presse spécialisée nous rebat les oreilles du marketing viral, de la personnalisation des messages publicitaires et autres inventions révolutionnaires. Pour ma part, je continue à recevoir des tonnes de spam que je ne prends même pas la peine de lire dans ma boîte aux lettres (physique et électronique). Manifestement, dans nombre d'entreprises, il y a comme un hiatus entre le département études qui vit au XXIème siècle, et le département publicité qui en est resté aux bonnes vieilles méthodes de masse des années 80. On pourrait appeler cela, le complexe Echelon : cela ne sert pas à grand-chose d'espionner l'ensemble des communications de la planète, si c'est pour laisser passer des messages même pas cryptés que se sont régulièrement envoyés, semble-t-il, des terroristes malintentionnés.
2001-10-02 00:11:43
Nouveau coup dur pour la liberté d'expression sur le net. Après l'affaire jeboycottedanone.com qui eut pour résultat la condamnation pour contrefaçon des auteurs d'un site critique à l'égard du géant de l'agro-alimentaire, un conflit de même nature oppose maintenant, selon le magazine [01net->http://www.01net.com/rdn?oid=161523&rub=2134], le vpciste pere-noel.fr à un regroupement de consommateurs lésés. -Une lettre du Père Noël Non contents de se plaindre auprès de la répression des fraudes, ceux-ci ont en effet osé mettre en place un site, [defense-consommateur.org->http://www.defense-consommateur.org], où ils exprimaient leurs griefs. La réponse ne s'est pas fait attendre, sous la forme d'une lettre émanant de pere-noel.fr, enjoignant les auteurs de retirer tout contenu " dénigrant ". Rien là que de très banal. Le fait que l'hébergeur de defense-consommateur, [W3net->http://www.w3net.fr], lui aussi contacté par Pere-noel.fr, ait immédiatement coupé l'accès au site incriminé est d'ailleurs lui aussi courant. L'hébergeur de jeboycottedanone.com avait procédé de même, pour d'autres raisons, et ne représente qu'un exemple parmi d'autres d'une pratique de plus en plus répandue dans ce secteur d'activité. Il faut dire que dans un contexte de multiplication des conflits sur les contenus des sites, en l'absence d'une législation claire en matière de responsabilité des prestataires techniques, et depuis la jurisprudence " Estelle Hallyday ", les hébergeurs deviennent de plus en plus peureux et préfèrent éviter une action en justice qui pourrait leur coûter très cher. -L'article fantôme L'histoire de defense-consommateur pourrait s'arrêter là. Mais il suffisait, le 1er Octobre dernier de tenter de se connecter sur le site censuré ([copie d'écran->http://www.homo-numericus.net/defense-consommateur.jpg]), pour comprendre toute la portée symbolique de l'affaire : soucieux de (trop) bien faire, W3net, se retranche derrière l'article 43-6-2 de la loi n° 86-1067 du 30 septembre 1986 modifiée le 15 Juin 2000 , pour justifier son action. Cet article, selon le [Journaldunet->http://www.journaldunet.com/0006/000619amendement.shtml], auquel renvoie W3net, dit que " Les personnes physiques ou morales qui assurent, à titre gratuit ou onéreux, le stockage direct et permanent pour mise à disposition du public de signaux, d'écrits, d'images, de sons ou de messages de toute nature accessibles par ces services, ne sont pénalement ou civilement responsables du fait du contenu de ces services que si, ayant été saisies par une autorité judiciaire, elles n'ont pas agi promptement pour empêcher l'accès à ce contenu (NDLR : ce qui n'est pas le cas ici) ou si, ayant été saisies par un tiers estimant que le contenu qu'elles hébergent est illicite ou lui cause un préjudice, elles n'ont pas procédé aux diligences appropriées (NDLR : ce qui serait le cas ici) ". Ce fameux article de loi est plus connu sous le nom d'"amendement Bloche " et a fait l'objet de débat passionnés lors de son adoption par l'Assemblée nationale. A tel point que le Conseil Constitutionnel en a été saisi, et a fini par [l'invalider->http://www.legifrance.gouv.fr], notamment pour son imprécision. Moralité, W3net invoque un article de loi qui [n'existe pas->http://www.legifrance.gouv.fr]pour justifier la fermeture du site ! -Maquis juridique Au delà de la gaffe ponctuelle d'une société, manifestement un peu perdue dans le maquis juridique de la législation sur Internet, cet incident est tout simplement significatif du climat actuel. Il représente une belle preuve par l'exemple d'une tendance dénoncée avec force depuis plusieurs mois par l'association [IRIS->http://www.iris.sgdg.org] : l'évolution de la législation, réelle et virtuelle donc, qui impute une responsabilité incertaine aux intermédiaires techniques, a pour conséquence inévitable que ceux-ci s'érigent en censeurs et prennent tout simplement la place du juge pour faire le partage entre licite et illicite. Ce serait évidemment un mauvais procès que de leur imputer une quelconque motivation idéologique dans leurs actes quotidiens de censure. Mais les sociétés soucieuses de leur image publique et cherchant à faire taire toute critique à leur encontre, ont vite compris qu'il existait une motivation bien plus puissante que l'idéologie ou la sympathie : la peur. Depuis l'invalidation de l'amendement Bloche, il n'existe toujours pas de législation claire en France sur la responsabilité des hébergeurs. Ceux-ci sont donc soumis aux interprétations contradictoires et incertaines des juges sur des articles de loi bien antérieurs et parfaitement inadaptés au contexte numérique. Dans le flou juridique le plus absolu, et dans l'attente de la Loi sur la Société de l'Information, dont on ne sait d'ailleurs toujours pas si elle sera suffisante à trancher la question, on ne compte plus les exemples de webmasters individuels décidant de fermer leur site, terrorisés par les lettres comminatoires et menaçantes que leur envoient des sociétés soi-disant lésées, parfois même sans aucun fondement juridique. On aurait pu croire que les hébergeurs, qui sont parfois d'importantes sociétés dotées de services juridiques compétents, aient les reins plus solides pour résister à ce qui s'apparente à une forme de terrorisme juridique. Manifestement, il n'en est rien.
2001-10-11 23:03:14
Linux n'est plus réservé aux spécialistes.
Avec la 8ème version de sa distribution,
[Linux-Mandrake->http://www.linux-mandrake.com] vient de faire
passer un cap au célèbre système d'exploitation libre en
facilitant notamment son installation et sa configuration. On sait
bien en effet que ce sont les deux points faibles traditionnels à ce
système : il n'y a pas si longtemps, il fallait encore partitionner
à la main son disque dur, opération délicate qui en a fait
trembler plus d'un, puis compiler à la ligne de commande le kernel
ou noyau du système d'exploitation. Tout cela pour se retrouver
devant un écran noir (si tout s'était bien passé) avec un curseur
clignotant. Il fallait alors configurer par l'intermédiaire d'un
menu des plus austères l'interface graphique du système
d'exploitation, le fameux Xfree, qui ne reconnaissait qu'une fois sur
deux la carte graphique et le moniteur (avec des messages charmants
du type : "attention, si vous faites une erreur, vous risquez
d'endommager votre matériel). Pour ma part, je me souviens très
bien d'un petit matin blême où, après toutes ces étapes, je me
suis retrouvé au redémarrage devant un écran affichant sans
barguigner une série de 0 et de 1.... La grande originalité de la
distribution Linux-Mandrake a toujours été de prendre en charge ces
délicates opérations à travers des interfaces graphiques très
simples et automatisées. Dans cette distribution, l'étape du
partitionnement de disque est devenue très aisée et ne cause plus
d'inquiétude particulière. Cette option "tout graphique"
est d'ailleurs conservée dans le menu de boot (géré par Lilo), qui
ne déverse plus des dizaines de messages incompréhensibles pour le
néophyte, mais affiche un bel écran bleu où sont très clairement
indiquées les étapes pas lesquelles passe l'ordinateur pour
démarrer. Une surprise de taille attend l'habitué du système
d'exploitation lorsqu'on arrive à l'écran de login : parmi les
utilisateurs enregistrés, le compte root qui permet d'administrer le
système n'est plus présenté par défaut. Il faut donc
volontairement taper le login "root" pour accéder à ce
compte. Plus de possibilité de faire des erreurs involontairement
donc, puisqu'il faut savoir ce qu'est un compte root pour y accéder.
C'est là une évolution majeure qui rapproche considérablement
Linux du nouveau MacOSX, lui aussi un Unix mais dont ce compte est
bloqué par défaut. Plus largement, il semble bien que les
développeurs de Linux-Mandrake aient enfin pris au sérieux les
recommandations que l'on distille habituellement aux néophytes : ne
vous loggez pas sous root. Passez par votre compte utilisateur et
entrez le mot de passe nécessaire lorsque le système vous le
demande. Les utilisateurs plus expérimentés peuvent, quant à eux,
effectuer les manipulations qu'ils souhaitent tout aussi aisément.
Un des points faibles traditionnels de Linux est la reconnaissance
des composants matériels. Personnellement doté d'une configuration
matérielle pour le moins hétéroclite( AMD K-6 d'intégrateur,
équipé de deux cartes réseaux, une ISA et une PCI, d'un lecteur de
cd-ROM, d'un lecteur de DVD avec sa carte de décompression, d'un
graveur, d'une carte graphique Vodoo2 et de deux disques durs, sans
compter la souris « intellieye » sur port USB, le scanner et
l'imprimante, le tout étant d'âges et de marques différentes), il
y avait beaucoup de chances pour que l'un ou l'autre de ces éléments
ne soit pas reconnu à l'installation, comme ce fut le cas dans les
distributions précédentes que j'ai pu tester. Surprise, la Mandrake
8 est la première distribution qui reconnaît sans coup férir à
l'installation tous mes périphériques, sans me demander de recourir
à une configuration manuelle. Chapeau Mandrake ! Tout le pari de
Mandrake consiste à prendre l'utilisateur par la main et à le
guider dans sa vie linuxienne. Une fois l'installation réalisée,
cette stratégie se concrétise par une pléthore de logiciels «
maison », comme le Mandrake control center qui permet une
configuration finale des plus aisée ou Mandrake FirstTime depuis la
8.1 qui permet d'entrer ses paramètres personnels à la première
utilisation. Le tout est complété par un ensemble de services en
lignes comme Mandrake online ou Mandrake Campus. Pour le reste, les
différents éléments de cette distribution ne sont pas spécifiques
à Mandrake. On notera toutefois que des différents bureaux, KDE ou
Gnome, les logiciels qui les accompagnent, Koffice, Kmail, et les
autres, sont arrivés à n point de maturité qui rend leur
utilisation très agréable. C'est tout particulièrement vrai du
bureau KDE auquel vont mes préférences. Réputé austère, cet
environnement de travail a su, au cours de ses dernières versions,
gagner en présentation, tout en gardant la stabilité qui a fait sa
réputation. Il accueille désormais des thèmes, téléchargeables
sur un [site spécifique->http://kde.classic.themes.org/], qui
permettent à chacun de trouver son bonheur. A l'heure où Linux et
Windows se posent en ennemis irréconciliables, beaucoup
d'utilisateurs de Windows se demandent s'ils doivent se lancer dans
les bras du pingouin et jeter par dessus bord le bon vieux système
d'exploitation qu'ils connaissent bien. Surtout pas ! D'une part,
Linux s'acquitte encore très mal et très difficilement des tâches
multimedia, en particulier la vidéo, et d'autre part, le grand
avantage de ce système d'exploitation, c'est sa tolérance : Le
système de chargement de Linux le plus répandu, Lilo, permet de
gérer au démarrage la coexistence des deux systèmes d'exploitation
et le mettre en place lors de la phase d'installation de Linux est un
jeu d'enfant. Alors, pourquoi se priver de la variété et rester
enchaîné à un seul système ? Cerise sur le gâteau, les
partitions Windows sont accessibles depuis Linux, ce qui permet
parfaitement d'ouvrir et modifier des documents à l'intérieur de
celles-ci. Décidément, l'époque n'est plus au western en matière
d'informatique, malgré les déclarations péremptoires des uns et
des autres. Au prix d'un petit effort, d'ailleurs de moins en moins
grand, les utilisateurs peuvent aller butiner ici et là le meilleur
de chacun des systèmes et passer à volonté de l'un à l'autre.
Acheter cet article sur Amazon.fr
2001-10-11 23:09:43
Arrêtons l'hypocrisie ! Quel utilisateur individuel à jamais déboursé les centaines, voir milliers de francs nécessaire à l'acquisition légale d'Office, la suite bureautique de Microsoft ? [Récemment->http://www.zdnet.com/anchordesk/stories/story/0,10738,2816522,00.html] le chroniqueur vedette de Zdnet, David Coursey faisait remarquer qu'une des raisons pour lesquelles Windows et Office sont devenus des logiciels standards de par le monde a trait au piratage dont ils ont fait l'objet. Qui ne s'est jamais repassé le cd-rom de la suite Office du bureau, accompagné du numéro de série, pour l'installer chez soi ? Il est de notoriété publique que ce genre de pratique était jusqu'à présent toléré, en tous cas non poursuivi en ce qui concerne les particuliers, notamment parce que l'essentiel des revenus de Microsoft sur cette suite logicielle émane des entreprises qui, elles, sont étroitement surveillées. Maintenant que l'entreprise de Redmond domine totalement le marché des outils bureautiques, sa stratégie est sur le point de changer, pour les entreprises et les particuliers. C'est le sens de la nouvelle stratégie qu'elle entend mettre en œuvre à l'occasion de la sortie de sa nouvelle gamme XP : pour les entreprises un renchérissement considérable des licences, ce qui fait [hurler ses clients->http:// www.silicon.fr/a2886] ; mais ont-ils encore le choix ? pour les particulier, un nouveau système d'enregistrement qui devrait considérablement compliquer l'acquisition "gratuite" de ces logiciels. En un mot, pour l'utilisateur lambda qui n'a pas nécessairement envie de télécharger un crack douteux sur un serveur malais, il est désormais temps de passer à la caisse...ou à autre chose. Coïncidence ou opportunisme ? Au moment où les vendeurs de logiciels protégés, Microsoft en tête, s'engagent dans une [course à l'armement->http://news.cnet.com/news/0-1003-201-4459768-0.html] anti-piratage, d'autres entreprises, et plus souvent des groupes de passionnés, proposent gratuitement des produits équivalents et de très bonne facture : c'en est fini du grand partage entre des logiciels commerciaux superbes mais chers, et les petits freeware pas très performants bidouillés par des particuliers. Pour l'essentiel, les bonnes alternatives aux logiciels commerciaux tournent sous Linux. Dans le sillage du mouvement pour le logiciel libre, ce système d'exploitation a suscité une passion chez nombre de programmeurs qui eurent envie de lui donner les mêmes armes que son concurrent commercial. Les deux systèmes d'exploitation ont donc engendré des systèmes de production logicielle tout à fait opposés : sous Windows, les meilleurs logiciels sont payants et supportés par de grosses entreprises (Microsoft, Macromedia, Corel). Né des milieux étudiants et académiques, Linux a suscité des logiciels programmés et distribués par des communauté de passionnés, ou des entreprises atypiques : assez souvent gratuits et/ou open source, ces logiciels ont longtemps été assez peu accessibles à l'utilisateur de base. C'est en train de changer. Alors, envie de dire adieu à Windows, à Office , à Photoshop? Suivez le guide. -Linux-Mandrake : un Windows gratuit et sans bug. Depuis dix ans qu'il existe, le célèbre système d'exploitation libre a fait d'énormes progrès...de convivialité. La société [Linux-Mandrake->http://www.linux-mandrake.com] en particulier s'est fait une spécialité de proposer au plus large public une distribution « pour les nuls », surtout depuis la sortie de leur version 8 qui présente à l'installation un niveau de facilité proche de celui de Windows (en plus rapide et en évitant les trois redémarrages successifs que ce logiciel demande à l'installation). Pour ceux qui, comme moi, n 'ont jamais connu que Windows, le bureau KDE leur permet de se repérer très vite dans un environnement qui ressemble diablement à celui qu'ils connaissent. A 20$ pour la version de base sur cd (ou gratuit en téléchargement), cette distribution représente une sérieuse économie par rapport à Windows XP. -Bye-bye Internet Explorer et Outlook Express Nous voilà désormais sous Linux. Pas besoin d'être consultant chez Forrester pour savoir qu'on n'a aucune chance d'y retrouver les habituels navigateurs web et logiciels de courrier électronique fournis en standard par Microsoft. Pas de panique, vous trouverez des logiciels presque aussi performants dans cet environnement. Personnellement, mon choix s'arrête sur [Mozilla->http://www.mozilla.org] pour la navigation web et Kmail pour le courrier électronique. Ce dernier logiciel, qui est en fait intégré au bureau [KDE->http://www.kde.org] est sans doute moins sophistiqué qu'Outlook Express, mais néanmoins le plus puissant qu'on puisse trouver sous Linux. On se consolera en songeant à tous les virus auxquels on échappe en n'utilisant pas le client mail de Microsoft. Mozilla quant à lui, est la version « open source » de la dernière mouture du navigateur édité par Netscape. Bizarrement je le trouve plus léger et plus stable que Navigator 6.1 qui a tendance à se fermer intempestivement. Le grand avantage de Mozilla est donc de gérer le système de plugin Netscape permettant une installation très aisée de lecteurs spécifiques (Flash en particulier). Pour ce qui est de la vidéo, Real propose une [version Linux->http://scopes.real.com/real/player/unix/unix.html] de son dernier player qui fonctionne très bien. Il ne reste plus qu'à prier que Microsoft n'élimine pas totalement ce lecteur vidéo du marché avec son Windows Media Player installé en standard avec le système d'exploitation. Cela signifierait la fin des vidéos au format Realvideo sur les sites d'informations ou grand public. -PIM ? Bof Difficile de trouver une alternative gratuite aux deux mastodontes qui se partagent le marché des Personal Information Manager : Outlook et Lotus Notes. Sous Linux, on retiendra surtout [Evolution->http://www.ximian.com], attaché à une variante du bureau Gnome (mais accessible depuis KDE), en attendant [Aethera->http://sourceforge.net/projects/aethera/] qui est son équivalent, bien moins avancé, sur KDE. Reste que ces logiciels sont encore en version bêta, et il est donc peu recommandé de leur confier des tâches de gestion professionnelle. D'autres solutions existent, en recourant par exemple à des systèmes en PHP, comme [PhpGroupware->http://www.phpgroupware.org/]. Cela implique en revanche l'installation en local d'un serveur Apache et du système de bases de données Mysql. Sans oublier une configuration a posteriori qui n'est pas toujours de tout repos. Un peu difficile donc pour commencer. -Les alternatives à Office de Microsoft. Sun propose depuis quelques jours la sixième version de sa célèbre suite bureautique [Star Office->http://www.sun.com/staroffice/6.0beta/]. Equivalente en fonctionnalités avec celle de Microsoft, Star Office était dans la version 5.2 gravement handicapée par une intégration trop poussée du bureau qui en faisait une véritable usine à gaz. La bêta 6 qui vient de sortir corrige l'erreur d'appréciation et se révèle très prometteuse, quoiqu'un peu longue à charger. Par ailleurs, cette suite gratuite pour les particuliers est disponible en version Windows et Linux. Elle n'est que la première de tout une série d' «Office-like » comme [Hancom Office->http://www.hancom.com/en/product_service/office.html] qui devrait faire parler d'elle dans les semaines à venir, ou encore, uniquement sous Windows, 602 Pro PC Suite, recommandé par le [Journal du Net->http://telechargement.journaldunet.com/php/fiche.php4?id=4135&pl=2]. -Quid du multimedia ? Que ceux qui ont un site personnel se rassurent : il existe de nombreuses alternatives gratuites à des logiciels professionnels comme Dreamweaver. [Screem->http://www.screem.org] ou [Quanta->http://quanta.sourceforge.net/] sous Linux font parfaitement l'affaire. Pour ce qui est de la retouche photo, le logiciel phare se nomme [The Gimp->http://www.gimp.org] et est réellement performant. A noter dans ce logiciel, une belle collection de scripts permettant de créer facilement logos, bannières et boutons de bonne qualité en quelques minutes. C'est sur le chapitre de la vidéo que Linux pèche le plus : s'il est possible de facilement lire un fichier mpeg, la lecture de DVD relève du parcours du combattant, sans même parler du montage vidéo. C'est pour cela qu'il vaut mieux, même si l'on installe une partition Linux, conserver une autre partition où réside le vieux Windows 98 ou ME préinstallé, permettant, après redémarrage, de regarder un bon film où de transférer le contenu de son caméscope. De toutes manières, à moins de se prendre pour Bergman, les logiciels fournis avec la carte d'acquisition vidéo sont amplement suffisants. De la même manière, il vaut mieux se garder un Windows de réserve, ne serait-ce que pour pouvoir lire les cd-rom cutlturels, encyclopédiques ou ludiques qui, pour la plupart, n'existent que pour Windows ou Mac. -Des choses que vous ne pouviez pas faire sous Windows. Globalement donc, passer à Linux ne vous empêchera pas de retrouver les principales fonctionnalités servies par les logiciels commerciaux tournant sous Windows. Cerise sur le gâteau, vous aurez aussi la possibilité de faire des choses impossibles sous Windows. Linux, comme tout système Unix, est très doué pour les fonctions de serveur réseau : Apache est un excellent serveur web, [Majordomo->http://www.greatcircle.com/majordomo/] ou [Sympa->http://listes.cru.fr/sympa/] sont des serveurs gratuits de mailing list qui ne connaissent pas d'équivalent sous Windows, et Samba est un serveur de fichiers remarquable. Mais mieux encore, si vous avez la chance de posséder deux ordinateurs ou plus, vous pourrez vous connecter très facilement de l'un à l'autre et accéder à votre compte utilisateur à distance. C'est en effet une particularité du serveurX que de permettre les connexions distantes vers un autre système. Plus encore, plusieurs utilisateurs peuvent faire travailler en même temps la même machine comme s'ils étaient seuls devant elle. Ce qui permet de mettre en place une petite architecture serveur-client entre, disons, un gros ordinateur fixe doté d'importantes ressources et gérant une connexion internet partagée, une connexion imprimante et un gros espace disque, et des portables d'entrée de gamme s'y connectant régulièrement pour profiter de ces ressources. Intéressant, non ? Microsoft a du souci à se faire. A trop vouloir faire rendre gorge à ses clients, l'entreprise dominante du marché des logiciels risque de les faire fuir. Linus Torvald pour Linux et Scott McNeally pour Sun l'ont bien compris. Le premier pour avoir [récemment->http://fr.news.yahoo.com/011011/7/22rvg.html] déclaré que l'évolution du noyau du système d'exploitation n'était « plus aussi importante » que l'interface qui lui permettra d'être utilisable par le grand public. Le deuxième pour ses répliques extrêmement réactives aux erreurs stratégiques de Microsoft, avec Star Office ou encore plus récemment le projet [Liberty->http://news.zdnet.fr/story/0,,t118-s2096186,00.html].
2001-10-12 22:11:33
A cette heure, la plupart des gouvernements du monde occidental, y compris la France, adoptent des mesures d'urgence visant officiellement à combattre plus efficacement le terrorisme, mais dont les conséquences sur les libertés civiles sont loin d'être insignifiantes. Ces mesures, qui concernent en partie les moyens de communication électronique, mais pas seulement, ont suscité dans notre pays les réactions indignées d'organisations comme la [Ligue des Droits de l'homme-> http://www.ldh-france.asso.fr/], [RSF-> http://www.rsf.fr/html/europe/cplp01/cp01/091001.html] et le [Syndicat de la magistrature-> http://www.syndicat-magistrature.org/article.php?id=97] qui en ont dénoncé le caractère « liberticide ». Sur le réseau, associations de défense de la liberté d'expression, webmasters et simples internautes commencent à organiser la résistance à des dispositions jugées attentatoires aux droits les plus fondamentaux dans une démocratie : liberté d'expression, droit à la vie privée, présomption d'innocence. S'avançant en ordre dispersé, ces initiatives constituent des moyens d'information pointus, fourbissent des contre-argumentaires aux slogans sécuritaires très à la mode en ce moment et proposent de signer des pétitions de protestation. Revue de web pour une information alternative : - [LSI-jolie->http://www.lsijolie.net] : conçu au départ pour s'opposer aux dispositions prévues par la Loi sur la Société de l'Information qui devait être débattue cet automne devant l'assemblée, ce site est spécialement consacré à la cryptographie. Il s'est réorienté depuis le milieu du mois de septembre sur les mesures d'urgence prévues par le gouvernement Jospin au lendemain des attentats, concernant la communication électronique. Il propose une pétition en ligne. - [911->http://www.resiste.samizdat.net] : mis en place ces derniers jours par le webzine Samizdat, ce portail se veut une source d'informations sur les « dommages collatéraux » de la guerre contre le terrorisme. On y croise en particulier des écrits du MAN, de la fédération anarchiste, de Naomi Klein ou de Phil Zimmerman, l'inventeur de PGP. Dans sa forme et la nature de ses écrits, 911 ressemble fortement aux pages spéciales consacrées par le webzine collaboratif Alternet au même sujet. - [IRIS->http://iris.sgdg.org] : la célèbre association IRIS représentée par Meryem Marzouki s'est opposée en termes très détaillés aux dispositions prévues par la LSI. Elle y a, de longue date, consacré un [dossier->http://www.iris.sgdg.org/actions/lsi/] qui représente à ce jour la meilleure mise au point que l'on puisse trouver sur cette loi fourre-tout. Iris n'a donc pas manqué de réagir aux amendements d'urgence qui sont en train d'être examinés par le sénat, tirés du même projet de loi. Elle cosigne avec le R@S, le SNUI et Sud-PTT une [pétition->http://www.iris.sgdg.org/actions/loi-sec/] ouverte aux individus. - [BugBrother->http://www.bugbrother.com] : cofondateur de LSI-jolie, ce site fait aussi partie de l'association Privacy International, organisatrice des « Big Brother Awards ». Il constitue une incomparable source d'information militante sur toutes les questions touchant à la surveillance électronique. - et à l'étranger... : le gouvernement Jospin n'a pas l'apanage de l'inclination sécuritaire en ces temps troublés. Il est même un des plus modérés par rapport à ses équivalents britanniques et américains. Les Etats-Unis qui sont bombardés depuis le 11 septembre de projets de loi plus répressifs les uns que les autres a vu fleurir les premiers sites d'information et d'action pour la défense des libertés civiles. Citons en particulier [Wartimeliberty->http://www.wartimeliberty.com/] et [la coalition In Defense of Freedom->http://www.indefenseoffreedom.org/].
2001-10-12 23:51:48
Homo Numericus n'a pas pour habitude d'adopter des postures militantes. Depuis sa fondation, le site a toujours tenté de reconstituer les débats de société autour des technologies numériques en gardant un minimum de [neutralité->article 7], en cherchant à ne pas s'ajouter aux nombreux sites défendant telle ou telle opinion. Mais aujourd'hui, la [situation-> http://www.lemonde.fr/article/0,5987,3210--233390-,00.html] est un peu particulière. Depuis plus d'un an, le gouvernement prépare une grande loi sur la société de l'information dont les dispositions ont déjà fait l'objet de débats passionnés. Nous avons rendu compte dans [ces colonnes->article 2] de ces dispositions et des critiques qu'elles ont soulevées. La plupart des observateurs attendaient avec une certaine impatience le débat parlementaire que la LSI devait susciter cet automne, débat louable et nécessaire dans la mesure où il devait déterminer les premières règles d'usage par lesquelles notre société se devait d'encadrer les nouvelles technologies, en tenant compte en particulier des changements que celles-ci ont commencé à provoquer dans les rapports sociaux, la protection de la vie privée ou la liberté d'expression. Aujourd'hui, les choses ont changé. Démembrée, la LSI passera dans notre corpus législatif sans aucun débat, par l'intermédiaire d'amendements d'urgence ajoutés à la loi sur la sécurité quotidienne, dans la précipitation et la confusion, à la faveur d'événements chargés d'émotion. C'est à la fois cette procédure et le contenu de dispositions attentatoires à la liberté que conteste l'association IRIS à travers une [pétition->http://www.iris.sgdg.org/actions/loi-sec/] qu'elle propose à la signature. Pour beaucoup, les débats complexes qui ont surgi autour de questions aussi pointues que celles sur la durée de conservation des données de connexion, la réglementation de la cryptographie ou la confidentialité des la correspondance électronique, ne sont qu'un des épiphénomènes qui agitent régulièrement la petite communauté des fondus d'informatique, isolés dans leur monde à part, leur cyberespace atopique et si mystérieux. Il s'agit pourtant de bien plus que cela. Que les dispositions sécuritaires incriminées dans la LSI soient mêlées à d'autres de même nature mais touchant au monde physique, comme la perquisition des véhicules, de quartiers tout entiers, la délégation des droits de fouille corporelle à des sociétés de vigiles, devraient mettre la puce à l'oreille de tous ceux qui tiennent le cyberespace pour quantité négligeable. Contrairement aux poncifs habituellement véhiculés par la presse grand public et une bonne partie des intellectuels généralistes, Internet n'est pas une planète isolée. Bien au contraire, il joue un rôle de vigie hyper-sensible, révélateur des tendances profondes et pas toujours visibles qui traversent nos sociétés. Cela est particulièrement vrai des questions relatives à la liberté d'expression. Des organisations comme Reporters Sans Frontières ont d'ailleurs très vite compris que défendre la liberté d'expression sur le net, c'était défendre la liberté d'expression tout court, et la défendre très en amont, parce que c'est sur ce medium que les problèmes surgissent le plus rapidement et avec le plus d'acuité. « Le diable se cache dans les détails »...ou dans les amendements : sous couvert de mesures très techniques et isolées, le gouvernement est sur le point, à la suite d'ailleurs des gouvernements américains et britanniques, d'enclencher un processus qui nous ferait progressivement et insensiblement passer d'une soi-disant « société de l'information » à une bien réelle société de surveillance. Pour toutes ces raisons, Homo Numericus a signé la pétition proposée par IRIS, et appelle ses lecteurs à faire de même. [Accéder à la pétition-> http://www.iris.sgdg.org/actions/loi-sec/]
2001-10-25 00:16:20
Le gouvernement n'aura pas d'union sacrée sur les amendements à la Loi sur la Sécurité Quotidienne (LSQ). Ces amendements, rédigés au lendemain des attentats du 11 septembre, ont déjà fait l'objet de très vives réactions de la part du [Syndicat de la Magistrature->http://www.syndicat-magistrature.org/article.php?id=93], de [Reporters sans Frontières->http://www.rsf.org/html/europe/cplp01/cp01/091001.html] et de la [Ligue des Droits de l'Homme->http://62.23.50.12/actu_derniereheure.cfm?idactu=352]. Comportant un volet spécialement consacré au cyberespace, ils sont la cible de collectifs d'internautes, tels [LSIjolie->http://www.lsijolie.net] ou l'association [IRIS->http://www.iris.sgdg.org/actions/loi-sec/] qui ont rédigé des pétitions dénonçant la "surenchère sécuritaire" qu'ils représentent et les graves menaces qu'ils font peser sur la protection de la vie privée. Foin de ces contestations, le gouvernement s'est tenu jusqu'à présent à son plan de bataille : à savoir une procédure d'urgence, d'ailleurs jugée anticonstitutionnelle, étouffant toute chance de débat devant les deux assemblées : à situation exceptionnelle, mesures particulières. Les amendements à la LSQ ont donc été adoptés sans coup férir par le sénat le 17 octobre dernier, en attendant de l'être par l'assemblée nationale dans les jours prochains. Au début de cette semaine, on pouvait croire l'affaire bouclée, la discussion close. Rien n'est moins sûr pourtant... -Premier élément : le nouveau candidat Vert à la Présidence de la République, Noël Mamère, vient de se prononcer contre ces mesures qu'il juge ["démagogiques"->http://fr.news.yahoo.com/011024/85/25zdx.html]. On n'aura pas oublié que Noël Mamère est aussi député, et même un député remuant, n'ayant pas manqué il y a quelques mois de se faire remarquer et rabrouer pour ses mauvaises manières par le Président de l'Assemblée, Raymond Forni. Le voici aujourd'hui candidat aux élections présidentielles : porter le fer à l'assemblée contre le gouvernement sur ce sujet précis, en se posant en défenseur de l'Etat de droit serait pour lui un bon moyen de se singulariser. -Deuxième élément : l'association IRIS a envoyé hier une [lettre->http://www.iris.sgdg.org/actions/loi-sec/analyse-deputes1001.html] aux députés, les enjoignant de veiller à la constitutionnalité des articles qui seront soumis à leur vote et de protéger les libertés individuelles sans se laisser intimider par une procédure qui est loin d'être justifiée, entendant faire pression sur la représentation nationale, traditionnellement plus encline à écouter la société civile que les sénateurs. Preuve que tout espoir n'est pas perdu dans le camp des opposants à ces amendements. -Troisième élément, et non des moindres : il existe normalement, depuis le mois de juillet, un organisme chargé d'organiser le débat sur les questions juridiques liées à Internet : le [Forum des Droits sur l'Internet->http://www.foruminternet.org/], même s'il fonctionne temporairement sur fonds de l'Etat, est juridiquement une association indépendante. Ce statut ambigu, longuement commenté sur [Homo Numericus->article 62], a sans doute constitué un obstacle important jusqu'ici à sa prise de position dans un débat qui le concerne tout de même au premier chef. Très attentive aux développements législatifs dès le lendemain des attentats, l'équipe du FDI, s'est, selon nos informations, longuement interrogée sur l'opportunité d'une intervention. D'autant plus qu'au moment de sa création, la présidente du Forum, Isabelle Falque-Pierrotin avait déclaré que celui-ci ne se saisirait pas du débat autour du Projet de Loi sur la Société de l'information (PLSI) dont sont issus quelques-uns des amendements présentés au sénat. Celle-ci vient de changer de position, en déclarant au magazine [Zdnet->http://news.zdnet.fr/story/0,,t118-s2097989,00.html], que le Forum se sentait légitime à aborder le débat sur les amendements à la LSQ, dès lors que ceux-ci sont adoptés indépendamment de la « grande » loi qui d'ailleurs n'existe quasiment plus. Entre-temps, le Forum, sévèrement critiqué par le webzine alternatif [uZine->http://www.uzine.net/article1175.html] pour son attentisme sur le sujet, décidait de publier un [dossier d'information->http://www.foruminternet.org/publications/lire.phtml?id=191] très complet qui reprend l'ensemble de la législation sécuritaire sur Internet, en France et à l'étranger, renvoie aux textes de lois et évoque les contestations de l'iris et de LSIjolie. Informer, mais pas plus, donc. C'est un nouveau pas que semble avoir franchi ce soir le FDI en décidant d'ouvrir un forum sur le thème « Cybercrime et démocratie ». L''organisme dirigé par Isabelle Falque-Pierrotin semble donc, contre toute attente, prendre le risque de se voir transformé en caisse de résonance de toutes les contestations contre les mesures sécuritaires sur Internet, et elles sont nombreuses et virulentes, à commencer par les fameux amendements que d'aucuns qualifient déjà de « scélérats ». C'est un risque qu'il lui faudra cependant assumer, s'il veut gagner auprès des internautes la légitimité qu'il estime devoir lui revenir. Plus profondément, on peut espérer que ce forum, qui n'est que le premier d'une série, annonce-t-on sur le site qui lui est consacré, permettra de voir émerger un lieu où s'exprime la « citoyenneté du réseau » que le FDI appelle de ses vœux. Il est encore trop tôt pour dire si le Forum des Droits sur l'Internet rompt véritablement ici le cordon ombilical qui le rattache volens nolens au gouvernement depuis sa récente création et est en train de s'affirmer comme un véritable terrain neutre où pourraient se construire des débats féconds et démocratiques. Il en prend cependant le chemin. -A consulter : le forum [« Cybercrime et démocratie »->http://www.foruminternet.org/forums/descr.php?f=3] du FDI.
2001-11-06 00:09:46
Le petit monde de la nouvelle économie n'avait pas besoin de cela : les principaux indicateurs sur l'usage du réseau et son ouverture au grand public sont au rouge, que ce soit en Europe ou aux [Etats-Unis->http://www.wired.com/news/mp3/0,1285,47968-2,00.html]. En France, la proportion d’individus qui comptent se connecter dans l’année est tombée à 6%, indiquait encore récemment un [rapport-> http://www.industrie.gouv.fr/biblioth/docu/4pages/pdf/4p152.pdf] du Ministère de l’Industrie. Pas de doute, la vague des nouvelles technologies est en train de retomber, et celles-ci sont en train de rater leur rendez-vous avec le public. Pourquoi ? Sans doute parce qu'elles n'ont pas su être porteuses de nouveaux usages, contrairement à d'autres innovations technologiques qui lui sont contemporaines. Plus globalement, les technologies liées à Internet n'ont pas su jusqu'à présent s'adapter aux exigences du public en matière de confort d'utilisation, et ne se sont pas jusqu'à présent adaptées dans notre civilisation du loisir. Les acteurs français du réseau se déchirent sur les causes d'un tel retournement de tendance et s'accusent mutuellement d'en être responsables. C'est de bonne guerre. Leurs arguments, bien franco-français négligent pourtant magistralement la dimension internationale de la crise que traverse l'Internet grand public et qui tient sans doute à d'autres raisons. Alors, la faute à qui ? Aux éditeurs de contenu ? Sans doute pas. Le web qui n'existe que depuis dix ans s'est considérablement enrichi depuis ses débuts. On y trouve aujourd'hui des informations et services de qualité sur tous les sujets possibles. La présentation de l'information a elle-même fait d'énormes progrès et la plupart des sites web, y compris personnels sont très agréables à lire, mélangeant, astucieusement pour certains d'entre eux, images, sons et textes. Surtout, on y trouve des informations dont on ne dispose nulle part ailleurs, toujours diverse et renouvelée, ce qui n'est pas un mince avantage dans des sociétés perpétuellement en quête de nouveauté. La faute aux concepteurs de logiciels ? Vieil argument, repris encore récemment par Le Monde qui qualifie d'"obscur" le fonctionnement d'un ordinateur. Difficile pourtant de leur jeter la pierre. Ces dernières années ont vu une explosion des formats permettant de diffuser sons et vidéos. L'ergonomie des logiciels liés à Internet est aujourd’hui quasiment parfaite et ne requiert plus de paramétrage compliqué, y compris pour le mail et les forums, désormais accessibles via un navigateur web. Compliqué à utiliser un ordinateur ? pas plus qu’une voiture ou un téléphone portable, deux inventions dont on connaît le succès. La faute aux fournisseurs d'accès ? Ce n'est pas faute d'avoir tenté d'attirer de nouveaux clients pourtant, à coup de forfaits d'ailleurs non rentables et finalement pas si chers que cela, comparés au coût mensuel d'autres services. En France, l'opérateur national est régulièrement pointé du doigt, à raison, pour les tarifs déloyaux d’interconnexion qu'il facture à ses concurrents, bien obligés de passer par lui pour accéder à l'utilisateur. Mais c'est oublier que d'une part, la France n'est pas le pays le plus cher pour l'utilisateur final, et que, encore une fois, la crise dépasse ses frontières. Alors, à qui la faute, sinon au pc lui-même qui reste [l'interface obligée->http://www.trends.be/FR/onlineTR/artikel.asp?show=EF%2FEF0123%2FNETCOMQQ_RVA.XML] depuis vingt ans pour accéder au réseau ? On a déjà eu l'occasion de le dire il y a quelques temps : le pc est inadapté à un usage familial et de loisir du réseau. Pour regarder la télévision, pour lire un bon livre ou pour feuilleter le journal ou un magazine, vous vous installez devant un bureau, vous ? Pour ma part, j’ai toujours privilégié le canapé, comme tout le monde. Et pour surfer sur le web, lire son courrier électronique, discuter avec des amis, regarder une video ou écouter du mp3, pourquoi voudrait-on que les gens se mettent ne serait-ce que dans une posture physique qui est celle du travail ? C'est pourtant la seule chose qu'on leur propose actuellement et s'il faut s'étonner de quelque chose dans ces conditions c'est bien plutôt qu'il y ait tant de monde à supporter ce régime. Le pc est mort, vive les tablettes graphiques ! Cela fait [des années->http://www.wired.com/news/print/0,1294,32392,00.html] que l'on annonce régulièrement la diffusion massive d'objets communicants permettant de se passer de l'interface pc, conçue dans le cadre d'une utilisation bureautique. Malheureusement, les essais de promotion commerciale d'interfaces alternatives, comme les fameux webpads ont jusqu'à présent été des échec. Après 3com avec son système [Audrey-> http://news.cnet.com/news/0-1006-200-5207113.html], ce fut au tour de Sony d'annoncer récemment qu'il mettait fin à la commercialisation de son [e-Villa-> http://news.cnet.com/news/0-1006-200-7013530.html]]. Du coup, les concurrents, comme Siemens avec son [Simpad->http://www.siemens.ch/icw/produkte/prod_simpad.htm] se sont réorientés sur le créneau professionnel, on se demande pour quel usage. Car, autant le pc est adapté à une utilisation professionnelle, autant un webpad, aussi sophistiqué soit-il, présente peu d’intérêt en dehors d’un salon. Erreur de casting donc, qui amène les fabricants de hardware à proposer des objets inadaptés à leurs segments de marché. A leur décharge, on relèvera tout de même que les technologies utilisées par ces petits bijoux sont toutes nouvelles et encore très chères, qu’il s’agisse de l’écran plat de type TFT ou de la communication sans fil à haut débit Wi-Fi, qui permet seule de surfer librement sans fil à la patte. Car c’est bien le prix qui constitue le principal obstacle à la diffusion massive d’interfaces matérielles permettant d’accéder au réseau dans le cadre d’une utilisation de loisir. Vendus entre 5000 et 10000 francs, les webpads coûtent aussi chers voire plus qu’un ordinateur de bureau qui a l’avantage d’être polyvalent. Le prix des éléments qui les composent baisse continuellement et il serait logique que les constructeurs fassent un effort pour proposer des produits plus accessibles financièrement. Cela ne semble pourtant pas le cas, si l’on en croit les [dernières machines présentées-> http://www.01net.com/rdn?oid=138161&rub=1765&page=0-138161]. Le jeu en vaudrait pourtant la chandelle. Une comparaison s’impose : en France, et plus largement en Europe, la dernière décennie a vu une explosion du marché du téléphone portable, désormais plus important que le filaire. Il est clair que le facteur essentiel ayant permis un tel développement fut le succès des « packs » permettant aux consommateurs de se procurer sans mise de départ des appareils dont le coût réel avoisinait les mille francs et parfois plus. Il est probable que sans ce système de crédit déguisé mis en place par les opérateurs, nombre de clients aurait hésité devant la somme à dépenser. Cette expérience est une source d’enseignement pour l’accès à Internet où rien d’équivalent n’a été proposé. En revanche, lorsque des grosses entreprises ont proposé à leurs salariés des formules finalement voisines, telle celle mise en place par [Vivendi->http://www.01net.com/rdn?oid=139585&rub=2798], portant sur l’acquisition d’un ordinateur de bureau pourtant, celles-ci ont suscité un énorme intérêt. Imaginons maintenant un fournisseur d’accès qui se comporterait comme un opérateur de téléphone mobile ; qui vendrait des packs à un franc fournissant un webpad, mettons le futur [AquaPad->http://www.vnunet.fr/actu/article.htm?numero=8463&date=2001-09-21], relativement peu cher comparé à ses concurrents, et vingt heures mensuelles de connexion pour environ 200 francs par mois, avec un engagement sur deux ans. Peut-être aurait-il plus d’atouts que les autres pour attirer un plus large public. C’est en tous cas ce que vient de parier le fournisseur d’accès américain Prodigy qui présentera prochainement aux Etats-Unis une offre à peu près [similaire-> http://news.cnet.com/news/0-1006-200-7753179.html?tag=mainstry]
2001-11-15 18:52:27
Aborder Internet comme un objet politique. Cette approche, qui apparaît évidente aujourd'hui, est relativement récente parmi les discussions qui se sont succédées sur ou autour d'Internet, depuis la création du réseau d'ordinateurs interconnectés en 1983. Longtemps monopolisées par les techniciens, celles-ci sont longtemps resté focalisées sur des questions relatives aux protocoles utilisés, aux investissements nécessaires ou à l'interconnexion des réseaux. Lorsqu'au milieu de la dernière décennie, le réseau est progressivement apparu comme un élément central de la « nouvelle économie », moteur de la croissance américaine, le gouvernement américain a cherché à se désengager de la gestion d'un outil de moins en moins dominé par les acteurs académiques, et de plus en plus par des compagnies commerciales. La décision prise par le gouvernement américain en 1998 dans ses « green papers » de privatiser la gestion du cœur du réseau, à savoir le DNS qui permet d'attribuer des noms de domaines et des adresses numériques aux différents acteurs du réseau, entraîna parallèlement la nécessité de créer un organisme chargé de définir des règles de fonctionnement pour les opérateurs privés qui allaient gérer effectivement le DNS, d'accréditer ces organismes et de résoudre les conflits qui s'ensuivraient. Ce fut l'Internet Corporation for Assigned Names and Numbers (ICANN), créé la même année. Paradoxalement donc, la privatisation du DNS, le désengagement du monde académique et l'entrée en puissance des acteurs commerciaux sur Internet entraîna presque mécaniquement l'idée qu'Internet pouvait être modélisé comme espace publique , soumis à une problématique directement politique de légitimité de ses règles de fonctionnement et des organismes chargés à la fois de les concevoir et de les faire appliquer. Dès lors, l'ICANN peut être défini comme un organisme dont le statut tente d'être adapté à un nouvel espace politique qui suscite bien des interrogations : le cyberespace. -Le cyberespace : un objet politique non identifié Les critiques pleuvent aujourd'hui à la fois sur la manière dont cet organisme fonctionne, sur les conditions dans lesquels il a été créé et sur l'incertitude de son statut. Mais il faut reconnaître à la décharge de ses créateurs qu'ils n'étaient guidés dans leur travail par aucun précédent, et que la nature même de l'objet que l'ICANN était appelé à gérer était bien problématique. Si l'on accepte d'utiliser la métaphore spatiale pour se représenter Internet, métaphore littéraire peut-être , mais bien plus intuitive et opérationnelle que les métaphores « noosiennes » proposées ici et là, on peut attribuer à cet « espace » les propriétés politiques suivantes : Internet est un espace international. C'est un espace hétéronome car constitué de l'interconnexion entre une myriade de réseaux propriétaires de statut privé pour certains d'entre eux, publique pour d'autres. C'est un espace que se partagent acteurs commerciaux, industriels, publics, et individuels. C'est un espace non physique dont l'occupation est temporaire et dynamique C'est un espace enfin qui n'existe que par la grâce du système d'allocation d'adresses : le DNS Et une grande partie du problème vient de là. Car si le réseau est globalement décentralisé, multiforme et donc, relativement incontrôlable, ou plutôt incontrôlé, il s'appuie pour exister sur une fonction limitée mais extrêmement centralisée au contraire : l'allocation universelle d'adresses numériques pour les machines, de noms de domaine pour les personnes et les organismes, et la correspondance entre les deux. L'ICANN constitue aujourd'hui la réponse inventée par le Département du Commerce américain aux problèmes politiques que pose la gestion du DNS. -L'ICANN : entre régulation et gouvernance Un organisme indépendant d'intérêts commerciaux ou gouvernementaux, où toutes les catégories d'acteurs de l'Internet seraient représentées, où toutes les parties du monde seraient partie prenante, suffisamment légitime pour établir des règles du jeu acceptées par tous, pour que des décisions critiques puissent être prises sans soulever une trop grand contestation, et surtout, capable d'empêcher d'autres acteurs de mettre sur pied un système de gestion des noms de domaine alternatif, voilà les préoccupations qui ont officiellement présidé à la formation de l'ICANN. A ces particularités, il faut en ajouter deux qui tiennent aux circonstances historiques dans lesquelles il a été créé : mis en place par le Département du commerce américain sur la base d'un « memorandum of understandings » , l'ICANN est temporairement soumis au contrôle du gouvernement américain qui poursuit l'objectif naturel de garder le contrôle du DNS tout en le légitimant en l'«universalisant » par l'entremise de l'ICANN. Par ailleurs, le statut particulier de cet organisme, une association de droit privé californien, tient au double souci d'éviter qu'il ne se transforme en agence onusienne, comme plusieurs acteurs européens en ont émis l'idée et qu'il ne s'institue en organisme de nature étatique, perspective opposée à une idéologie libérale partagée par le gouvernement américain, quel que soit sa coloration politique, et les acteurs de l'Internet, selon laquelle le réseau doit rester libre de tout contrôle étatique. Les bylaws qui représentent la constitution de l'ICANN, définissent un mode de fonctionnement très particulier motivé essentiellement par le soucis de représenter tous les acteurs de l'Internet et d'obtenir un assentiment consensuel sur les principales décisions prises. C'est pourquoi l'ICANN est dirigé par un « directoire » dont les membres sont issus de sous-organisations (« supporting organisation ») définissant chacune une activité couverte par l'ICANN : l'allocation de noms de domaine (DNSO), l'allocation d'adresses numériques (ASO), la concertation sur les protocoles (PSO). Chacune de ces organisations élit trois représentants au directoire. A travers eux, c'est l'ensemble des acteurs, institutionnels, commerciaux, industriels, privés, individuels, qui sont représentés. Les gouvernements nationaux sont quant à eux partie prenante du fonctionnement de l'ICANN à travers un Comité Consultatif Gouvernemental. Si l'ICANN s'en était tenu là, il n'aurait constitué qu'un organisme de régulation de plus, similaire dans son mode de fonctionnement à l'IETF ou au W3C pour Internet, à l'IUT pour les télécommunications. Mais les bylaws de l'ICANN lui imposaient un objectif de démocratisation qui devait entraîner la représentation du « peuple des internautes » au sein du directoire. Le mélange des genres entre organisme régulateur qui ne permet qu'à des participants qualifiés d'intervenir et fonctionnement démocratique qui entraîne très vite l'apparition de perspectives étatiques est à la source d'une confusion grandissante au sein de cet organisme et d'un glissement de statut qui n'était pas prévu au départ. Lorsque, deux ans après sa création, l'ICANN a courageusement mis sur pied un processus électoral « at large » devant permettre aux internautes du monde entier (tout détenteur d'une adresse électronique) de choisir l'un de leurs cinq représentants au directoire, il s'est lancé dans un processus non maîtrisé qui n'a fait qu'accroître la contestation. -Un électorat introuvable Extrêmement chaotique, le processus électoral mis en oeuvre durant l'été 2000 illustre les difficultés d'une adaptation d'institutions démocratiques éprouvées dans le monde réel au cyberespace. Les procédures de mise en place d'une démocratie représentative tout d'abord lui sont parfaitement inadaptée. Celles-ci reposent en effet, pour être valides, sur la constitution d'un corps électoral relativement bien défini et contrôlé, ce que ne permet pas l'utilisation de l'adresse électronique comme carte d'électeur. Les possibilités de fraudes sont extrêmement importantes et entraînent des procédures de validation (par courrier postal) et de vérification coûteuses et techniquement incertaines. Au total, l'ICANN a validé près de 76000 inscriptions parmi lesquelles un peu moins de la moitié ont effectivement participé au vote Cela fait peu, comparé aux 300 millions d'internautes recensés à l'époque, et grève sérieusement la représentativité du scrutin. De manière plus grave encore, les études qui ont été faites dans les mois qui suivirent la consultation ont montré que les votes s'étaient effectués majoritairement sur une base nationale. Pour l'Europe par exemple, qui disposait d'un siège sur cinq, l'Allemagne est arrivé largement devant les autres pays en terme de participation, et a logiquement envoyé l'un des siens, Andy Müller, au directoire. Ce dernier d'ailleurs a bénéficié du soutien et de la mobilisation de l'organisation dont il est issu, le Chaos Computer Club, qui compte plusieurs milliers de membres, et à ce titre, il ne représentait pas vraiment une candidature individuelle. Ces élections étaient les premières du genre, et même les premières tout court, puisque personne n'avait jusqu'alors organisé de suffrage direct au niveau mondial sans passer par des représentations intermédiaires comme les gouvernements nationaux. Elle ont permis de mettre en lumière la difficulté d'utilisation d'un mode d'expression démocratique qui n'a pas été conçu pour s'inscrire dans un espace électronique, pour lequel il reste sans doute à inventer des procédures adaptées, notamment en allant les chercher du côté de la démocratie directe. Dans les semaines qui ont suivi ces premières élections, l'ICANN mit sur pied un comité spécial chargé d'émettre des recommandations pour les prochaines élections. Intitulé At Large Study Commitee, ce groupe de travail présidé par l'ancien premier ministre suédois Carl Bildt a rendu ses conclusions à la fin du mois d'août 2001 . Il propose notamment de restreindre la composition du corps électoral aux seuls possesseurs individuels d'un nom de domaine et de faire payer une cotisation à l'enregistrement de celui-ci afin de supporter le coût des prochaines élections. Parallèlement, il propose que le corps électoral ainsi constitué dispose de sa propres organisation, au même titre que les acteurs institutionnels ou économiques. Cette dernière recommandation va dans le même sens que celle émise par une équipe de recherche indépendante, La NGO & Academic ICANN Study (NAIS), qui constate que la « conscience civique » d'un corps électoral aussi dispersé et hétérogène ne peut émerger spontanément mais doit être entretenue et suscitée par une organisation ad hoc . En revanche, en ce qui concerne le redéfinition du corps électoral proposée par l'ALSC, la NAIS joint sa voix au concert de protestations qui s'est élevé au lendemain de cette proposition. Celle-ci définit en effet un entre-deux difficilement acceptable : ou bien l'ICANN reste un organisme régulateur pur et simple, à compétence purement technique, et dans ce cas, il fonde sa légitimité sur des critères intrinsèques sans se soucier d'une quelconque représentativité démocratique ; ou bien l'ICANN devient une sorte de « gouvernement d'Internet » comme l'appelle déjà la presse généraliste, et dans ce cas, la démocratisation doit être totale, c'est-à-dire inclure tous les utilisateurs du réseau. La restriction proposée par Carl Bildt (pour des raisons purement pratiques et financières en fait), aurait un effet quasiment censitaire, excluant d'emblée les pays pauvres, puisque la « fracture numérique » comme on a coutume de l'appeler, entre pays du nord et pays du sud, déjà importante en ce qui concerne l'utilisation d'Internet, est encore plus criante quand il s'agit de la possession d'un nom de domaine, et serait encore aggravée par l'imposition d'une surtaxe. Finalement, cette proposition disent certains, ne donnerait pas la légitimité nécessaire à l'ICANN pour imposer ses décisions. -Quels enjeux pour la démocratie Des décisions contraignantes, des élections, un directoire, une légitimité et bientôt une taxe, l'ICANN ressemble de plus en plus à un gouvernement du réseau. Cette évolution, qui horrifie un nombre important d'acteurs, américains surtout, par réticence épidermique à tout contrôle étatique supplémentaire, est pourtant inévitable dans la mesure où les règles imposées par cet organisme dépassent de loin les simples considérations techniques pour lesquelles il a été primitivement conçu. L'ICANN en effet, qui détermine les règles de résolution des conflits sur l'attribution des noms de domaines, que ce soit par les registrars , ou le cas échéant par l'OMPI ou encore un autre des organismes qu'il accrédite, agit au croisement du droit de la propriété intellectuelle, du droit sur la concurrence ou encore de la répartition de ces ressources publiques que sont les noms de domaine. Et de fait, l'ICANN fait l'objet d'un nombre croissant de critiques, de plus en plus virulentes, ce qui, de manière paradoxale, renforce sa position comme centre de décision du réseau. Peuplé pour l'essentiel de techniciens ou de commerciaux peu accoutumés à assumer une relation d'échange politique avec un plus large public, le directoire de l'ICANN réagit très mal à ces critiques. Elles sont pourtant le signe d'une légitimation progressive de l'organisme comme instance réglementaire habilitée à arbitrer entre des intérêts divergents. L'introduction au sein de l'ICANN de directeurs issus de l'élection directe, comme Andy Müller ou Karl Auerbach a ainsi provoqué l'émergence de débats sur la manière dont l'ICANN ou les organismes qu'il accrédite, arbitrent les conflits entre acteurs commerciaux et non-commerciaux. De manière générale, se dessine une ligne « citoyenne » autour de ces deux hommes qui considèrent que dans le partage des noms de domaine, les acteurs commerciaux sont outrageusement avantagés par rapport aux particuliers. A l'extrême opposé, l'ICANN, chargé à ses débuts d'organiser la concurrence sur le marché des enregistrements de noms de domaine, là où existait un monopole de fait de la part de Network Solutions, a été très critiqué pour l'accord qu'il a signé récemment avec cette même compagnie (désormais englobée dans Verisign) et qui, semble-t-il, l'avantage outrageusement. Enfin, l'introduction de nouveaux noms de domaine de premier niveau (les biz, info, etc.) a suscité de nombreux mécontentements parmi les registrars du fait de sa lenteur et de sa parcimonie. Fait significatif, des acteurs purement commerciaux comme New.net, partisans d'une liberté totale dans l'introduction de nouveaux noms de domaines, engagent un dialogue raisonné avec l'ICANN sur la politique à établir en la matière, construisant une discussion non dénuée d'importance sur la rareté de ces ressources naturelles que constituent les noms à l'ère numérique. En quelques années, l'ICANN s'est imposé au centre d'un réseau censé en être dépourvu. En partant d'une compétence très limitée et purement technique, il a progressivement basculé dans un registre politique, suscitant l'effroi de certains, l'intérêt d'autres. L'aridité des discussions qui le traversent est un obstacle évident au processus de démocratisation qu'il a engagé récemment. Mais celui-ci est probablement représentatif de l'évolution que connaissent les démocraties modernes, où de larges pans d'activité, de par leur technicité ou leur nature internationale, échappent à la souveraineté populaire qui s'exerce au sein des parlements nationaux. Celle-ci ne peut être retrouvée qu'au sein des organismes techniques où l'on peut très bien imaginer que de simples citoyens siègent aux côtés des experts. De ce point de vue, l'expérience que l'ICANN est en train d'engager n'est pas dépourvue d'intérêt et pourrait très bien ouvrir la voie à d'autres expériences, dans d'autres domaines. (Cet article a été publié dans la revue [Mouvements->http://www.mouvements.asso.fr/no_18.htm])
2001-10-11 00:00:00
La nouvelle a été amplement relayée par la presse spécialisée : les attentats du 11 septembre ont eu pour conséquence le démembrement du Projet de loi sur la Société de l'Information dont plusieurs dispositions concernant notamment la cryptographie et la surveillance des connexions sont sur le point d'être proposées en amendements d'urgence à la loi sur la sécurité quotidienne. Le site Expression Publique vient d'apporter un éclairage intéressant sur le sentiment que de telles dispositions inspireraient aux internautes. Ceux-ci étaient invités à répondre à la question "Internet est-il un atout aux mains des terroristes ?". Parmi les 700 réponses collectées depuis le 25 septembre dernier, une nette majorité refuse de délivrer un blanc-seing aux autorités publiques pour surveiller davantage le réseau. Ainsi 60% des internautes qui se sont exprimés désapprouvent la prolongation à un an de la conservation des données de connexion. De la même manière, 56% d'entre eux rejettent l'idée d'un "Carnivore" à la française et 52% souhaitent une libre usage des outils de cryptographie. Selon Expression Publique, ces réponses sont le signe que les internautes restent attachés à Internet comme espace de liberté d'expression. Ainsi, près de la moitié de ceux qui se sont exprimés sont favorables à l'existence de sites en faveur d'Oussama Ben Laden, sans en partager évidemment les thèses. Manifestement, sur Internet, Voltaire a fait quelques émules. La démarche consultative entreprise par Expression Publique influencera-t-elle le gouvernement Jospin, récemment accusé par la LDH et le Syndicat de la Magistrature de perdre son sang-froid ? Il y a peu de chances dans la mesure où elle ne reflète que l'opinion d'une minorité active, bien différente dans son positionnement à la masse de la population, globalement indifférente aux questions de cette nature et dont les penchants sécuritaires sont entretenus par le matraquage des "big media". VOIR EN LIGNE : [Expression publique->http://expression-publique.com]
2001-08-31 00:00:00
Le texte du projet de loi sur la société de l'information a enfin été déposé sur le bureau de l'Assemblée Nationale après son adoption en conseil des ministres. L'évolution la plus importante du texte, après avis des autorités concernées, touche au rôle que le CSA devrait jouer dans la future régulation de l'Internet français. On sait que ce point a fait l'objet de nombreuses polémiques, et d'une revendication constante de la part de cet organisme, notamment depuis le Sommet mondial des Régulateurs en 1999. La dernière étape de l'avant-projet de loi établissait que l'extension en ligne de productions audiovisuelles relevaient effectivement du CSA. Par ailleurs, le texte faisait de la "communication publique en ligne", un sous-ensemble de la communication audiovisuelle sans attribuer de compétence spécifique à cet organisme en matière d'Internet. L'avant-projet de loi restait donc en quelque sorte au milieu du gué comme l'on fait remarquer aussi bien les opposants (l'IRIS) que les partisans (le CSA) de ce genre d'attribution. Le texte proposé à l'examen de l'Assemblée Nationale semble donc plus cohérent de ce point de vue puisqu'il établit dans son article 6 que "La communication publique en ligne est libre dans les conditions prévues à l'article 1er de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication" (la loi de 1986 définit entre autres la sphère de compétence du CSA). Il ne s'agit bien sûr que d'une déclaration théorique et les attributions effectives du CSA en matière d'Internet restent limitées à l'émission de recommandations en matière de concurrence et de pluralité d'expression. Le dernier communiqué de presse de l'IRIS souligne l'absurdité d'une telle compétence pour Internet, pluraliste par définition. Il reste malgré tout que cette disposition soulève une question importante, parfois négligée à tort par les défenseurs du "web indépendant" : la concentration à laquelle on a assisté ces dernières années dans le secteur de la communication (presse, édition, audiovisuel, mutlimédia, Internet) fait peser une grave menace sur la pluralité des sources d'information. Dès lors, il n'est pas totalement absurde d'envisager la "communication publique en ligne" comme un sous-ensemble de la communication audiovisuelle, comme le fait la LSI, dans la mesure où, dans la stratégie globale de communication des groupes dominants, Internet n'est effectivement qu'un canal de diffusion parmi d'autres d'un contenu multi-supports défini en amont, et d'imaginer que le CSA ait son mot à dire sur la question. On pourra s'interroger en revanche sur le poids d'un organisme à compétence strictement nationale face à des groupes dont les dimensions dépassent largement le territoire français.]
2001-09-20 00:00:00
Décidément, le Krach des valeurs de la nouvelle économie n'a pas que des effets négatifs. Depuis quelques mois en effet, au cours desquels on a vu disparaître les services les plus absurdes proposés par des start-up en mal d'imagination, c'est au contraire de nouveaux produits bien adaptés aux besoins des internautes qui apparaissent. On sait que l'une des promesses non tenues de ce secteur concerne le micro-paiement. Jusqu'à présent, personne n'avait réussi à proposer un service de ce type qui tienne la route. La filiale en ligne de BNP-Paribas, Banque Directe, nous permet désormais d'effectuer des paiements par e-mail. Minute Pay, c'est son nom, vous permet en effet, après enregistrement, de transférer des sommes d'argent sur le compte d'un autre utilisateur, qu'il soit commerçant, association ou simple particulier, exactement de la même manière qu'avec un mandat. A cette différence près que ni le débiteur ni le créancier n'ont besoin de se déplacer. Le système semble relativement simple : Minutepay fonctionne comme une banque : en s'inscrivant, chaque utilisateur ouvre un compte qui joue le rôle d'interface entre le système de transaction interne à MinutePay et son vrai compte en banque. Et pour tous ceux qui ont peur de donner leurs coordonnées banquaires sur Internet, il est possible de créditer son compte par chèque. Simple, non ? Reste quelques interrogations qui ne manqueront pas d'être soulevées : qu'en est-il par exemple de la sécurisation du système ? L'expérience de Banque Directe en la matière n'est pas pour rassurer : on se souvient que l'année dernière, le site Kitetoa s'était fait un malin plaisir de révéler comment les login de leurs clients se promenaient sur un serveur web en libre-service.
2001-11-18 23:47:34
Nos amis belges... C’est par cette expression condescendante que les journalistes français évoquent souvent nos voisins, expression qui connaît plusieurs variantes selon le pays francophone dont ils parlent. Pourtant en matière de créativité sur le réseau, les Français feraient bien d’en prendre de la graine, tant il est vrai qu’au sein de la francophonie, ils se trouvent terriblement à la traîne. On sait déjà que si le français est en bonne place parmi les langues parlées sur le réseau, ce n’est pas grâce à la production française, mais à celle qui nous vient du Canada, et singulièrement du Canada francophone qui a su exploiter très tôt les possibilités du nouveau media ; bien plus tôt que la France très en retard par rapport à ses voisins européens. Le gouvernement canadien par exemple est un des plus avancé dans le domaine, juste après les pays nordiques, comme l’a confirmé une récente étude publiée par la [Sofres->http://www.sofres.com/etudes/pol/091101_egouv_fr_full.pdf]. Le net belge se distingue pour sa part par sa créativité, comme en témoigne par exemple Cybercafé21, un titre qui désigne à la fois un site web, une émission de radio et plus largement une communauté de passionnés. [Cybercafé21->http://cybercafe.exmachina.net/index.php], c’est d’abord une excellente émission de radio sur la cyberculture, diffusée tous les vendredis sur Radio21, la chaîne « jeune » de la RTBF. Des journalistes passionnés, qui savent de quoi ils parlent, curieux de tout ce qui se fait sur le net et qui, surtout, s’intéressent aux aspects humains de la révolution informatique. Mais ce n’est pas tout ; car en complément de l’émission qui peut être écoutée en realaudio, on trouve un site web extrêmement riche et soutenu par une communauté de près de trois mille auditeurs-internautes. Cybercafe21.net fonctionne sous [phpnuke->http://www.phpnuke.org/], un logiciel gratuit de gestion de contenu sur le web qui a été adopté par des centaines de sites à travers le monde pour les possibilités qu’il offre en terme d’interactivité et de facilité de gestion. Pas d’investissement massif ici ; pas de superbe présentation, trop lourde pour être chargée par un banal modem, comme savent très bien les faire les médias français et sans interactivité aucune. Car, et c’est ce qui fait l’originalité de ce site, les auditeurs ont la possibilité de publier leurs news et leurs textes, au même titre que les journalistes accrédités, sans être relégués dans les forums comme c’est souvent le cas. Le résultat est une parfaite complémentarité entre la radio qui n’autorise que la diffusion et le web qui permet à une communauté de se constituer en échangeant autour de l’émission. Décliné sous forme thématique (cyberbizz, cybergames, et cyberculture), Cybercafé21 entretient un imposant annuaire de liens et se déploie aussi sous la forme de plusieurs listes de discussion thématiques. Mais là n’est pas le plus curieux ; car derrière cette émission, on trouve des personnages étonnants, tels [Brice Le Blévennec->http://www.brice.net/], un français de 34 ans au parcours singulier. Cet animateur de radio est aussi un « entreprenaute » véritable, bien différent de ces jeunes gens aux dents longues et à la créativité inexistante que nous assénaient les magazines au plus fort de la bulle spéculative sur la net-économie. Créateur du studio de communication Ex-machina qui a depuis évolué jusqu’à devenir une importante [web-agency belge->http://www.emakina.com/]>, il s’est investi dans différents projets, à l’image de [ContactOffice->http://www.contactoffice.com/] qui offre un des meilleurs services de bureau virtuel actuels. Cela ne l'empêche pas d'animer chaque semaine avec passion son émission sur Radio21. Vraiment étonnants nos amis belges...
2001-11-28 16:02:30
Les attentats du 11 septembre n'en finissent pas de propager leur onde de choc, y compris dans le monde numérique. Après les aménagements législatifs pris par plusieurs pays, la France, la Grande-Bretagne, les Etats-Unis notamment, la « militarisation » du réseau s'amplifie avec la création d'une garde nationale informatique aux Etats-Unis, composée de citoyens volontaires. Selon le [New York Times->http://www.nytimes.com/2001/11/26/technology/ebusiness/26NECO.html?searchpv=past7days&pagewanted=print], cette unité constituerait une sorte de réseau de veille permanente, plus à même de protéger les intérêts américains d'une attaque cyberterroriste. Cyberterrorisme : c'est le dernier mot [à la mode->http://www.nytimes.com/2001/11/23/technology/23CYBE.html?todaysheadlines] dans le village numérique. Il désigne une attaque concertée contre des éléments vitaux du réseau, typiquement des routeurs ou des serveurs de noms de domaine. Capable de paralyser toute communication, et donc d'atteindre des secteurs importants de l'économie, le cyberterrorisme a fait l'objet ces derniers jours d'une surenchère verbale dans nombre de magazines consacrés à Internet ; et toujours selon le vieux principe d'une reprise sans recul critique d'informations venues d'entreprises de sécurité informatique, ayant tout intérêt à alarmer les foules. Même la fameuse convention sur la cybercriminalité du Conseil de l'Europe ratifiée il y a peu par une trentaine de pays fut requalifiée par la presse comme un [instrument de lutte contre le terrorisme->http://fr.news.yahoo.com/011122/1/2a9u3.html] (ce qu'elle n'est évidemment pas) Un peu de bon sens permettrait cependant de se rappeler qu'aucune attaque « cyberterroriste » n'a encore été lancée à ce jour, et que, pour l'instant du moins, la plupart des terroristes préfèrent s'en tenir à une version classique de leur action : assassiner des personnes physiques. Verser du sang reste à ce jour le moyen le plus efficace de propager la terreur ; bien plus que de provoquer une panne sur un routeur. A fortiori, le cyberterrorisme serait une bénédiction s'il absorbait l'essentiel de l'énergie des groupes malveillants et les détournaient de commettre des crimes physiques. Mais il ne faut pas rêver, hélas. Quoiqu'il en soit, l'obsession sécuritaire s'est propagée sur le réseau à la même vitesse que dans les médias traditionnels. Encore un signe, s'il en était besoin, que les débats qui parcourent le réseau sont de plus en plus étroitement intégrés à ceux qui existent ailleurs. Les plus récents débats sur la Loi sur la Sécurité Quotidienne en sont une preuve éclatante puisque les décisions contestées se rapportaient aussi bien au monde physique que numérique. Petit à petit, le net réintègre l'espace public de débats et perd de sa spécificité ; conséquence de son ouverture progressive à un plus large public et surtout, du fait que des non-techniciens y interviennent de plus en plus fréquemment. Ces derniers importent alors au sein du réseau des préoccupations différentes. [Reporters sans Frontières->http://www.rsf.org/internet/ennemis.html], par exemple, est l'une des passerelles les plus actives entre les deux mondes ; mais il faudrait aussi citer les associations de défense des consommateurs sur d'autres sujets (comme les pratiques commerciales des FAI), ou encore, fait notable et nouveau, des partis politiques comme Les Verts qui, par la voix de leur candidat officiel, viennent de prendre position contre la brevabilité des logiciels. L'entretien que Noel Mamère a accordé à [Transfert->http://www.transfert.net/fr/articles/imprime_article.cfm?idx_rub=87&idx_art=7827] est de ce point de vue extrêmement important ; d'abord parce que celui-ci reconnaît ne pas avoir de compétence technique en matière informatique et cependant être autorisé à parler au nom d'une légitimité démocratique ; ensuite parce qu'il réintègre ce débat dans la question plus large de la commercialisation de ce qu'il appelle « les biens communs de l'humanité », aux côtés de la brevabilité du vivant. L'informatique serait-elle devenue une chose trop sérieuse pour être laissée entre les mains des seuls informaticiens ?
2001-11-28 17:48:33
Un navigateur sans fioriture, sans gadget inutile, qui facilite la lecture et la consultation des pages web tout en conservant une interface agréable à l'oeil ; voilà à quoi peut se résumer Fastbrowser. Ce n'est pas grand chose apparemment ; pourtant, pour qui a suivi quelque peu l'évolution des navigateurs web depuis plusieurs années, c'est tout simplement du Saint Graal que l'on parle ici. Accompagné d'un module complémentaire de sauvegarde appelé NetPicker, ce logiciel primé par de nombreux sites de téléchargements dont le renommé Tucows, constitue tout simplement ce qu'on fait de mieux pour qui cherche à retrouver une information intéressante dans une masse importante d'information (moi, donc...). Revue des fonction qu'offre cette perle rare qui fonctionne à partir du moteur d'Internet Explorer. - Un bloc-note intégré : il suffit d'appuyer sur un bouton pour voir apparaître en sidebar un bloc-note où il est possible de copier du texte sélectionné dans une page web que l'on est en train de consulter. Petit bonus, il est possible de coller le code HTML qui correspond au texte. - Un vérificateur de liens : un bouton permet de vérifier la validité des liens contenus dans une page web, et éventuellement des les afficher sous forme de liste dans la sidebar (puis de les sauvegarder). - Des outils annexes comme un bouton de traduction automatique qui renvoie au moteur fourni par Google, un gestionnaire de cookies, un pop-up killer, un bouton permettant de naviguer au hasard, fonctionnalités pas vraiment nouvelles mais dont l'utilisation est simplissime et extrêmement rapide grâce à une présentation particulièrement claire. - Un système de gestions d'onglets : lorsqu'un lien ouvre une nouvelle page (avec une balise de type « _blank »), les navigateurs classiques ouvrent une nouvelle fenêtre et on finit vite par se retrouver submergé par un empilement de fenêtres qui encombrent progressivement le bureau (et font ramer l'ordinateur accessoirement). Fastbrowser pour sa part ouvre les nouvelles pages à l'intérieur de la même fenêtre et ajoute des onglets au bas de celle-ci, permettant de retrouver très rapidement la page que l'on cherche. Ce système de gestion de pages est similaire à celui d'Opera mais encore une fois, la présentation en est meilleure. - Cerise sur le gâteau, Fastbrowser intègre un utilitaire de gestion de groupes de favoris particulièrement pratique. Ainsi, il suffit de construire des groupes, par exemple thématiques, à partir de plusieurs adresses de pages web, dans la limite de 180 pages. Une fois le groupe de signets constitué, le navigateur permet en un seul clic d'ouvrir simultanément l'ensemble des sites référencés dans un groupe, chacun d'entre eux étant repéré par un onglet. Cette fonctionnalité est tout à fait intéressante car la plupart des [études->http://www.homo-numericus.bonidoo.net/article.php3?id_article=74] sur les pratiques de consultation du web montrent que les utilisateurs ont tendance a toujours revenir sur les mêmes trois ou quatre sites qu'ils consultent quotidiennement. Tendance d'ailleurs renforcée par les dernières innovations d'Internet Explorer qui présente d'abord les derniers favoris consultés (et cache par défaut les autres). Fastbrowser permet au contraire de retrouver le plaisir de feuilleter vingt à trente sites d'un coup sans perdre de temps à revenir systématiquement dans le menu des Favoris. Très utile sur le web où il faut survoler beaucoup de pages avant d'arriver à une information intéressante. - Netpicker est quant à lui un logiciel indépendant, mais intégré par un bouton dans Fastbrowser, qui permet de sauvegarder très rapidement des pages web, de les organiser en dossiers, éventuellement de les modifier (il intègre un mini-éditeur web), de les convertir en texte, et de les présenter de manière agréable afin de les retrouver plus rapidement, par exemple en créant automatiquement un index HTML de toutes les pages sauvegardées. Il est de ce point de vue un complément indispensable à Fastbrowser. Fastbrowser coûte 19$ en version basique et 29$ en version Pro NetPicker coûte 19$ Une version d'évaluation limitée de chacun des logiciels est disponible sur [le site de l'éditeur->http://www.fastbrowser.net/]
2000-00-00 00:00:00
Chaque semaine, recevez dans votre boîte aux lettres la liste des dernières publications proposées par Homo Numericus et ses blogs. Il suffit pour cela d'indiquer son adresse mail dans le formulaire ci-dessous, et de cliquer sur le bouton «Abonnement» Votre adresse e-mail ne sera pas transmise à un tiers et sera utilisée uniquement dans ce cadre pour vous envoyer la lettre d'Homo Numericus.
2000-00-00 00:00:00
2002-01-21 21:39:40
-Tendance Ce fut l'événement de la rentrée 2002 : lorsque le patron d'Apple présenta lors de l'exposition MacWorld à San Francisco le dernier né de sa gamme, le [nouvel iMac-> http://computers.cnet.com/hardware/0-1018-404-8400555.html?tag=st.co.1017.boxhl.1018-404-8400555], tout le monde se dit que les constructeurs d'ordinateurs étaient sur le point de franchir un grand pas. Pour la première fois, l'un d'entre eux présentait un ordinateur qui ne ressemblait pas à un ordinateur ; ni à une télévision portable, comme les premiers iMac, mais à un objet de la vie quotidienne, un objet décoratif, et pour tout dire une lampe de bureau (de chevet disent les mauvaises langues). Le plus étonnant dans ce nouvel ordinateur, d'ores et déjà promis à un brillant avenir d'objet culte, c'est la disparition de la notion même d'unité centrale, désormais cachée dans le « pied » de l'écran qu'il soutient. Bien sûr, l'initiative vient d'Apple, connu depuis longtemps pour sa capacité d'innovation en matière de design. Mais les analystes ne s'y sont pas trompés, qui ont prédit que, comme à l'accoutumé, la firme à la pomme jouait ici le rôle de poisson-pilote pour toute l'industrie du hardware. Et d'abord en osant le pari de cacher littéralement l'unité centrale de son ordinateur, pour mettre en valeur l'écran plat. Le renversement de perspective est plus important qu'il n'en a l'air. Depuis ses débuts, l'informatique a toujours privilégié l'ordinateur lui-même, au détriment des éléments qualifiés de manière significative de " périphériques " ; y compris l'écran qui porte toujours le nom lui aussi significatif de " moniteur (de contrôle) ". Les premiers ordinateurs en étaient même dépourvus, et les premiers écrans furent installés uniquement pour s'assurer du bon déroulement des processus. Rien de tel ici. Car Apple choisit avec son nouveau modèle de ne plus privilégier l'ingénieur système, mais l'utilisateur qui s'intéresse plus au résultat qu'à ce qui se passe dans la boîte noire. Cette évolution était nécessaire bien sûr, contenue en germe depuis l'invention du personal computer, mais personne n'avait eu l'audace, ou le génie technologique pour faire évoluer les formes afin de les adapter aux nouveaux usages informatiques. Elle est surtout favorisée par la baisse considérable du prix des écrans plats, encore vendus à sept ou huit mille francs pour des 15 pouces, il y a à peine quelques mois de cela. L'amélioration des techniques de fabrication des dalles TFT, traditionnellement très délicates à mettre en oeuvre, a permis cette démocratisation relative d'un objet jusqu'ici réservé aux plus fortunés. Les grands esprits se rencontrent quelquefois, y compris dans l'industrie informatique. Et l'intervention de Bill Gates lors du dernier [Comdex-> http://www.01net.com/rdn?oid=167183], allait dans le même sens. En présentant les " Tablet PC " comme les ordinateurs du futur, c'est exactement cette évolution qu'il annonçait. Car qu'est-ce qu'un Tablet PC, sinon un pur écran plat ? Avec une grosse différence toutefois : les gadgets de Bill Gates ne disposent que de peu de ressources informatiques propres, et devront se reposer sur le futur réseau de services actuellement développé par Microsoft : .Net. Apple au contraire, qui ne dispose pas d'une technologie comparable, doit continuer dans la voie déjà balisée de l'ordinateur autonome, quoique pourvu d'une bonne connectique. C'est une futur bataille qui se profile donc en ce moment, entre deux conceptions radicalement différentes de l'ordinateur, simple point d'accès à un réseau lui offrant toutes les ressources dont il a besoin, ou machine indépendante, autosuffisante, ne se servant de ses possibilités de connexion que pour transmettre et communiquer. Quoiqu'il en soit, le pari de la firme de Cuppertino semble en passe d'être réussi car, aux dernières nouvelles, le [public se jetterait sur les petits bijoux-> http://www.liberation.com/chroniques/gassee.html], facturés tout de même à près de 12000 francs. Un produit manifestement si réussi a toutes les chances de remettre Apple en selle pour quelques années du moins...jusqu'à la prochaine révolution ?
2002-01-22 15:19:03
-Analyse « Nous nous sommes couchés sous la menace du gorille Microsoft. Ce matin nous nous réveillons face à un géant encore plus menaçant ». Voilà ce qu'écrivait [Scott Rosenberg->http://www.salon.com/tech/feature/2001/06/26/borg_intro/index.html], le rédacteur en chef de Salon.com au lendemain de la fusion AOL Time Warner. Les [rumeurs->http://washtech.com/news/media/14759-1.html] circulant sur un possible rachat du premier distributeur de logiciels Linux, Red Hat, par le géant des médias, semblent en effet confirmer l'agressivité d'un groupe bien décidé à renvoyer le monopole de Microsoft aux oubliettes de l'histoire. La force d'AOL, ce qui lui a permis de devenir le premier fournisseur mondial d'accès à Internet avec plus de trente millions d'abonnés, c'est son interface propriétaire, autrement dit son kit de connexion. Celui-ci a permis en effet de simplifier considérablement l'accès au réseau pour le néophyte, mais aussi de proposer à ce dernier une gamme de services spécifiques, filtrage pour les enfants, diffusion d'informations organisées en « chaînes thématiques », salons de discussion et messagerie instantanée. Mais pour fonctionner, l'interface propriétaire doit s'appuyer sur le système d'exploitation qui fait tourner l'ordinateur de l'utilisateur et, in fine, sur un navigateur web ; autrement dit, être dépendant de Microsoft. Historiquement, les deux entreprises ont donc été liées par des accords de diffusion réciproques : Microsoft inclutait le kit de connexion AOL dans son système d'exploitation (c'était le cas pour Windows 95 et 98), et AOL utilisait Internet Explorer comme navigateur par défaut. C'est pourquoi la grande force d'AOL est aussi devenue sa pire faiblesse. Car en quelques années, le champ de bataille de l'industrie du logiciel a considérablement changé : Microsoft, tout comme AOL, ainsi que d'autres acteurs du secteur ont compris que le salut dans un domaine où la concurrence était si âpre, résidait dans l'intégration verticale, depuis la création du contenu jusqu'à la maîtrise du bureau de l'utilisateur. Il s'agit d'offrir à celui-ci un énorme « bundle », un paquet cadeau où tout est compris, où rien n'est configurable, où aucune possibilité de choix ne lui est laissée. Et chacun a utilisé son produit phare d'origine comme point de départ pour former une chaîne ininterrompue : Microsoft se sert de son système d'exploitation pour imposer son navigateur (IE), son lecteur multimédia (WMPlayer), son portail (MSN), son système d'identification (Passport) ses contenus (MSNBC, Corbis, etc.). AOL se sert de son interface pour diffuser son logiciel de messagerie instantanée (AIM) et surtout les contenus éditoriaux, cinématographiques et musicaux développés par Time Warner. On le voit bien, si l'offre en terme de contenus d'AOL est bien plus riche que celle de Microsoft, ce dernier possède l'indéniable avantage d'être déjà présent sur la quasi-totalité des PC, et déjà bien implanté sur les appareils de communication nomades (PDA, webpads) avec son système d'exploitation adapté, Windows CE. AOL a toujours été conscient de cette faiblesse. Et l'entreprise de Dulles a tenté d'y remédier en mettant en place une stratégie d'encerclement dont la dernière brique vient peut-être de se mettre en place : le [rachat->http://news.com.com/2100-1023-218468.html] de Netscape en 1998, le refus d'expulser le lecteur de Real Networks de son kit de connexion, comme le [demandait Microsoft->http://www.vnunet.fr/V25/svm/actu/article.htm?numero=7820&date=2001-06-18], la participation l'année dernière à la grande coalition mise en place par Sun pour contrer Passport, symboliquement appelée [Liberty Alliance->http://www.projectliberty.org/], la bataille sur la [messagerie instantanée->http://www.latimes.com/technology/la-000093189nov22.story] qui dure encore, en ont formé les étapes préparatoires. C'est dans cette perspective que l'acquisition d'un système d'exploitation concurrent à celui de Microsoft, Linux que Bill Gates qualifie lui-même de « plus grand danger » pour sa société, ferme la boucle en fournissant à AOL le dernier élément dont il avait besoin pour se passer éventuellement des logiciels développés par son concurrent. [Eventuellement->http://news.com.com/2100-1001-819578.html]. Car dans cette affaire, il faut garder en mémoire qu'AOL, contrairement à ce qu'on aurait pu penser, n'a encore rien fait du navigateur développé par Netscape. Il est probable en effet que le bluff soit un élément essentiel d'une stratégie qui consiste simplement à montrer à ceux d'en face qu'ils ne sont pas seuls à occuper le terrain. La guerre n'est donc pas encore tout à fait déclarée entre les deux gorilles. Chacun fourbit ses armes, place ses pions sur la carte et regarde son concurrent en chien de faïence. Mais les deux vrai-faux belligérants ont conscience que dans un contexte économique déjà très fragile, personne n'a intérêt à déclencher les hostilités. Pour l'instant.
2002-01-29 00:00:00
-Evénement C'est dans le décor très éclectique et alternatif du Flèche d'or Café que furent remis, pour la deuxième année consécutive en France, les [Big Brother Awards->http://www.bigbrotherawards.eu.org/2001/] récompensant les administrations et entreprises qui ont le plus oeuvré pour le renforcement de la surveillance électronique et le mépris des libertés individuelles. Près d'une trentaine d'organismes étaient en compétition pour recevoir le trophée dans l'une des cinq catégories proposées par les organisateurs. Ceux-ci, affiliés à l'association britannique Privacy International, s'étaient associés cette année à la deuxième rencontre européenne des contre-cultures digitales, la No-Zelig Conf, qui s'est déroulée le week-end dernier. C'est donc finalement le tout-« antisécuritaire » du réseau qui soutenait l'initiative : LSIjolie, Samizdat, le réseau Voltaire, BugBrother parmi d'autres. Le contexte très particulier de l'année 2001, marqué par le renforcement de le surveillance électronique dans le cadre de la Loi sur la Sécurité Quotidienne, désignait tout naturellement le gouvernement, et singulièrement les services de Matignon qui en ont commandé les amendements, à l'attention d'un jury composé de défenseurs connus des libertés publiques, comme Sébastien Canevet, Christine Tréguier de LSIjolie ou Jean-Pierre Petit. Et de fait, le gouvernement reçut un BBA « pour l'ensemble de son oeuvre », accompagné d'une mention spéciale pour les parlementaires français qui ont voté comme un seul homme les textes qu'on leur proposait. Mais le jury, où l'on retrouvait Emmanuelle Cosse, présidente d'Act-Up Paris, Anne-Lise Martenot du collectif Souriez, vous êtes filmés, ou encore Nathalie Vallet, n'a pas voulu se laisser obséder par une actualité récente et somme toute relativement limitée dans la vie quotidienne. C'est ainsi que furent distingués différents dispositifs jugés attentatoires aux libertés individuelles, comme la carte Navigo, prochainement mise en place par la RATP, et qui permettra d' »identifier » et de « tracer » les voyageurs dans leurs déplacements quotidiens. La mairie de Mantes-la-Jolie fut pour sa part « félicitée » pour son projet de vidéosurveillance permettant de contrôler sans peine et de manière automatique la place centrale du Val Fourré. Au cours de la remise du prix, Jean-Pierre Petit a tenu à signaler que c'était ainsi la stigmatisation de l'ensemble des « quartiers » qui était condamnée par le jury. Mais c'est à une entreprise privée qu'est revenu le Big Brother le plus intéressant et sans doute le plus inquiétant. Si la société Cegedim est inconnue du grand public, l'inverse n'est pas forcément vrai, car cette société leader européen de l'information médicale collecte auprès des médecins une somme impressionnante de renseignements sur leurs patients qu'elle obtient par le biais de leur ordinateur. Celui-ci est « offert », ainsi que le logiciel qui l'accompagne, et télétransmet automatiquement à la maison-mère les si précieuses informations qui alimentent une gigantesque base de données. Un bien beau palmarès au total, équilibré, récompensant jeunes premiers et vieux chevaux de retour, annonciateur d'une future société orwellienne tout à fait radieuse. Pour nous en prévenir malgré tout, les organisateurs ont tenu à féliciter par la remise du « prix Voltaire », les voix qui ont su s'élever cette année contre une telle évolution. La députée européenne Alima Boumedienne et le Syndicat de la Magistrature se sont partagés le prix pour avoir été parmi les rares à dénoncer la dérive sécuritaire de la plupart des Etats européens au lendemain des attentats du 11 septembre.
2002-01-30 00:00:00
-Tendance « Page fermée : ce site web a été fermé à la demande de Business Software Alliance. La promotion, la vente et la distribution de copies illicites de logiciels sur Internet constitue un délit ». Voilà ce qu'on peut lire sur un nombre grandissant de sites proposant des cracks, serials et autre « warez » de logiciels commerciaux. Et de fait, si la reproduction de logiciels ou la diffusion de moyens permettant sa mise en oeuvre a toujours été illégale, il faut bien dire que traditionnellement, les pouvoirs publics comme les entreprises éditrices ont souvent été relativement indulgentes à l'égard de ce qu'on appelle la copie privée. Car ce sont les entreprises qui jusqu'ici ont fait l'objet de la surveillance la plus stricte, d'une part parce qu'elles représentent la plus grosse source de revenues pour les éditeurs de logiciels, d'autre part parce qu'elles sont plus faciles à surveiller. Ainsi, la Business Software Alliance rapporte sur [son site->http://www.bsa.org/france/press/newsreleases//2001-05-25.612.phtml] qu'elle a engagé près de cent cinquante procédures dans le monde entier au cours du premier trimestre 2001, chiffre relativement faible au demeurant qui illustre bien la faiblesse des pratiques de copie illégale au sein des entreprises. Il n'en va pas forcément de même pour les particuliers et autre pirates « free lance ». Car ce sont alors par milliers que se comptent les sites et patchs permettant de « cracker » Office XP, Photoshop et autres Webexpert. A ce petit jeu de la copie illégale, tout le monde y trouve son compte : les pirates qui relèvent ainsi des défis d'habileté technique, les particuliers qui disposent du même coup de logiciels professionnels dont le prix est bien trop élevé pour qu'ils en fassent l'acquisition. Jusqu'à récemment, la plupart des éditeurs de logiciels semblaient avoir fait leur deuil de ce type de pratiques : ils savaient pertinemment que les utilisateurs individuels n'avaient de toute façon aucune intention de débourser les milliers de francs nécessaires à l'achat de leurs produits. Il semble bien qu'il n'en soit plus ainsi. Le premier coup de semonce est venu de Microsoft qui a décidé de mettre en place un système d'activation pour ses nouveaux logiciels de la gamme XP, système rendant bien plus malaisée la copie, puisqu'il ne suffit plus de disposer d'un CD d'installation accompagné de la clé chiffrée qui en permet le fonctionnement. Mais on aurait tort de ne pointer que cette entreprise dans la mise en oeuvre de systèmes anti-piratages. Car le mouvement est bien plus général, et s'applique désormais aux CD musicaux, aux DVD et aux logiciels de lecture de livres sur supports électroniques. L'industrie musicale et cinématographique est en effet venue apporter ces derniers mois un soutien inattendu, et remarquablement actif, à une guerre que menait tout seuls jusqu'alors les éditeurs de logiciel. CD musicaux et DVD sont évidemment bien plus intéressants à protéger car ils s'adressent directement au grand public, et leurs éditeurs semblent prêts à aller très loin dans leur protection contre la copie numérique, au point quelquefois d'en rendre l'utilisation, légale, extrêmement hasardeuse. C'est ce qu'a expérimenté récemment l'éditeur Adobe, avec son e-book reader, doté lui aussi d'un [système d'activation->http://www.zdnet.com/anchordesk/stories/story/0,10738,2628171,00.html] dont le fonctionnement est tellement compliqué qu'il en rend le logiciel quasiment inutilisable. Même constat pour les [CD de dernière génération->http://www.wired.com/news/print/0,1294,49188,00.html] distribués par Universal Music, dont la lecture sur ordinateur, et même sur certaines chaînes Hi-Fi est rendue impossible à cause de leur protection anti-copie. Les systèmes de protection ne sont pas les seules ressources dont disposent les chasseurs de pirates à travers la planète. Il est aussi devenu plus simple pour eux d'accroître leur [contrôle sur Internet->http://www.wired.com/news/technology/0,1282,40866,00.html] qui est le moyen privilégié de diffusion des copies illégales. Ainsi en 2001, la BSA a envoyé plus de [six mille demandes->http://www.bsa.org/usa/press/newsreleases//2001-10-17.755.phtml] de fermeture de sites web aux hébergeurs, un chiffre record qui selon toute vraisemblance n'est pas prêt de décroître. Et nombre d'entre eux ont été effectivement fermés, opposant un démenti flagrant à tout le discours dont on nous a rebattu les oreilles ces dernières années sur le prétendu caractère « incontrôlable » du réseau. La vérité est que celui-ci dépend de ressources matérielles, câbles, routeurs, disques durs, gérés par des entreprises commerciales ou plus largement organismes auxquels il est très facile de demander de faire le ménage, ce qu'il font sans barguigner, par crainte de représailles juridiques pouvant leur coûter des sommes considérables. Et les Etats eux-mêmes ont leur rôle à jouer dans cette affaire. Aux Etats-Unis, les autorités fédérales se montrent chaque jour davantage sensibilisées sur ce sujet et n'hésitent plus à monter de très gros coup de filets comme récemment, celui qui a abouti au [démantèlement->http://slashdot.org/article.pl?sid=01/12/11/2226258] de la communauté Drink or Die. On sait qu'un grand nombre de produits piratés le sont dans les pays de l'Est, Ukraine, Russie, Tchécoslovaquie, ou alors, dans un nombre plus restreint de cas, en Asie du Sud-Est : Malaisie, Corée, Indonésie. Ces pays cumulent pour les pirates le double avantage de disposer d'infrastructures technologiques performantes doublées de personnels qualifiés, et dans le même temps de se soucier comme d'une guigne de la question très occidentale du copyright. Expulsés des pays occidentaux qui se sont dotés progressivement de législations ad hoc, telles le Digital Millenium Act, les pirates se sont beaucoup réfugiés ces dernières années dans le [« Far East »-> http://www.wired.com/news/print/0,1294,42346,00.html] du réseau où il est encore possible de faire à peu près ce que l'on veut. Il semble bien que ce dernier refuge soit près de se fermer à son tour. C'est l'analyse en tous cas que l'on pourrait faire des nouvelles de ces derniers jours et des [communiqués->http://www.wired.com/news/business/0,1367,49856,00.html?tw=wn20020122] pour le moins fantaisistes émanant de l'industrie de production de contenus numériques, tendant à faire croire que les réseaux de piratage dans les pays de l'Est servent à alimenter en argent frais les organisations terroristes ( !). Il ne s'agit bien sûr que de propagande, et d'un coup de bluff, visant à faire pression sur l'administration Bush afin qu'elle joue un rôle plus actif auprès des gouvernements étrangers. La ficelle est grosse, mais elle semble fonctionner puisque ces dernières semaines le Bureau américain du Commerce Extérieur a mis en place des [mesures de rétorsion->http://www.wired.com/news/politics/0,1283,49830,00.html] contre l'Ukraine, dans l'attente que ce pays se dote d'une législation plus respectueuse de la protection du copyright, au moins en matière de CD musicaux. Ce qui se déroule sous nos yeux n'est donc rien moins que la formation d'un front commun regroupant l'ensemble des producteurs commerciaux de contenus soumis à copyright : éditeurs de disques, industrie cinématographique, éditeurs de logiciels, une sorte de ©artel bien décidé reprendre l'initiative contre des pratiques qu'il estime contraires à son activité économique ; et à employer pour cela tous les moyens, technologiques, légaux et politiques.
2002-02-06 15:56:52
-Tendance « Tous les contenus sur tous les supports ». On connaît le mantra proféré à tout bout de champ par Jean-Marie Messier, le très médiatique patron du groupe Vivendi Universal. Mais on sait aussi que le pari est encore loin de se réaliser pour le groupe de communication qu'il dirige, ne serait-ce que parce que celui-ci ne dispose d'aucun accès direct à l'utilisateur final. Et dans la course à la grande convergence numérique à laquelle se livrent les « e-moguls », ce sont les cablô-opérateurs qui disposent d'une pièce maîtresse : la technologie et le service commercial qui les met directement en contact avec le grand public. La preuve, on vient de l'avoir avec l'offre que lance [Noos->http://www.noos.fr], ex Lyonnaise Câble, qui dispose de plus important réseau câblé sur le territoire national. Appartenant au groupe Suez, via sa maison-mère, Lyonnaise des eaux, cette société était destinée au départ à ne distribuer que des contenus télévisuels, service pour lequel fut conçu le fameux « plan-câble » dont on connaît le succès. Pour la Lyonnaise, c'est d'Internet qu'est venu le salut, lui permettant d'élargir son offre et son public en prenant en marche le train du « tout-connecté ». Car [Noos->http://www.noos.com] dispose maintenant d'un avantage non négligeable sur ses principaux concurrents, que ce soit du côté de l'Internet haut débit, et notamment la technologie ADSL, ou de la télévision par câble : la société parisienne se paie le luxe de pouvoir distribuer à la fois un bouquet numérique de chaînes télévisées, et à la fois une connexion haut débit à Internet. Elle vient d'ailleurs de diversifier cette dernière offre en proposant trois forfaits de connexion, selon la vitesse de transfert des données dont on souhaite profiter. Mais ce n'est pas tout. Car Noos vient de lancer un nouveau service, hébergé sur un portail multiservice très complet : [« Mon vidéoclub »-> http://monvideoclub.noos.fr/root/default.asp] permet en effet aux abonnés de visionner et/ou télécharger des films de cinéma contre un paiement qui tourne aux alentours de 20 euros. C'est tout simplement l'arlésienne de la « video on demand » (VoD) qui vient de pointer le bout de son nez en France. Pour ce faire, le câblo-opérateur s'est associé à Moviesystem, une société spécialisée dans l'offre vidéo packagée, gérant la rémunération des ayant-droits et disposant d'un accès privilégié aux catalogues Pathé et Europa Corp. A terme, les deux sociétés devraient donc proposer près de cent cinquante films en téléchargement. A l'essai, le nouveau service n'est pourtant pas aussi performant que veut le faire croire Noos. La technologie d'affichage employée, qui s'appuie sur le lecteur Windows Media Player, n'est pas très performante et restitue une image très pixélisée, que Noos qualifie de « proche du VHS » avec vraiment beaucoup d'optimisme. Pire encore, la diffusion en streaming souffre des aléas du débit que permet le réseau...lequel ne tient manifestement pas la distance. Car si tout se déroule bien dans les premières minutes de diffusion, l'image devient ensuite terriblement saccadée, voire bloquée, tandis que la bande-son suit son petit bonhomme de chemin. On se retrouve donc avec une sorte de diaporama, pas franchement agréable à regarder (même si c'est Dersou Ouzala). Il est vrai que notre essai fut effectué à une heure de pointe sur le réseau, juste après 20 heures. Mais s'il faut en plus attendre le milieu de la nuit pour regarder son film préféré, le jeu n'en vaut plus vraiment la chandelle. Là n'est pas l'essentiel. Car si la VoD est incontestablement le service star du portail Noos.fr, il n'est pas le seul. « Monjukebox », proposé en partenariat avec E-compil, une filiale de Vivendi Universal, permet à l'internaute de télécharger albums et morceaux de musique, voire de se composer lui-même sa propre compilation de titres, contre rémunération évidemment. Le cinéma, la musique, et maintenant la télévision, avec la diffusion en multicast de deux chaînes câblées, CNBC et Cinéinfo, sur le réseau Internet. Evidemment, ce service gratuit pour les abonnés Noos (et qui lui fonctionne à la perfection car il ne dépend pas de la congestion du réseau), fait un peu gadget, car dans la majorité des cas, les abonnés au service Internet du câblo-opérateur le sont aussi au service de télévision, ce qu'encourage d'ailleurs la société en proposant des tarifs groupés plus attractifs. Il peut s'agir cependant d'un premier essai vers une fusion totale entre les deux réseaux, d'une préparation de longue haleine des temps futurs, lorsque télévision et micro-ordinateur ne feront plus qu'un. Et le commerce électronique ? Noos a pensé à tout et propose désormais une galerie marchande, fruit d'une kyrielle de partenariats, quoique de petite envergure. Sans mentionner la foule de services associés que fournit désormais tout portail digne de ce nom : informations de proximité, agenda en ligne, webmail, etc. On l'aura compris, c'est tout à coup un futur possible d'Internet qui se dessine sous nos yeux. Cet avenir que l'on nous chante sur tous les tons depuis deux ans, c'est un des opérateurs les plus anciens du haut-débit qui est en train de le réaliser à grande vitesse, mais sans grand bruit, sans méga-fusion financière, mais de manière très efficace : un Internet « broadcastisé », ressemblant furieusement à une télévision interactive, avec laquelle il se distingue de moins en moins. Les futurs maîtres du réseau seront-ils les maîtres des contenus ou les maîtres des tuyaux ? Les Américains ont réglé depuis longtemps la question avec la fusion entre AOL et Time Warner qui n'avait de sens que dans cette perspective. En france, la situation est encore différente. Le plus amusant dans l'affaire est que les deux sociétés qui disposent d'un accès clé à l'une de ces ressources sans posséder l'autre, sont issues toutes deux de compagnies de distribution d'eau. De là à dire que les « contenus » qu'on nous promet se réduiront à une eau tiède insipide...
2002-02-06 16:01:08
-Analyse Maître de conférences, [Bernard Benhamou->http://www.netgouvernance.org] est depuis plusieurs années un inlassable vulgarisateur des problématiques liées à Internet. Fin connaisseur de la culture propre au réseau, il a récemment invité à Paris [Lawrence Lessig->http://www.netgouvernance.org/LESSIG.html], un juriste membre de l'Electronic Frontier Foundation, à venir parler de son dernier ouvrage, The Future of Ideas, un essai qui tente de tirer les conclusions du procès Napster et de l'importance considérable qu'a prise la législation sur le copyright dans la vie juridique américaine, et notamment sur le réseau. C'est pourtant un autre cheval de bataille qu'a enfourché depuis quelques temps le professeur de Sciences Po. Analysant l'évolution de la structure et des usages d'Internet depuis plusieurs années, il dénonce dans un [article->http://www.netgouvernance.org/IREPP.pdf] publié dans les Cahiers de l'IREPP, une dérive qui conduirait le réseau à abandonner sa structure historique d'échange multilatéral d'informations entre des acteurs égaux entre eux, pour se rapprocher des médias plus classiques diffusant unilatéralement un contenu émanant d'une source unique à destination d'une masse de récepteurs passifs. Et paradoxalement, ajoute-t-il, cette « broadcastisation » d'Internet est encouragée par la mise en oeuvre des technologies les plus en pointe, comme le haut-débit ou l'arrivée d'Ipv6 (la prochaine version du protocole par l'intermédiaire duquel s'effectuent les échanges sur Internet). Plusieurs éléments viennent étayer son constat : tout d'abord, le procès Napster qui mit fin au plus connu des systèmes d'échange de fichiers musicaux sur Internet est de première importance parce qu'il recèle une condamnation juridique d'un des fondements même d'Internet, à savoir l'échange entre des sources de données égales entre elles. Ce que la mode a voulu appeler par la suite p2p (« peer to peer ») est en effet présent dès les débuts du réseau, dans son architecture même...et est aujourd'hui menacé par une législation extrêmement restrictive sur la protection du copyright. A la force du droit viennent s'ajouter les technologies, spécialement celles qui reposent sur le haut-débit, car on oublie trop souvent de dire que le haut débit en question ne concerne que les capacités en réception des données, et non en émission, volontairement bridées par les opérateurs. D'un point de vue formel, l'échange n'est dès lors plus égal, car l'ordinateur de l'abonné devient peu à peu le terminal de réception d'un flux de données émanant d'une source unique ; en un mot, une télévision interactive. Même constat pour Ipv6 qui, différenciant les flux de données en fonction de leur nature, ce qui n'est pas le cas aujourd'hui, donnera la priorité aux contenus dit « riches », vidéo et audio diffusés par les grands groupes de communication, au détriment du simple texte dont la production reste encore accessible à tous. Pire encore, le nouveau langage de communication des documents appelé à remplacer l'HTML, le XML, est certes plus « intelligent » (« sémantique » dit le W3C, l'organisme en charge de son développement) en ce sens qu'il permettra de mettre en place des procédures d'indexation et de reconnaissance automatique du type de contenu qu'il véhicule, mais son maniement demandera une maîtrise technique bien supérieure à celle que nécessite son homologue actuel. Il y a toutes les chances, analyse Bernard Benhamou, pour qu'il échappe au simple particulier, ainsi écarté sans ménagement de toute possibilité de publier sur le Web, laissant la place, toute la place, aux éditeurs professionnels. Au terme d'un constat pour le moins accablant, l'auteur en appelle donc logiquement à une intervention des autorités publiques, sur le terrain législatif bien entendu, mais aussi par une réelle politique d'investissement, qui sera conditionnée cependant par une prise de conscience au sein de la classe politique des enjeux sociaux liés aux nouvelles technologies. On en est encore loin.
2002-02-06 16:17:23
-Analyse La semaine dernière, l'Assemblée Nationale a examiné en première lecture un [projet de loi->http://www.justice.gouv.fr/actua/proloicnil.htm] visant à réformer le statut et les compétences de la [CNIL->http://www.cnil.fr]. Celles-ci étaient régies par la loi « Informatique et Libertés » adoptée en 1978 dont les dispositions sont rendues en partie obsolètes par l'évolution des technologies informatiques depuis vingt-cinq ans. Par ailleurs, une directive européenne adoptée en 1995 sur la protection des données personnelles contraignait le gouvernement à mettre en conformité la loi française, quoiqu'elle le fût déjà en partie. Ce premier [débat à l'Assemblée Nationale->http://www.assemblee-nat.fr/dossiers/cnil.asp] risque d'être de peu d'utilité dans la mesure où, le temps de la navette avec le Sénat, le réexamen en seconde lecture ne pourra se faire avant la fin de la session parlementaire, fixée à la fin du mois de février. Il n'en reste pas moins que ce texte est de première importance car il révèle les grandes orientations d'une future réforme, de toute façon inévitable, et qui devra être adoptée au cours de la prochaine législature. De manière générale, ce texte accomplit un renforcement global des pouvoirs de la CNIL, tout en excluant de son champ de compétence un certain nombre de dossiers importants. Il porte aussi un certain nombre de modifications du fonctionnement de l'autorité administrative, pour l'instant passées inaperçues, mais qui ne sont pas sans conséquences. -Le renforcement des pouvoirs de la CNIL Celui-ci est obtenu à travers l'élargissement de ses pouvoirs d'investigation, la définition d'un régime d'autorisation à création de certains types de fichiers dont la CNIL est directement responsable ou encore le pouvoir qui lui est donné d'imposer des amendes dont le montant est fixé, ou de saisir, bloquer et éventuellement détruire des fichiers contrevenant à la loi qu'elle est censée faire respecter. Tout ceci est donc relativement nouveau en ce qu'il donne enfin des moyens à la CNIL pour agir. Du point de vue de la loi, tout traitement informatisé de données personnelles doit faire l'objet d'une déclaration. Il doit dans tous les cas être proportionné au but recherché, et ne doit pas faire l'objet d'une conservation dont la durée excéderait la satisfaction de cet objectif. Il doit par ailleurs faire l'objet d'une information envers les personnes qui font l'objet de ce traitement, avec, comme c'est déjà le cas, droit de rectification et d'opposition. Certains traitements sont même formellement interdits, en particulier lorsqu'ils traitent des données dites « sensibles », en rapport avec la santé, l'orientation sexuelle, l'appartenance politique, religieuse ou syndicale, sauf dérogations dans un nombre limité de cas. D'autres traitement sensibles, comme ceux qui reposent sur les caractéristiques physiques ou génétiques des personnes, leur opinion ou des condamnations pénales, lorsqu'ils s'étendent sur la quasi-totalité de la population ou mettent en oeuvre des procédés d'interconnexion entre les fichiers, sont soumis à autorisation. Ce dernier cas est très intéressant car il permettrait de lever une partie du voile qui pèse sur les pratiques des régies publicitaires en ligne, des instituts de sondage de consommation, ou d'autres officines de marketing « profilé » qui vivent du recoupement de données collectées dans des fichiers séparés. La loi nouvelle améliore enfin l'accès des personnes aux fichiers qui les concernent lorsque ceux-ci portent sur des infractions ; puisque, désormais, et si la communication de ces informations ne s'oppose par à la sûreté de l'Etat, un éventuel refus d'accès devra être examiné par la CNIL. -Les limites des nouveaux pouvoirs de la CNIL La « sûreté de l'Etat » : les maîtres mots qui définissent les fichiers dits « de souveraineté » et dont la création échappe totalement au pouvoir de la CNIL, puisqu'ils peuvent être autorisés simplement par décret, et avec la publication de l'avis de l'autorité indépendante, réduite ici au rôle de commentateur de décisions qui seront déjà prises. Cette disposition qui ne vient pas de la directive européenne puisque celle-ci autorise chaque Etat à inclure ou exclure ces fichiers du champ de la loi, donne un peu l'impression que le Gouvernement, vigilant à l'égard de ce que les entreprises privées font des données personnelles, devient étonnamment laxiste pour ce qui concerne ses propres services. Cette impression est d'ailleurs confirmée par le fait que les traitements informatiques des infractions, condamnations et mesures de sûreté, en clair le fameux fichier STIC, seront accessibles aux auxiliaires de justice, et non plus seulement aux officiers de police judiciaire, comme c'est le cas actuellement. -Des modifications grosses de conséquences En vrac, on peut citer trois modifications de la loi qui ne sont pas anodines, et sur lesquelles il convient de s'interroger dès maintenant. Tout d'abord, la dimension internationale des échanges de données est prise en compte dans la mesure où les organismes français auront interdiction de communiquer des informations personnelles, sauf dérogations évoquées par la loi, à des pays étrangers à l'Union Européenne qui n'offriraient pas des garanties suffisantes en matière de protection de ces données. C'est clairement les Etats-Unis qui sont ici visés, ce qui n'ira pas sans poser problème à certaines entreprises disposant d'une filiale en France, mais dont l'essentiel des ressources informatiques sont gérées par la maison-mère, américaine (suivez mon regard). Une des exceptions possibles à cette interdiction générale est l'établissement d'un contrat spécifique garantissant que les données seront traitées conformément aux exigences françaises. C'est en quelque sorte le pendant national de l'accord « Safe Harbour », pourtant resté lettre morte par défection de la plupart des entreprises américaines. Le dossier est donc loin d'être clos, et promet de belles batailles juridiques en perspective. Autre point important, la CNIL aura la possibilité de labelliser des logiciels ou dispositifs de protection de la vie privée proposés par des entreprises professionnelles. C'est une étape importante dans le rapprochement de l'autorité administrative avec le monde économique, le but affiché étant que celui-ci prenne l'initiative d'un mode de régulation plus actif qu'il ne l'est actuellement, avec l'aide de la CNIL. Ce rapprochement est d'ailleurs confirmé par la levée de l'incompatibilité pour les commissaires entre leurs fonctions et celles qu'ils pourraient être amenés à occuper au sein d'entreprises informatiques en rapport avec ce secteur. Un point qui peut sembler anodin, mais qui soulève quand même pas mal de questions. Peuplée pour l'essentiel de juristes, l'autorité indépendante s'est, au cours des années, forgée une doctrine publique relativement précise et équilibrée des protections qu'il convenait d'apporter aux données qui concernent chacun d'entre nous. Qu'en sera-t-il lorsque son recrutement s'ouvrira à des profils individuels radicalement différents, issus d'entreprises privées adoptant un point de vue quelque peu étranger à cette doctrine ? La question reste ouverte. Il ne reste plus qu'à prier pour qu'elle soit réellement débattue, parmi d'autres, dans les prochains mois devant la représentation nationale, contrairement à ce qui s'est passé en première lecture. Car à [entendre la plupart des orateurs-> http://www.assemblee-nat.fr/cra/2001-2002/2002013015.asp#p211_55679], on en était encore à évoquer la fracture numérique et le retard français en matière d'équipement, sujet fort intéressant certes, mais finalement peu en rapport avec le sujet.
2002-02-12 16:20:01
-Tendance On le pressentait depuis plusieurs mois ; l'actualité de ces dernières semaines l'a confirmé : peu à peu émerge un puissant cartel qui regroupe les principales sociétés productrices de « contenus », quel qu'en soit la forme ou le support, programmes informatiques, musique, images, vidéo ou texte. Ces sociétés sont bien décidées à défendre leurs intérêts, notamment commerciaux, en faisant flèche de tout bois, et en recourant notamment à l'arme du procès afin de réduire à quia quiconque s'aviserait de contrevenir, même de manière bénigne, à une législation qui leur est très favorable. Qu'y a-t-il de commun entre Microsoft, EMI, Adobe et Harper&Collins, sinon que leur activité est protégée par une même loi, celle qui régit la production des « oeuvres de l'esprit », autrefois isolées sur des supports physiques très différents, aujourd'hui rassemblés par le miracle de la convergence numérique sur les mêmes machines, dans les mêmes tuyaux ? Du coup, les uns et les autres se trouvent des intérêts communs, et ce d'autant plus que les concentrations financières dans le domaine de la culture et de la communication les poussent à se retrouver dans d'énormes conglomérats, [moguls d'un nouveau genre->http://www.salon.com/tech/feature/2001/06/26/borg_intro/index.html], rassemblant toutes les activités dans une même structure. -La grande convergence Concentration financière d'un côté, convergence numérique de l'autre, ne restait plus qu'à trouver un ennemi commun, très efficace pour réunir des partis qui a priori n'ont pas grand chose en commun. Cet ennemi, ce sont les pirates bien sûr, ceux qui reproduisent sans autorisation les produits protégés, c'est-à-dire dans un premier temps les réseaux [orientaux->http://www.wired.com/news/business/0,1367,49856,00.html] (russes, ukrainiens, chinois) qui pratiquent ce sport à l'échelle industrielle, puis dans un deuxième temps les pirates domestiques, script kiddies, lycéens fans de [Napster->http://news.com.com/2100-1023-273083.html], et autres trafiquants de CD dans les cours d'école, puis pour finir, monsieur tout-le-monde, pour peu qu'il ait le tort de publier une page personnelle Web sur [Jean Ferrat->http://www.legalis.net/cgi-iddn/french/affiche-jnet.cgi?droite=2002/actualite_02_2002.htm#flash3] ou [Harry Potter->http://web.ukonline.co.uk/bringers/temp/c-potter.html], de se graver sa propre compilation pour l'écouter dans sa voiture ou la donner à un ami, d'installer Windows sur l'ordinateur de son fils, etc... De ce point de vue, la convergence numérique est pour le secteur de l'édition, quelle que soit sa spécialité, à la fois une bénédiction et un cauchemar. Une bénédiction parce qu'elle lui permet de réduire considérablement les coûts de fabrication, et notamment les étapes de mise en forme (et au format) de ses produits tout en améliorant considérablement la qualité de ceux-ci : c'est l'avantage du DVD par rapport au VHS, du CD par rapport à la cassette audio. Mais le cauchemar correspondant est que la baisse considérable des coûts de fabrication entraîne dans le même temps une inévitable démocratisation de la production, mais surtout de la diffusion de ces produits. Rien de plus facile en effet pour un particulier, et pour un coût minime, que de reproduire, transmettre et diffuser une bande vidéo, un livre numérisé ou un morceau de musique à qualité égale de ce qu'offrent les professionnels. C'est même sans doute là la prochaine révolution des loisirs grand public, tant se sont multipliés et démocratisés ces dernières années les appareils de reproduction : graveurs de CD et bientôt de DVD, caméscopes numériques dotés de fonctionnalités de capture, tables de montage logicielles, imprimantes de haute qualité. D'un strict point de vue technique, le principal verrou qui contraignait les consommateurs à recourir aux services des éditeurs pour effectuer ces opérations vient donc de sauter...avec la bénédiction des fabricants de matériel électronique. -Un allié inattendu...et ambigü Car dans la lutte pour l'instant inégale qui oppose l'industrie du copyright au consommateur, ce dernier s'est apparemment trouvé un allié de poids en la personne des fabricants d'appareils électroniques de loisir, qui voient s'ouvrir devant eux des perspectives insoupçonnées sur un marché désormais saturé en télévisions et chaînes Hi-Fi. Le premier mouvement est venu de [Philips->http://www.wired.com/news/mp3/0,1285,49188,00.html], l'inventeur du CD, mais aussi gros fabricant de graveurs, bien décidé à croiser le fer avec les compagnies de disques qui incluent déjà des systèmes anti-piratages dans les produits qu'ils éditent. Le [deuxième->http://news.com.com/2100-1040-807418.html] est venu d'une partie de l'industrie du DVD inscriptible, déjà en proie à des difficultés pour déterminer un standard commun, difficultés accrues par l'exigence venue des entreprises cinématographiques d'inclure dans ce standard des protections venant doubler le fameux et désormais obsolète CSS. Le dernier mouvement est venu tout récemment du [SIMAVELEC->http://fr.news.yahoo.com/020205/1/2h290.html], le syndicat français regroupant les fabricants d'appareils électroniques, qui a réclamé, dans une récente conférence de presse, que les produits numériques ne soient plus soumis à la Loi Lang de 1985 qui définit les droits afférents à la « copie privée ». L'argument du SIMAVELEC est simple : le numérique n'a rien à voir avec l'analogique et ne doit donc pas être soumis à cette loi. Argument simple mais un peu court. A la vérité, c'est la [commission Brun-Buisson->http://www.mmedium.com/cgi-bin/nouvelles.cgi?Id=4894] qui est visée par le syndicat, puisque mise en place par Catherine Tasca, elle est chargée de définir les principes d'une taxation sur les supports de reproduction. On comprend qu'une telle commission ne soit pas particulièrement appréciée de ces industriels. -Taxe ou mouchard ? Mais il n'est pas certain en revanche qu'ils refusent qu'on leur impose des solutions anti-piratages, comme c'est en passe d'être le cas aux Etats-Unis, à travers un [projet de loi->http://216.110.42.179/docs/hollings.090701.html]très contesté. Car c'est la leçon qu'apporte la récente « sortie » du SIMAVELEC contre la commission Brun-Buisson. Défavorable à une taxation des produits, le groupe d'intérêts propose en revanche d'inclure dans les appareils commercialisés un système de surveillance qui permettrait de taxer individuellement les copies « à l'acte ». Une proposition qui se trouve en parfaite continuité avec ce que proposait déjà cet organisme [l'année dernière->http://www.01net.com/rdn?oid=136318] à propos d'Internet. Une proposition qui fait froid dans le dos tout de même, lorsqu'on pense à ses conséquences en terme de protection de la vie privée et qui fait tout à coup apparaître les membres de la commission sous un autre jour. D'autant plus que, comme le fait remarquer l'association [Que Choisir->http://alkaid.id-net.fr/scripts/quechoisir/actu.asp?ID=641], le SIMAVELEC en demande la dissolution et souhaite la constitution d'un organisme similaire, mais où ne siégeraient pas de représentant des consommateurs. On se demande pourquoi... Industrie du copyright contre marchands de « brun », software contre hardware ; et les consommateurs au milieu. Difficile pour eux de choisir entre le Charybde d'une taxation tous azimuts et le Scylla d'un système de surveillance généralisé. Dans tous les cas, c'est l'assurance pour eux d'une pratique plus difficile, plus compliquée, plus intrusive et/ou plus chère des loisirs numériques dans les mois à venir. Avec une seule leçon à tirer d'une évolution qui semble inéluctable : acheter, acheter, acheter maintenant graveurs, disques durs et autres lecteurs (pour les CD vierges, c'est trop tard), avant que ces produits ne soient accablés de surtaxes dissuasives ou simplement truffés de mouchards
2002-02-20 13:14:35
Comment rentabiliser l'édition et la diffusion de contenus sur Internet ? La question n'est pas nouvelle, mais elle a connu ces derniers jours une actualité avec la demande formulée par la toute nouvelle association des ["webproducteurs"-> http://www.leswebproducteurs.com/compress10.html]. Cet organisme, qui regroupe les principales agences éditrices de contenus sur Internet, demande en effet aux fournisseurs d'accès de contribuer à la rémunération de leurs productions par l'intermédiaire d'un système de taxation sur leur chiffre d'affaire. L'initiative, qui a provoqué froncements de sourcils et toussotements embarrassés à [l'AFA-> http://www.afa-france.com/html/action/140202.html], a le mérite de mettre en lumière à la fois la question du modèle économique qui peut soutenir l'activité professionnelle de publication sur le Web, question rendue encore plus épineuse par l'effondrement des recettes publicitaires, et celle du déséquilibre dans la rémunération des différents intervenants sur le réseau, puisque seuls les fournisseurs d'accès ont un contact direct avec l'utilisateur final et sont en mesure de lui facturer des services. -Escarmouche L'escarmouche que vient de provoquer l'échange de communiqués de presse entre les deux groupes d'intérêts est aussi significative de l'échec patent des créateurs de contenus à obtenir une rémunération directe de leurs services, par l'intermédiaire d'un service payant. Les difficultés [d'Internet Actu-> http://www.internetactu.com/ban2_internetactu/index_affiche.php], un journal d'information spécialisé dans les nouvelles technologies à trouver un public depuis qu'il est passé à un modèle entièrement payant d'accès à ses actualités, sont par exemple exposées dans un article intitulé ["le boulanger, son pain et ses mitrons"-> http://www.internetactu.com/contedenoel.html] qui témoigne du désarroi d'une rédaction en sursis économique. Lorsqu'il est devenu évident que la rémunération par la publicité ne pouvait continuer à faire vivre une rédaction de cette importance, le journal, mais d'autres aussi ont cru trouver leur planche de salut dans le passage au tout payant, un peu à l'image de la presse papier. C'était oublier deux choses : tout d'abord le fait que la presse papier ne vit pas de l'argent déboursé par ses lecteurs lors de l'achat, mais essentiellement de la publicité (problème non résolu donc), ensuite que les lecteurs [ne sont pas prêts-> http://www.pfeifferreport.com/trends/ett_beyondcontent.html] à débourser une quelconque somme pour obtenir un accès temporaire à un contenu immatériel, enfin que la particularité d'Internet repose sur l'hypertexte, qui constitue, une [récente étude-> http://www.estat.com/content/fr/presse/20020207/surf.pdf] vient le rappeler, plus de 50% du trafic d'un site. Or, si l'accès au contenu n'est plus libre, s'il est conditionné, il ne peut plus faire l'objet de liens extérieurs. Il disparaît donc immédiatement de la circulation. Si l'on veut un exemple concret, qu'on se demande pourquoi Homo Numericus ne renvoie jamais aux articles d'Internet Actu, et rarement à ceux de Transfert. Parce que les liens aboutiront tôt pour l'un ou tard pour l'autre à des pages interdisant l'accès à mes lecteurs, ce qui équivaut purement et simplement à des liens brisés. Dans la mesure donc où l'écriture sur le Web est marquée par cette inclusion dans une chaîne de références croisées et multilatérales, une source d'information qui ne joue pas le jeu s'exclut d'elle-même du réseau et sombre très vite dans un irrémédiable oubli (ce qui est en train d'arriver à Internet Actu qui représente pourtant dans son domaine un exemple de contenu de qualité). -L'hypertexte Comment valoriser le contenu, comment lui donner une valeur que le lecteur ne perçoit pas immédiatement ? Les solutions sont nombreuses, mais pas encore tout à fait viables ou assurées. Elles restent pour une bonne part à imaginer, mais déjà quelques pistes se dessinent. Les plus intéressantes d'entre elles reposent sur la distinction entre un service de base gratuit - tout ce qui est dépendant du lien hypertexte justement, c'est-à-dire, en gros les contenus eux-mêmes, et la fourniture de services élaborés, donnant lieu à paiement. C'est la solution adoptée par [Salon->http://www.salon.com] qui offre, via son service Premium, l'accès à des contenus supplémentaires, une plus grande interactivité avec la possibilité d'intervenir dans des forums et des réductions sur l'achat de biens et services divers. La santé financière de Salon est loin d'être flamboyante, certes ; mais le magazine en ligne est tout de même une des rares publications indépendantes à avoir survécu à l'effondrement de la netéconomie. D'autres pistes de rentabilisation des contenus sont d'ailleurs explorées par d'autres médias : syndication payante de contenus en marque blanche pour des portails ou des intranets professionnels, vente de [produits dérivés-> http://www.cafepress.com/cp/info/index.aspx], vente de [livres-> http://www.dtext.com/hache/] sur support papier quand l'équivalent purement numérique est gratuit, systèmes d'affiliation, etc. L'incertitude économique dans laquelle se trouvent les producteurs de contenus sur le Web n'est donc pas irrémédiable ; elle tient de manière générale au conservatisme d'un public dont les habitudes de consommation sont encore peu adaptées aux nouveaux types de marchés que créent les nouvelles technologies. En France, elle est redoublée par l'étroitesse d'un marché qui ne touche qu'une faible part de la population. De ce point de vue, les fournisseurs d'accès n'ont pas tort de faire remarquer dans leur communiqué que rien ne peut être envisagé tant que celui-ci restera au niveau où il est actuellement. Renchérir le coût des connexions ne peut que décourager cet indispensable élargissement. Ils promettent dans les jours qui viennent de nouvelles propositions incitant un plus large public à se connecter. Qui vivra verra
2002-02-20 13:38:03
En France comme dans d'autres pays, s'est formée au milieu des année 90 une mouvance en partie réactionnelle à l'explosion de la netéconomie, en partie issue d'un monde associatif partiellement institutionnalisé, tissant des liens plus ou moins étroits avec les milieux gouvernementaux dont il est parfois issu. Souvent qualifiée d'"Internet indépendant " par la presse grand public, cette mouvance regroupe des acteurs aux profils très divers, qui parfois n'ont rien à voir entre eux, et qui ont récemment fait l'objet d'un [Essai de topologie sommaire->http://www.uzine.net/article1350.html] dans les colonnes d'uZine. Les hauts lieux, les points de rencontre de l'Internet indépendant se nomment [Iris->http://www.iris.sgdg.org], [Vecam->http://www.vecam.org/], [R@S->http://www.ras.eu.org/] pour les associations, [uZine->http://www.uzine.net] animé par le collectif du Minirezo, [LSIjolie->http://www.lsijolie.net], [l'Autre Portail->http://www.rezo.net], pour les sites Web, [Ouvaton->http://www.ouvaton.net/demarre.php3], [Gitoyen->http://www.gitoyen.net/], [Globenet->http://www.globenet.org/] pour les prestataires de services, [Inms-l->http://www.iris.sgdg.org/sabonner.html], liste de discussion issue des Assises de l'Internet Non-Marchand et Solidaire, où fut [récemment-> http://www.zdnet.fr/cgi-bin/a_actu.pl?ID=2103753] débattue l'idée d'une "taxe Tobin" sur les noms de domaines. -Vacheries Comme toujours en pareil cas, les rapports entre les différents acteurs de cette mouvance sont étroitement dépendants de leur capacité à se trouver un ennemi commun : au beau fixe en pleine bulle spéculative lorsque tout le monde ne parlait que start-up, investisseurs et cash burn rate, ceux-ci se sont profondément dégradés avec l'effondrement de la net-économie : plus d'ennemi commun, les forces d'acteurs habitués à un positionnement contestataire se sont retournées contre eux-mêmes. Si les listes de discussion, les forums et les rencontres ont toujours été le théâtre d'affrontements plutôt corsés, la multiplication d'attaques nominales, de vacheries bien tournées et d'accusations plus ou moins détournées sur la liste Inms, sur un site comme uZine ou dans d'autres lieux est significative d'une évolution qu'il convient de comprendre. Car au cœur de ces polémiques, c'est toujours la même question qui revient comme une obsession, celle de l'argent, de l'argent que certains ont et pas d'autres, par des moyens que certains n'ont pas hésité à employer mais pas d'autres, que certains ont pris de bon cœur mais pas d'autres, etc. Deux textes relativement importants permettent de comprendre l'enjeu d'un débat qui restait jusqu'à présent relativement implicite. L'article publié dans uZine divise fort utilement l'Internet qu'il appelle "citoyen" en trois camps : un secteur associatif institutionnalisé et subventionné, souvent dans la mouvance de la Gauche Plurielle, un secteur proche de l'économie privée, qui n'est pas sans entretenir des relations souvent étroites avec le premier, et un secteur contestataire, qui est lui-même très divisé et s'éparpille en une multitude de groupes parfois très différents les uns des autres. -Dernière mode C'est de ce troisième secteur que partent la plupart des attaques, contre les deux premiers, représentés dans la plupart des interventions par l'association VECAM, fustigée pour une trop grande proximité avec les milieux gouvernementaux et la [FING->http://www.fing.org/], jugée trop proche des intérêts des industriels du secteur. Quel fut l'élément déclencheur de ces hostilités ? La dernière mode de l'"Internet citoyen" qui a remplacé le e-commerce dans le cœur des gourous et commentateurs les plus en vue sur la scène médiatique. Du coup, [colloques->http://www.transfert.net/fr/seminaire_liberte.cfm] et [rencontres->http://interactif.lemonde.fr/article/0,5611,2850--243573-0,FF.html] se multiplient, attirant l'attention des journalistes, lesquels publient articles après articles sur le sujet, ce qui n'est pas sans attirer l'attention des investisseurs, des acteurs privés, sans oublier les institutionnels, promesse d'une manne à venir qui peut ne pas être négligeable. Dans cette nouvelle donne, le Web indépendant "contestataire" risque fort d'être laissé sur le bord de la route, précisément parce qu'il conteste, ou bien ceux qui appréhendent Internet comme un marché, ou bien le gouvernement pour la manière dont il a mis en place ces dernières années une législation très critiquée. Mais ce n'est pas tout ; car à l'intérieur même du Web contestataire, de composition très disparate on l'a dit, les coups pleuvent eux aussi. Principale cible, le collectif Gitoyen qui fit l'objet récemment d'un [article de presse->http://www.01net.com/rdn?oid=176217&rub=2817] très remarqué dans le microcosme. Gitoyen est l'aboutissement d'un long processus qui a poussé un certain nombre d'acteurs du Web indépendant à chercher à se doter de structures économiques leur permettant de ne pas avoir à recourir aux habituels prestataires de services commerciaux. Valentin Lacambre, que l'on pourrait qualifier d' « entrepreneur engagé » en est une figure emblématique depuis la réussite puis l'arrêt brutal pour [raisons économico-politiques->http://www.journaldunet.com/itws/it_lacambre.shtml] de son service d'hébergement Altern. Associé à Laurent Chemla, il a en effet lancé en 1999 un service d'enregistrement de noms de domaine à bas coût, [Gandi->http://www.gandi.net], qui fut un tel succès qu'il permet aujourd'hui aux deux compères d'investir d'autres projets complémentaires, au premier rang desquels Gitoyen, en attendant un véritable magazine alternatif. Gitoyen est un mot-valise, contraction de GIE (Groupement d'intérêt économique) et de citoyen qui dit à lui seul l'ambigüité mais aussi le défi qu'il représente. Se proposant de fournir des accès haut débit à prix coûtant, Gitoyen qui regroupe plusieurs acteurs "alternatifs", représente à lui tout seul une stratégie originale : se positionner comme un acteur à la fois commercial et militant, en tentant de dépasser l'alternative traditionnelle à l'action politique en France : l'argent d'un côté, la conscience de l'autre. -"Agir, ne pas gémir" Extérieurement, Gitoyen peut fort bien être appréhendé comme une forme de "commerce éthique", fort à la mode lui aussi, sauf que c'est exactement l'inverse : un militantisme armé et agressif qui a fait sien le vieux slogan écolo des années 70 : "Ne pas gémir mais agir". Une logique que refusent catégoriquement certains militants méfiants à l'égard d'une forme d'action qui sort des sentiers battus du militantisme traditionnel (pétitions, protestation, sensibilisation). A bien des égards, le billet publié par l'un d'eux, un militant de l'association IRIS, billet intitulé [« Artifices et maléfices : l'argent de la Cause »-> http://www.iris.sgdg.org/les-iris/lbi/lbi-180202.html] et qui descend en flamme tout ce qui vient d'être évoqué représente un bon remake des Mains sales et de l'éternel débat qui oppose les belles âmes impuissantes aux partisans du compromis tournant parfois à la compromission. Internet et les Nouvelles Technologies n'est pas le premier domaine d'action du militantisme à connaître ce type de dilemme. Il est le simple signe d'une crise de maturité que connaît un jeune secteur associatif brutalement placé sous les feux de l'actualité. Ce qui est plus étonnant tout de même, et finalement un peu inquiétant, ce sont les termes dans lesquels le débat s'est engagé, basé sur des attaques voilées et personnelles, non argumentées pour la plupart et déclenchant des réaction outrées et se réfugiant derrière l'argument d'autorité. C'est un peu dommage quand on garde à l'esprit l'impact encore quasiment négligeable d'une mouvance ultra-spécialisée, totalement inconnue du grand public et manifestement incapable d'aller vers lui pour étendre la conscience politique d'utilisateurs laissés pour compte de ces débats
2002-03-01 01:25:20
On hésite entre Richard III et Ubu Roi pour qualifier ce qui est train de se dérouler à l'ICANN, l'organisme chargé depuis 1998 par le Département du Commerce américain d'organiser la gestion des noms de domaines internationaux. Depuis sa création, l'organisme, une association de droit privé californien, est soumis au feu roulant des critiques sur la manière dont il a géré l'ouverture de l'enregistrement des noms de domaines à la concurrence - tâche jusqu'à présent attribuée à l'entreprise américaine Network Solutions, sur la pusillanimité dont elle a fait preuve dans l'introduction des nouvelles extensions de noms de domaine ( comme .info ) , et plus généralement sur son mode de fonctionnement interne, compliqué par la nécessité dans laquelle il se trouve de représenter en son sein le peuple immense des internautes du monde entier, rien de moins. -Le feu aux poudres Et c'est ce dernier point justement qui a mis le feu aux poudres. Car les premières élections directes par les internautes de cinq directeurs au sein du Conseil organisées en juin 2000 ont été un fiasco si flagrant (34000 votants pour 300 millions d'internautes) que l'ICANN a chargé un comité spécifique (At Large Committee Study) dirigé par l'ancien Premier Ministre suédois Carl Bildt d'étudier la manière dont ont pourrait représenter les internautes à l'avenir. Après moult discussions, psychodrames et retournements, l'actuel président de l'ICANN, Stuart Lynn, vient de tirer un constat d'échec de cette procédure, ainsi que de la manière dont l'organisation a fonctionné jusqu'à présent. Rien de bien neuf là-dedans, s'il n'avait présenté du même coup un plan alternatif qui propose, entre autres, de supprimer la représentation directe des internautes, pour lui substituer celle des gouvernements nationaux, jusqu'ici présents au sein du Gouvernemental Advisory Committee. Stupeur dans les rangs de l'ALSC qui voyait soudainement plusieurs mois de travail et une consultation en cours barrés d'un trait de plume par le directeur de l'ICANN. -Complot byzantin Sur la liste de discussion du Comité, les réactions ne se sont pas fait attendre, en provenance non seulement de ses membres, mais aussi des directeurs élus au suffrage direct, comme Karl Auerbach qui représente les Etats-Unis : « le contenu du plan est un complot byzantin, écrit-il par exemple, qui ne semble viser que deux objectifs : l'argent (payez pour jouer) et l'isolement de toute participation publique ». Allant plus loin, Auerbach affirme que ce nouveau plan, s'il était adopté, retirerait toute légitimité à l'ICANN puisqu'il constitue un changement majeur dans l'accord signé par l'organisme avec le Département du Commerce qui l'a créé, lequel incluait dans ses missions celle de promouvoir une participation publique à son fonctionnement. On ne voit donc pas pourquoi les pouvoirs actuellement conférés à l'ICANN n'iraient finalement pas à l'Union Internationale des Télécommunications où les gouvernements sont déjà représentés. Les réactions en chaîne provoquées par le plan de Lynn sont pourtant loin d'être terminées. Car certains membres du Forum de l'ALSC ont décidé de réagir à ce qui leur paraît être une tentative de Coup d'Etat en jetant dans l'urgence les bases de ce qu'ils préconisaient dans leur plan : la création d'un At Large Membership, - début d'une citoyenneté du cyberespace -, dont le point de rencontre se situe désormais sur le site Icannatlarge.com. Ouvert depuis deux jours, le site propose un formulaire d'inscription, a ouvert plusieurs forums, appelle à contributions pour la rédaction d'une charte et demande des fonds. -Nuit du 4 août Parmi les premiers « membres », on retrouve des personnalités de l'ICANN comme Karl Auerbach bien sûr, mais aussi Esther Dyson, ancienne présidente de l'association qui s'est engagée financièrement dans l'aventure. Mais c'est la liste de discussion de l'ALSC qui est encore pour l'instant la plus animée : dans un climat fiévreux de nuit du 4 août, les participants échangent suggestions, appels et dénonciations à un rythme endiablé. Certains y reconnaîtront peut-être les signes avant-coureur d'une véritable fondation qu'Icannwatch, un site d'information spécialisé appelle déjà ICANN 2.0. Si elle a lieu, ce n'est pas pour tout de suite cependant. Car toutes ces initiatives n'ont de sens qu'en vue de la préparation de la prochaine rencontre du Board of Directors de l'ICANN qui se déroulera à Accra du 10 au 14 mars prochains. En attendant, chacun fourbit ses armes en prévision d'un sommet qui promet d'être animé, voire décisif. Sources à consulter : -[Le plan de Stuart Lynn->http://www.icann.org/general/lynn-reform-proposal-24feb02.htm] -[L'ICANN->http://www.icann.org/] -[Icannatlarge.com->http://www.icannatlarge.com/index.htm] -[Icann.Blog->http://www.lextext.com/icann/] -[Icannwatch->http://www.icannwatch.org/] -[La page d'accueil de l'ALSC->http://www.atlargestudy.org/]
2002-03-04 23:03:39
Faut-il, ou non, autoriser le dépôt de brevets industriels sur les logiciels ? Question ardue, technique, mais qui, au dire des principaux groupes d'intérêt qui s'affrontent sur le sujet, la [Business Software Alliance->http://www.bsa.org/france/about/] d'un côté, le collectif [Eurolinux->http://www.eurolinux.org] de l'autre, aurait des répercussions importantes sur le développement et l'évolution de l'ensemble des activités économiques liées à l'informatique. La question, qui fait l'objet d'un débat passionné aussi bien sur le nouveau que l'ancien continent, s'est trouvée au centre d'une actualité récente, due à la [publication->http://www.europa.eu.int/comm/internal_market/fr/indprop/02-277.htm] par la Commission Européenne d'une proposition de directive visant à uniformiser le droit européen en la matière. -Brevet et droit d'auteur A l'heure actuelle, la position de [l'Office Européen du Brevet->http://www.european-patent-office.org/] qui en gère le dépôt, est loin d'être claire puisqu'elle exclut officiellement les logiciels « en tant que tels » de son champ d'action, mais ouvre la voie à des [exceptions si larges->http://swpat.ffii.org/vreji/pikta/index.fr.html], qu'on estime à [30000 le nombre de brevets->http://www.vnunet.fr/actu/article.htm?id=0&numero=9319&date=2002-02-21] liés à l'informatique enregistrés par cet organisme. Par ailleurs, en l'absence de toute harmonisation européenne sur le sujet, chaque pays est libre de définir le champ d'application des brevets sur son territoire national, ce qui a pour conséquence des jurisprudences différentes selon les pays européens, certains, comme l'Allemagne, acceptant de reconnaître la validité des brevets informatiques, et d'autres non. Cette situation, incertaine et fragmentée, [argumente la Commission->http://www.europa.eu.int/comm/internal_market/en/indprop/com02-92fr.pdf], désavantage considérablement l'industrie du logiciel européenne par rapport à ses homologues américains et japonais. Harmoniser le droit européen sur les brevets, pourquoi pas, mais dans quel sens ? C'est là que le bât blesse évidemment, car les différents groupes d'intérêts qui se sont manifestés sur le sujet tirent dans des sens tout à fait opposé. Pour comprendre l'enjeu de ce débat, il est nécessaire de resituer le brevet industriel dans son contexte juridique, et notamment par rapport au régime du droit d'auteur. Car, normalement, alors que le droit d'auteur protège la fixation d'une création intellectuelle, c'est-à-dire dans le cadre informatique, les lignes de code d'un programme, le brevet permet de protéger les procédés mis en oeuvre pour obtenir un résultat. Selon les termes de la Convention de 1973, l'OEB devrait donc considérer que les programmes informatiques ne sont pas brevetables en tant que tels ; seuls les « procédés techniques » le sont. Il n'en reste pas moins que la notion de « procédé » utilisée pour définir ce qui est brevetable ou ne l'est pas, si elle peut-être très utile dans le cadre d'applications mécaniques, électriques ou physiques - domaines d'application traditionnelle du brevet, l'est beaucoup moins lorsqu'il s'agit de programme informatique. C'est pourquoi, aux Etats-Unis où le [Patent & Trademark Office->http://www.uspto.gov] pratique une politique extrêmement laxiste, on a vu brevetées de simples idées commerciales, comme le fameux [« One-Click Shopping »-> http://www.wired.com/news/business/0,1367,34670,00.html] d'Amazon qui permet à ses clients de pré-enregistrer ses données d'identification afin d'effectuer par la suite ses achats en un clic de souris. -Business Methods Normalement, assure la Commission, le brevet européen ne devrait couvrir que les procédés qui répondent à trois critères : ils doivent être nouveaux, susceptibles d'applications industrielles, et enfin « apporter une contribution technique dans un domaine de la technique », spécificité européenne qui permettrait d'en exclure les simples « Business methods » américaines, comme le One-Click Shopping. Il n'en reste pas moins, selon les opposants à cette directive rassemblés dans le collectif Eurolinux, que l'encouragement donné par les institutions européennes à la brevabilité de procédures logicielles fera peser de lourdes menaces sur la créativité dans ce domaine. Et ce qu'ils ont en tête n'est rien moins que les futurs standards d'Internet. Si le réseau a pu se développer avec une telle facilité et une telle rapidité font-ils remarquer, c'est parce qu'il repose sur des standards et de procédés libres et gratuits, que tout le monde peut utiliser dans ses propres applications sans avoir à payer des royalties à qui que ce soit. Que les membres de ce collectif de soutien à un Internet ouvert soient issus du monde du logiciel libre, incarné par Linux, n'est évidemment pas un hasard. Car si ce système d'exploitation a pu progresser jusqu'à venir concurrencer ses équivalents « fermés », c'est parce que les développeurs ont pu y implémenter des piles TCP/IP, programmer des navigateurs ou des logiciels de gestion de bases de données relationnelles de type SQL sans (trop) craindre de voir débouler un jour les avocats d'une obscure société réclamant des royalties sur un des centaines de brevets qu'elle aura déposé quelques années plus tôt. Autrement dit, tout logiciel repose sur la réutilisation constante de « briques » de procédés logiciels susceptibles de faire l'objet d'un brevet selon la directive européenne. Et dans ces conditions, seules les grosses entreprises disposant de services juridiques capables d'identifier les auteurs des brevets, de négocier et payer ces auteurs seront autorisées à développer de nouveaux logiciels ; en tout état de cause, pas les grands projets collectifs et « open source » rassemblant plusieurs centaines de développeurs bénévoles, ni sans doute les petites entreprises privées développant des applications commerciales. Conséquence, conclut Eurolinux, la directive, entérinant la politique de l'OEB, aura pour conséquence une plus grande concentration du secteur du logiciel et l'étiolement de l'innovation indépendante, a fortiori, libre. Etonnante situation tout de même que cette évolution à front renversé où le brevet finit par freiner et étouffer l'innovation alors qu'historiquement, il a été conçu dans un but exactement inverse. C'est d'ailleurs ce qui disent à la fois la Commission et la Business Software Alliance qui soutiennent que l'absence de règles claires découragent les entreprises d'innover en ne leur permettant pas de rentabiliser leurs activité de recherche et développement. Et il est vrai que le brevet a été conçu dans le but de permettre une meilleure diffusion de l'innovation, puisqu'il contraint son inventeur à rendre public le procédé qu'il brevette, et le protège dans le même temps. Oui, mais... Mais dans le domaine informatique, et spécialement sur Internet, il n'est nul besoin d'un brevet pour contraindre un inventeur à rendre publique sa trouvaille. Car s'il ne le fait pas, celle-ci reste nulle et non avenue. Imaginons Vinton Cerf et Bob Kahn dans les années 70 décidant de garder secrète leurs spécifications du protocole TCP/IP. La belle affaire, si personne ne l'utilise ! Ils sont donc contraints, plus que par leur éthique personnelle ou leur position professionnelle à rendre publique (par les biais des RFC par exemple) leur découverte, brevet ou pas brevet, parce que la communication en réseau contient des éléments intrinsèques de publicité, contrairement aux domaines traditionnels de la recherche industrielle, comme la chimie pharmaceutique ou la sidérurgie. Et le W3C, l'organisme en charge de la spécification des standards du web l'a bien compris, dont le groupe de travail sur les brevets [vient de faire machine arrière->http://www.uzine.net/article1401.html] sur sa proposition de brevets spécifiques, dits RAND, et s'est replié sur une position prenant modèle sur le fonctionnement du monde du logiciel libre. -Questions La Commission européenne n'est pas non plus certaine de la conduite à tenir. Et la proposition de directive n'est pas définitivement fixée avant les diverses navettes qu'elle devra effectuer pour son adoption définitive. Il n'en reste pas moins que les adeptes du logiciel libre ont du souci à se faire, tant le brevet logiciel ressemble à une véritable machine de guerre lancée contre eux par les grands éditeurs commerciaux. On connaît d'ailleurs l'opinion exprimée par Microsoft, un acteur puissant de la BSA, à leur égard. Il reste maintenant aux autorités publiques à trancher en gardant à l'esprit ces quelques questions : l'innovation dans le domaine logiciel est-elle vraiment ralentie par l'absence de brevet ? Le développement du logiciel libre est-il véritablement une menace pour l'industrie informatique traditionnelle ? Dans quelles conditions l'adoption du brevet logiciel respecte-t-elle les différents acteurs de ce secteur ? Quelles seront enfin ses conséquences pour l'utilisateur ? A propos d'utilisateur, il n'est d'ailleurs pas certain que les lobbyistes du BSA bénéficient d'une oreille aussi attentive de la part des gouvernements ou du Parlement Européen que de celle des fonctionnaires de Bruxelles. Car la plus récente actualité montre qu'à la suite en particulier de la nouvelle politique de licence décidée par Microsoft, un nombre croissant d'institutions publiques, le [Bundestag allemand->http://www.golem.de/0202/18539.html] ou les [municipalités danoises->http://www.theregister.co.uk/content/4/24131.html] par exemple, aient décidé ou soient sur le point de décider de se tourner vers les logiciels libres pour répondre à leurs propres besoins informatiques. Un bon argument pour les militants d'Eurolinux dans leur combat contre la brevabilité des logiciels. Déjà, le gouvernement français a réagi, campagne oblige, sous la forme d'une [lettre de Christian Pierret->http://www.transfert.net/fr/net_economie/article.cfm?idx_rub=86&idx_art=8230] adressée à la Commission, dans laquelle celui-ci fustige le travail effectué et se déclare opposé à l'esprit qui préside à la directive. Il reste à voir si les actes suivront de tels éclats
2002-03-19 21:45:38
Pascal Fortin, chercheur en sciences sociales publie une note de lecture en cinq épisodes sur le dernier livre de Manuel Castells : La galaxie Internet. En voici la première partie. La suite sera publiée suivant un rythme hebdomadaire L'internet est-il en train de révolutionner la société ? Certains en doutent. Ce n'est pas le cas de Manuel Castells pour qui "Internet est le fondement technologique de la forme d'organisation propre à l'ère de l'information : le réseau." (p.9.)[[Dans la mesure où toutes les citations qui suivent sont extraites du livre de Manuel Castells, je me contenterai ici de mentionner entre parenthèses à la fin de chacune d'elles le numéro de la page dont elles sont extraites afin d'éviter au lecteur d'avoir à se reporter en permanence aux notes qui se trouvent à la fin du texte.]]. Si l'internet est devenu aux yeux de Castells le "levier de passage" à la société en réseau, cette analyse ne découle pas, du moins en apparence, d'une quelconque croyance dans le pouvoir démiurgique de la technique, mais de la confluence de trois processus indépendants qui auraient convergé au cours du dernier quart du XXe siècle : "les besoins de l'économie en matière de gestion flexible et de mondialisation du capital, de la production et du commerce; les exigences de la société où les valeurs de liberté individuelle et de communication sans entraves sont devenues essentielles; enfin, les progrès extraordinaires de l'informatique et des télécommunications" (p.10). A cet égard, loin de relativiser ses effets structurants, l'exclusion en 2000 de 93% de la population mondiale de l'internet traduit avant tout, aux yeux de Castells, les formidables inégalités qui accompagnent son développement : "Les activités économiques, sociales, politiques et culturelles cruciales, sur toute la planète, sont aujourd'hui structurées par et autour d'Internet. Le non-accès à ces réseaux est devenu la forme la plus dommageable d'exclusion dans notre économie et notre culture". (p.11.). Certains bons esprits appelant à une "laïcisation de la technique", n'ont pas manqué de dénoncer le "culte de l'internet" en le réduisant à tort au statut d'un "simple outil". Si, depuis Leroi-Gourhan, nul n'ignore qu'aucune technique ne peut être réduite à sa dimension instrumentale, Castells sait que cette remarque de bon sens s'applique tout particulièrement aux techniques d'information et de communication : "Ce qui distingue biologiquement l'espèce humaine du reste du monde vivant, c'est la communication consciente (le langage humain). La pratique humaine est fondée sur cette communication, et Internet modifie notre façon de communiquer. Cette technologie nouvelle intervient donc dans notre vie de manière essentielle. Mais nous-mêmes, d'un autre côté, en nous livrant à quantité d'activités avec Internet, nous transformons Internet. Une structure socio-technique neuve émerge de cette interaction" (p.13.). Nul déterminisme, donc, a priori, chez ce sociologue pour qui "Internet est une technologie particulièrement malléable, susceptible d'être profondément modifiée par la pratique sociale et de nourrir en son sein une vaste gamme d'effets sociaux potentiels - à découvrir par l'expérience, et non à proclamer par avance" (p.13-14.). Mais il a la volonté d'éprouver cette intuition forte que l'internet est au coeur de transformations profondes de la société par une analyse quasi-exhaustive de l'état des savoirs dans un domaine où, reconnaît-il, "L'évolution a été si rapide que la recherche scientifique n'a pas réussi à suivre le rythme" (p.11.). "Nous entrons dans la galaxie Internet à grande vitesse, mais totalement désorientés" (p.12.), écrit Castells. Soit, mais a-t-il pour autant conçu la boussole qui saura nous guider ? L'origine de l'internet au croisement du militaire, du scientifique et du libertaire Inutile de revenir en détail sur l'histoire de l'internet. L'important est de mettre l'accent sur les conditions historiques particulières de production d'un dispositif qui en garde la trace aussi bien au niveau de ses caractéristiques techniques, de ses contenus, que de ses usages. Contentons-nous ici de rappeler avec Castells que l'internet est né "d'une rencontre hautement improbable" entre la "méga-science", la recherche militaire et la culture libertaire. En effet, la création de l'internet n'est en rien redevable d'un quelconque "esprit d'entreprise" ou du monde des affaires, mais résulte d'innovations techniques mises au point dans des institutions d'Etat, de grandes universités et des centres de recherche publics. Et ce pour une raison simple : "La technologie était trop audacieuse, le projet trop coûteux, l'initiative trop risquée pour des organisations à but lucratif" (p.34.). Certes, l'internet est né au sein de l'Adanced Research Project Agency (ARPA). Mais ses concepteurs n'en ont pas moins disposé d'une très grande liberté : "Internet s'est développé dans un environnement sûr (fonds publics et recherche désintéressée), mais qui n'a brimé ni la liberté de pensée ni l'innovation. D'un côté les milieux d'affaires étaient incapables de s'offrir le long détour nécessaire pour tirer des applications rentables d'un projet aussi audacieux. De l'autre, quand l'armée fait passer la sécurité avant tout - comme cela s'est produit en Union Soviétique et aurait pu se produire aux Etats-Unis -, la créativité ne peut survivre ; et quand l'Etat ou les services publics suivent leur instinct bureaucratique profond - comme l'a fait la poste britannique -, l'adaptation l'emporte sur l'innovation. C'est dans la zone grise des espaces riches en moyens et relativement libres créés par l'ARPA, les universités, les think tanks novateurs et les grands centres de recherche qu'ont été semées les graines de l'internet" ( p.36.). Au final, écrit Castells, l'internet doit avant tout son formidable succès dans la capacité de ses concepteurs à "contourner les objectifs institutionnels, surmonter les bureaucraties et saper les valeurs en place pour ouvrir la voie à un monde nouveau" (p.18.). Il prouve surtout "que la coopération et le libre accès à l'information sont plus propices à l'innovation que la concurrence et les droits de propriété" (p.18.). De cette histoire si particulière, l'internet doit sa caractéristique essentielle : "l'ouverture". Une ouverture qui se matérialise tant dans son architecture que dans son mode d'organisation sociale et institutionnelle. En effet, l'architecture ouverte de l'internet est sa grande force. C'est elle qui lui permet de se transformer par auto-évaluation en mobilisant dans une boucle positive de rétroactions des internautes à la fois en position de concepteurs et d'utilisateurs de leurs innovations. En fait, explique Castells, trois conditions ont rendu possible le succès de l'internet : "premièrement, l'architecture du réseau doit être ouverte, décentralisée, distribuée, et permettre une interactivité multidirectionnelle; deuxièmement, tous les protocoles de communication et leur mise en oeuvre doivent être ouverts, distribués et modifiables ( même si les fabricants de réseaux gardent sous copyright certains de leurs logiciels); troisièmement, les institutions de gouvernance du réseau doivent être en harmonie avec les principes de base d'Internet - l'ouverture et la coopération" (p.42.). Si ces conditions ont pu être réunies sous l'impulsion initiale des chercheurs en informatique, elles ont avant tout produit leurs effets corrélativement à deux autres phénomènes. Les étudiants ont ainsi été les premiers à s'emparer de la mise en réseau des ordinateurs "comme d'un instrument de communication libre et, chez ses représentants les plus politisés (Nelson, Jennings, Stallman), comme d'un outil de libération qui, avec l'ordinateur personnel, donnerait aux individus le pouvoir de l'information pour les affranchir à la fois des Etats et des grandes entreprises" (p.38.). Leur rôle fut déterminant dans l'essor des communautés virtuelles elles-mêmes à l'origine d'un "torrent d'applications que nul n'avait prévues, du e-mail au babillard, au groupe de conversation, au modem et, pour finir, à l'hypertexte" (p.41.). Certes, lorsque l'internet a commencé sa phase de diffusion rapide en 1995, il avait déjà été privatisé. Mais il est né "en portant l'empreinte de son histoire" (p.28.), dans un contexte où son architecture technique ouverte autorisait la mise en réseau de tous les réseaux d'ordinateurs n'importe où dans le monde, où le World Wide Web pouvait fonctionner sur un logiciel adéquat, et où plusieurs navigateurs conviviaux étaient proposés au public. L'internet comme alliage culturel d'un hydre à quatre têtes L'empreinte de cette histoire renvoie naturellement à la culture des "utilisateurs-producteurs" à l'origine de la création et de la configuration de l'internet. Ceux-ci comprennent bien sûr aux yeux de Castells les chercheurs, les hackers, les premiers adeptes des communautés virtuelles, mais aussi, de manière plus inattendue, les entreprenautes : "On peut distinguer dans la culture d'Internet quatre strates successives : celle de la techno-méritocratie, celle des hackers, celle des communautés virtuelles, et enfin celle des entrepreneurs. Toutes ont en commun une idéologie de la liberté qui est profondément attachée au cybermonde" ( p.50-51.). Les chercheurs La culture d'Internet est ancrée dans la tradition universitaire. Historiquement, Internet a été en effet créé dans les milieux de l'enseignement supérieur et les centres de recherche qui leur sont liés. Selon Castells, les traits principaux de la vision "technoméritocratique" des créateurs de l'internet sont les suivants : - la découverte technologique est la valeur suprême; - l'importance d'une découverte dépend de son apport à la totalité du champ; - chacun soumet ses découvertes à l'examen des pairs; - les projets sont répartis et les tâches coordonnées par des figures d'autorité qui contrôlent les ressources; - pour être un membre respecté de la communauté, un technologue doit se plier à ses règles formelles et informelles; - la pierre angulaire de l'ensemble de la démarche, c'est la libre communication des logiciels et des perfectionnements introduits grâce à la coopération sur le réseau. Ces valeurs ont la particularité d'être partagées à la fois au plus haut niveau du corps enseignant et à la base, c'est-à-dire au niveau des étudiants de troisième cycle. C'est par leur intermédiaire, affirme Castells, qu'elles se sont diffusées dans la culture des hackers. Les hackers Castells invoque deux raisons pour expliquer l'importance déterminante de la culture hacker dans la construction de l'internet : "c'est tout d'abord elle qui, tel un milieu nutritif, entretient les percées technologiques par la coopération et la libre communication; et c'est ensuite à travers elle que le savoir de la techno-méritocratie passe dans la sphère des marchands, qui, à leur tour, vont diffuser Internet dans toute la société" (p.55.). Directement inspirée de la culture technoméritocratique, celle des hackers s'appuie sur deux notions clés : la liberté et la coopération : "Liberté et coopération sont associés dans la pratique de la culture du don, qui aboutit finalement à la mise en place d'une économie du don" (p.63.). L'internet est le fondement organisationnel de la culture des hackers qui se différencie avant tout des valeurs universitaires par la valorisation d'interactions à la fois virtuelles et informelles : "La culture hacker est, dans son essence, une culture de la convergence entre les êtres humains et leurs machines dans un échange interactif sans entraves. C'est une culture de la créativité technologique fondée sur la liberté, la coopération, la réciprocité et l'informel" (p.67.). En dernière analyse, écrit Castells, par-delà les clivages idéologiques, l'unité des hackers repose sur la "foi commune dans le pouvoir de l'informatique en réseau, et la détermination à conserver à ce pouvoir technologique le statut de bien collectif - au profit pour le moins de la communauté hacker" (p.69.). Les communautés virtuelles En dehors de ces deux communautés d'informaticiens universitaires ou autodidactes, les premiers adeptes des communautés virtuelles, ont également participé à la production culturelle de l'internet par l'intermédiaire de la mise en place des messageries, listes de diffusion, groupes de conversation, jeux multi-utilisateurs, et autres systèmes de conférences. "Si la culture des hackers a marqué de son empreinte les bases technologiques d'Internet, la culture communautaire a déterminé ses formes, ses méthodes et ses utilisations sociales" (p.71.). Des millions d'utilisateurs ont ainsi introduit sur l'internet leurs innovations sociales à l'aide d'un savoir technique souvent fort limité. Néanmoins, lorsque les communautés virtuelles se sont élargies durant le seconde moitié des années 1990, leurs liens initiaux à la contre-culture se sont distendus. C'est pourquoi, écrit Castells, il n'existe pas de "culture communautaire unifiée" mais une extrême diversité des communautés virtuelles. Leur héritage n'en est pas moins important, comme en témoigne la vitalité actuelle des différentes modalités de création de réseaux informels et de l'autopublication qui sont omniprésentes sur Internet. Ainsi, conclut Castells, "si la source communautaire de la culture d'Internet a des contenus extrêmement diversifiés, elle n'en a pas moins un impact bien précis sur le réseau : elle fait de lui le support technologique de la communication horizontale et d'une nouvelle forme de liberté d'expression. Elle pose ainsi les bases de l'utilisation de la "mise en réseau par décision autonome" pour s'organiser, agir ensemble et produire du sens" (p.73.). Les entreprenautes Universitaires, hackers, communautés virtuelles : l'évocation de leur apport dans l'élaboration culturelle de l'internet relève de l'évidence. On ne peut pas en dire autant de la présence dans la liste de Castells des entreprenautes souvent dénigrés par les premiers cités au motif qu'il auraient perverti les valeurs originelles de l'internet. Les arguments de Castells pour justifier leur apport ne manquent pourtant pas d'intérêt : "La grande expansion d'Internet, celle qui l'a propulsé des cercles fermés des experts et des communautés à l'ensemble de la société a été l'oeuvre des entrepreneurs. Elle s'est produite dans les années 1990, à la vitesse de l'éclair. Et puisque les entreprises en ont été le moteur, Internet s'est en grande partie structuré autour de ses usages marchands. Mais comme ils ont été calqués sur les formes et les pratiques inventées par la culture communautaire, les hackers et les élites technologiques, le résultat est qu'Internet n'est pas plus déterminé par les milieux d'affaires que les autres réalisations sociales dans nos sociétés. Pas moins, mais pas plus. Plus que la domination des entreprises sur Internet, l'important, au tournant du siècle, est le type d'entreprises qu'Internet a aidé à se développer. Car il n'y aurait rien d'absurde à soutenir qu'Internet a transformé les entreprises autant ou plus qu'elles ne l'ont transformé" (p.73-74.). Ainsi, conclut-il : "En devenant l'une des dimensions essentielles de la culture d'Internet, l'ethos de l'entrepreneur prend un nouveau virage historique. Voici qu'il fait de l'argent avec des idées et des marchandises avec de l'argent : le capital et la production matérielle deviennent donc dépendants du pouvoir de l'esprit. Les net-entrepreneurs sont créateurs plus qu'hommes d'affaires, et plus proches de la culture des artistes que de celle de l'entreprise traditionnelle. Mais leur art est unidimensionnel : ils s'évadent de la société pour prospérer dans la technologie et adorer l'argent. Et s'éloignent toujours plus du monde tel qu'il est. Pourquoi s'intéresseraient-ils au monde, après tout, puisqu'ils sont en train de le refaire à leur image ? Les entrepreneurs d'Internet sont artistes, prophètes et cupides; ils dissimulent leur autisme social sous leurs prouesses technologiques. Par eux-mêmes, sur la base de leur propre culture, jamais ils n'auraient été capables de créer un support fondé sur la communication et le réseau. Mais leur contribution était et reste indispensable à la dynamique culturelle à plusieurs couches qui a donné vie au monde d'Internet" (p.78-79.). Certes, l'idée d'associer les entreprenautes à la construction culturelle de l'internet recèle un risque que Castells omet de mentionner : celui qui consisterait à mettre sur le même plan les deux notions parfois contradictoires de "liberté de communication" et de "liberté du commerce". Néanmoins, le rôle clé joué par les entreprenautes dans le basculement de l'internet en dehors de la communauté restreinte des concepteurs-utilisateurs est indéniable. Or, on voit mal comment ils auraient pu réaliser un tel exploit sans marquer la culture de l'internet de leur empreinte. Conclusion Finalement, le choix de Castells de distinguer quatre strates dans l'élaboration des fondements imaginaires et culturels de l'internet, avec, par ordre d'apparition, la "technoméritocratie", les "hackers", les "communautés virtuelles" et les "net-entrepreneurs", semble légitime. Au sommet de l'édifice culturel qui a présidé à sa création, observe-t-il, trône la culture techno-méritocratique de l'excellence scientifique et technologique. L'apport de la culture hacker a par la suite consisté à renforcer "les frontières de la communauté des initiés et en l'affranchissant des pouvoirs établis" (p.79.). C'est alors que des réseaux sociaux de "toutes sortes" ont créé des communautés en ligne "qui ont réinventé la société et, ce faisant, accru considérablement la portée et les usages de cette technique" (p.79.). Au bout du compte, écrit Castells, "les entrepreneurs d'Internet nous ont ouvert une nouvelle planète, peuplée d'une innovation technologique extraordinaire, de nouvelles formes de vie sociale, et d'individus autonomes auxquels leur compétence technologique donne une importante marge de manoeuvre face aux règles et institutions dominantes" (p.80.). Telle est donc la culture d'Internet, conclut-il : "fondée sur une foi technocratique dans le progrès humain par la technologie; mise en oeuvre par des communautés de hackers adeptes de la libre créativité technologique; intégrée à des réseaux virtuels qui veulent réinventer la société; et matérialisée par des entrepreneurs motivés par le gain, dans le cadre des mécanismes propres à la nouvelle économie" (p.80). -Manuel Castells, La galaxie internet, Fayard, 2001
2002-03-26 22:36:12
Pascal Fortin, chercheur en sciences sociales publie une note de lecture en cinq épisodes sur le dernier livre de Manuel Castells : La galaxie Internet. En voici la deuxième partie. La suite sera publiée suivant un rythme hebdomadaire Durant les années 1990, constate Manuel Castells, l'entreprise privée été la plus rapide à s'emparer de l'internet en bouleversant son mode de fonctionnement : "Internet change tout pour elle ; ses rapports avec ses fournisseurs et ses clients, sa gestion, ses processus de production, sa façon de coopérer avec les autres firmes, son mode de financement, la cotation de ses actions sur les marchés financiers. Savoir s'en servir est devenu un facteur crucial de productivité et de compétitivité dans tous les secteurs" (p.83). Du "tourbillon des société .com", affirme-t-il, un nouveau paysage économique est né, dont le coeur serait le "cybermonde des affaires". Quels rapports l'internet entretient-il avec les nouvelles pratiques dans l'entreprise, la transformation des marchés financiers, les nouvelles formes de "travail flexible" au sein de "l'entreprise en réseau", la croissance, la productivité et l'innovation en ce début de XXIe siècle ? Telles sont les questions auxquelles Castells tentent de répondre dans son analyse de la nouvelle économie. l'entreprise en réseau Selon lui, le succès de l'internet au sein du monde des affaires s'explique avant tout par son adéquation au nouveau modèle d'organisation adopté par les firmes les plus productives et les plus compétitives depuis les années 1980, celui de "l'entreprise en réseau". Castells recourt à cette expression pour désigner "l'organisation autour de projets réalisés en coopération par des segments différents de firmes différentes : ils s'interconnectent pour la durée de l'opération, et reconfigurent leurs réseaux différemment à l'occasion de chaque projet" (p.86). L'entreprise en réseau n'est pas un réseau d'entreprises, ni même une entreprise dont l'organisation interne est en réseau. "Ce serait plutôt un dispositif "léger" d'activité économique, construit autour de projets précis, qui sont mis en exécution par des réseaux de composition et d'origines diverses : le réseau est l'entreprise qui entreprend" (p.87.). La grande force des dispositifs d'information et de communication, depuis le fax, le téléphone et les premiers réseaux d'échange de données informatisés jusqu'à l'internet aujourd'hui, est de permettre de gérer la complexité propre à ce type de structures au-delà d'une certaine dimension. C'est pourquoi, écrit Castells, "ils ont joué un rôle essentiel dans la vaste réorganisation structurelle qui a balayé le monde des entreprises" (p.87.). Si le modèle de l'entreprise en réseau est particulièrement adapté à l'univers des start up, il se répand rapidement dans d'autres secteurs. Ainsi devient-il la forme d'organisation "dominante" dans l'industrie électronique. A la suite de Cisco Systems qui a joué un rôle pionnier dans ce domaine, des entreprises comme Nokia, Hewlett-Packard, IBM, Sun Microsystems et Oracle "comptent parmi les firmes les plus avancées dans la restructuration autour d'Internet, tant pour ce qui concerne le produit que pour le processus de production". (p.92.). Aujourd'hui, ce modèle ne se limite plus au secteur de la haute technologie, mais progresse dans les branches d'activité les plus traditionnelles, comme en témoigne les exemples de sociétés comme Valeo ou Webcor. "Ce qu'Internet ajoute au modèle de l'entreprise en réseau, c'est donc la capacité d'évoluer en liaison organique avec l'innovation, les systèmes de production et la demande du marché, tout en restant concentré sur l'objectif premier de toute entreprise : gagner de l'argent" (p.99.). A cet égard, la façon de le gagner a lui aussi considérablement évolué dans la mesure où les réseaux d'ordinateurs ont également transformé les marchés financiers, "arbitres ultimes de la valeur de chaque firme" (p.99.). La transformation des marchés financiers Selon castells, la transformation des marchés de capitaux est à la source du développement des start up aussi bien que de l'ensemble de la nouvelle économie : "Sans le financement des start-up innovantes par les firmes de capital-risque, il n'y aurait eu aucune croissance net-économique. Et les détenteurs de capital-risque n'ont pu se lancer dans une orgie de financement, en dépit du taux de mortalité élevé de leurs investissements (environ un tiers des projets aux Etats-Unis), qu'en raison des retours élevés assurés par la valeur de capitalisation boursière sans précédent que les marchés financiers ont octroyée à beaucoup de ces entreprises novatrices" (p.100). Malgré la liquidation, dans le monde entier, de nombreuses start up, Castells considère que la longue période de forte croissance des années 1990 a d'ores et déjà transformé non seulement l'économie américaine, mais aussi "le noyau de l'économie mondiale". A cet égard, la cotation élevée des actions technologiques ne saurait, à ses yeux, être réduite à une "bulle financière", en dépit de la "surévaluation évidente de nombreuses firmes". En fait, explique-t-il : "Nous assistons aujourd'hui au développement progressif d'un marché financier mondialisé, interdépendant, fondé sur des réseaux d'ordinateurs, et qui suit des règles nouvelles pour l'investissement des capitaux et l'évaluation des actions et des titres en général. A mesure que les technologies de l'information se font plus puissantes et plus flexibles et que les réglementations nationales sont battues en brèche par les flux de capitaux et la transmission électronique, les marchés financiers s'intègrent et finissent par fonctionner comme une entité unique, en temps réel et à l'échelle du globe. La possibilité de mettre en réseau par ordinateur les systèmes de transactions transforme donc les marchés financiers, et leurs nouvelles règles apportent le capital nécessaire au financement, fondamental mais complexe" (p.101.). Selon lui, On s'oriente vers un système où la transaction électronique est en train de devenir le coeur d'un marché financier qui se reconfigure par l'intermédiaire de l'unification des Bourses du monde entier en un petit nombre de noeuds capables d'attirer les investisseurs par leur masse et leur flexibilité. Bien sûr, cette évolution n'est pas sans conséquences : "La transaction électronique augmente le nombre d'investisseurs qui appliquent des stratégies extrêmement diversifiées, en utilisant un réseau décentralisé de sources d'investissements, sur un marché mondial interdépendant qui fonctionne à grande vitesse. Le résultat net, c'est une croissance exponentielle de la volatilité - puisque la complexité, le volume et la rapidité suscitent un comportement de réaction rapide des investisseurs qui disposent d'Internet, d'où une dynamique du chaos et d'innombrables tentatives de deviner le marché en temps réel plus vite que lui. La transformation des réalités financières et celle de la technologie des transactions ont donc un effet convergent : elles font de la volatilité du marché une tendance systémique" (p.108.). A la lecture de ce qui précède, on comprend aisément pourquoi Castells en déduit que, "globalement, les marchés financiers ne sont contrôlés par personne" (p.111.). Selon lui, "Ils sont devenus une sorte d'automate, dont les mouvements brusques ne répondent à aucune logique économique rigoureuse, mais bien à une logique de complexité chaotique, celle qui résulte de millions de décisions réagissant en temps réel et sur une échelle planétaire à des turbulences de l'information d'origines diverses" (p.111.). Oui, affirme-t-il, "beaucoup de start-up Internet n'étaient pas viables". Néanmoins, prend-il soin de préciser, "de très grandes firmes technologiques, à la pointe de l'innovation, gérées efficacement, engrangeant des revenus et déclarant des profits, se sont vu infliger par les marchés un châtiment totalement disproportionné aux causes manifestes de leur baisse de résultat" (p.112.). Contrairement aux commentaires de la plupart des analystes financiers, Castells refuse de voir dans le retournement brutal du cours des actions technologiques un retour aux "critères traditionnels" de jugement des marchés financiers. Il traduit selon lui avant tout l'ampleur de la volatilité des marchés financiers, à commencer par les marchés à croissance forte où les investisseurs circulent et agissent "à la vitesse d'Internet" : "Il n'en ressort pas qu'il y a eu "exubérance irrationnelle" suivie d'un dégrisement soudain, mais au contraire nervosité paniquarde imposée structurellement par la mondialisation, la déréglementation et la transaction électronique" (p.114.). Ainsi, précise-t-il, cette expérience ne témoigne pas du retour en force du cycle des affaires habituel, mais de l'émergence d'un nouveau climat des affaires qui "se caractérise par la volatilité et l'alternance de mouvements très violents de l'évaluation boursière à la hausse et à la baisse provoqués par des turbulences de l'information qui associent les critères économiques à d'autres facteurs de jugement" (p.114.). C'est pourquoi conclut-il, "A l'ère d'Internet, caractérisé par la volatilité systématique de marchés financiers mus par l'information, l'aptitude à vivre dangereusement devient un impératif quotidien des entreprises" (p.114.). La généralisation du travail flexible Si Castells considère que l'évaluation des marchés financiers fournit désormais le socle de l'activité de l'entreprise, le travail n'en reste pas moins à ses yeux la source de la productivité, de l'innovation et de la compétitivité. On ne sera pas étonné d'apprendre qu'il subit également de profondes transformations. Dans la nouvelle économie structurée autour des réseaux électroniques, le travailleur doit en effet plus que jamais savoir se "reprogrammer", aussi bien au niveau de ses compétences, de ses connaissances, que de son mode de pensée, en fonction de l'évolution des tâches qui lui sont assignées. A cet égard, écrit Castells : "Le travailleur autoprogrammable doit avoir reçu une éducation qui lui permette d'étendre et de modifier, tout au long de sa vie professionnelle, le stock de connaissances et d'informations accumulé dans son esprit" (p.115.). Concrètement, cette exigence accrue en termes d'autonomie et d'engagement induit de lourdes conséquences dans le rapport entre le "travailleur autoprogrammable" et son employeur, dans la mesure où il exige selon Castells, un "dévouement total aux projets de l'entreprise, bien au-delà de ce que stipulent les contrats" (p.117.). cette "résurrection historique de l'autonomie du travail après la bureaucratisation de l'ère industrielle" se vérifie de manière particulièrement flagrante dans le développement actuel des "microentreprises" généralement composées d'un seul individu. Si l'avènement de la main-d'oeuvre autoprogrammable est corrélative des transformations actuelles de l'économie, elle ne représente pas l'unique modèle du travailleur. Il s'agit en effet de distinguer entre la "main-d'oeuvre autoprogrammable" et la "main-d'oeuvre générique". Cette dernière, nous dit Castells, "rassemble les travailleurs qui n'ont pas de qualification spéciale ni d'aptitude spéciale à en acquérir dans le processus de production, autre que celle qui est nécessaire pour exécuter les instructions de la maîtrise" (p.120.). Par-delà leur différence, ces deux catégories de travailleurs sont directement concernées par la "transformation fondamentale" des rapports sociaux dans l'entreprise correspondant à la généralisation de la flexibilité : "La réorganisation en réseau des entreprises, le rythme accéléré de l'économie mondiale et l'aptitude des individus et des firmes à travailler en ligne appellent une structure flexible de l'emploi" (p.121.). De fait, le travail indépendant, le temps partiel le travail temporaire, la sous-traitance et les activités de conseil sont en plein essor dans le monde actuel du travail. Partant du constat que les femmes sont la source majeure de cette main d'oeuvre autoprogrammable compétente, flexible et autonome, castells n'hésite pas à conclure sur cette formule que d'aucuns pourraient juger maladroite : "l'homme de l'organisation, c'est fini; la femme flexible; ça commence" (p.121.). En résumé, écrit-il : "la flexibilité du travail, les modèles variés de l'emploi, la diversité des conditions de travail et l'individualisation des relations salariés-patronnat sont des traits caractéristiques de l'entreprise électronique. Mais à partir du noyau de la nouvelle économie, les pratiques du travail flexible se diffusent progressivement sur l'ensemble du marché du travail, contribuant à créer une forme nouvelle de structure sociale, celle que j'ai définie par le concept de société en réseaux" (p.122.). Productivité / innovation Le recours à la notion de nouvelle économie, écrit Castells, ne prend son sens que dans la mesure où il correspond effectivement à une forte croissance de la productivité. Or, d'éminents économistes mettent précisément en doute la réalité d'une telle croissance. Pourtant, observe-t-il, de récents changements dans les catégories statistiques des Etats-Unis et de meilleures procédures comptables semblent indiquer que les investissements massifs dans les nouvelles techniques d'information, "couplés aux changements organisationnels privilégiant les réseaux", ont eu pour effet une forte croissance de la productivité : "Les Etats-Unis ont connu, pendant la seconde moitié des années 1990, une importante augmentation de l'investissement en technologies de l'information et en logiciels, qui, en 2000, représentait 50% de l'investissement total des entreprises. Cet effort, et la refonte organisationnelle simultanée, en particulier la diffusion du réseau à base Internet comme pratique d'entreprise tout à fait courante, semblent être les facteurs cruciaux qui ont déterminé la croissance de la productivité du travail - source ultime de la création de valeur et base de la nouvelle économie" (p.125.). Si ce constat est valable pour les Etats-Unis, il se vérifie naturellement, de manière plus ou moins différenciée, dans les autres régions du monde où l'investissement dans les systèmes d'information électronique et la diffusion de l'internet progressent rapidement. Aux sources de cette croissance de la productivité du travail, donc de la création de richesse, à "l'ère de l'information", se trouve bien sûr la "nouvelle économie", elle-même "propulsée par les technologies de l'information, reposant sur la main-d'oeuvre autoprogrammable et organisée autour de réseaux d'ordinateurs", dont le fer de lance est le "cybermonde des affaires" (p.126.). Si le travail est la source de la productivité, son potentiel de créativité et l'efficacité de l'organisation de l'entreprise dépendent en dernière analyse de l'innovation. Celle-ci est elle-même fonction d'un personnel très qualifié et de l'existence "d'organisations de création du savoir". Ses modalités de développement sont également profondément transformées en raison de l'utilisation de l'internet qui joue désormais un rôle fondamental dans ce processus. Concrètement, l'innovation repose aujourd'hui sur l'articulation de trois grands facteurs : - la mise en place d'un système de recherche-développement bien au point; - l'existence d'une main-d'oeuvre autoprogrammable; - la mobilisation d'entrepreneurs compétents. Tout cela s'articule avec de nouvelles modalités d'interaction entre les entreprises, dont Castells rend compte par le biais de la formule suivante : "Coopération dans la recherche, concurrence dans les applications et les services : telle paraît être la division du travail dans la nouvelle économie" (p.129.). Ainsi, conlut-il, "Quand on intègre en temps réel les réactions de toutes les parties prenantes à un processus de production/gestion, l'innovation est testée dès le départ : le produit et le processus de production se renouvellent constamment par interaction entre producteurs et consommateurs, dans une dynamique commune de retours croissants pour tous les participants au réseau. Tout cela instaure une relation de type nouveau entre rapports de propriété et rapports de production dans la création et la possession des richesses. Il y a des zones de coopération et d'appropriation collective liées à des zones de concurrence et d'appropriation privée. Ces évolutions sont encore embryonnaires, mais elles pourraient annoncer des mutations profondes dans la logique sociale de l'innovation, de la productivité et de la croissance économique" (p.129-130.). Conclusion On l'aura compris, aux yeux de Castells, le "cybermonde des affaires" ne se réduit pas aux seules entreprises qui n'existent qu'en ligne, mais il englobe toutes celles qui se structurent autour de l'internet et des autres réseaux d'ordinateurs. "Ce cybermonde est au coeur de l'émergence d'une nouvelle économie, qui se caractérise par le rôle crucial de la main-d'oeuvre autoprogrammable, de l'innovation technologique et de l'évaluation des marchés financiers dans la dynamique économique. Comme dans toutes les économies, la croissance de la productivité du travail est le moteur du développement, et l'innovation est la source de la productivité. Ces facteurs sont tous mis en oeuvre et transformés par Internet, moyen indispensable d'organisation, de mise en réseau, de traitement de l'information et de création du savoir. C'est ainsi que l'électronique transforme graduellement la vieille économie en une économie nouvelle qui s'étend à l'ensemble de la planète, sur un mode extrêmement inégal il est vrai" (p.130.). Ce qui permet d'affirmer l'existence d'une nouvelle économie, explique Castells, "c'est la hausse de la productivité du travail et la meilleure compétitivité des entreprises qui découlent de l'innovation" (p.131.). L'innovation est elle-même fonction de l'existence d'un système de recherche-développement performant, de l'accès à une main-d'oeuvre autoprogrammable, de conditions favorables aux initiatives des entrepreneurs les plus compétents. A cet égard, précise Castells : "Même les entrepreneurs les plus audacieux qui disposent de la meilleure technologie et ont conçu un bon projet ne peuvent pas grand-chose sans argent. Le financement de la nouvelle économie est la pierre angulaire de son existence" (p.133.). Or, déplore-t-il, "Ce qui ressort de l'observation, c'est que, dans la période 1996-2000, le marché a récompensé sans grande discrimination les actions technologiques de toute nature, et qu'en 2000-2001, le même marché a puni toutes les actions technologiques d'une façon tout aussi égalitaire. Il n'a prêté aucune attention aux résultats concrets des entreprises" (p.134.). Néanmoins, castells ne croit pas à la fin de la nouvelle économie, mais "au début de sa deuxième phase" (p.139.). En résumé, écrit castells : "La nouvelle économie est régie par un marché boursier extrêmement sensible, qui finance l'innovation à haut risque dont est issue la vive croissance de la productivité. C'est une économie aux enjeux très élevés : la croissance forte et l'extraordinaire création de richesse s'accompagnent de retournements potentiellement violents et de destruction de richesse. Une fois le mécanisme d'évaluation boursière sur la pente descendante, l'effondrement ne s'arrêtera pas mécaniquement, par simple effet de prix. Il faudra un renversement des anticipations. Sinon, quand les actions seront en solde, il risque de se trouver trop peu d'argent pour les acheter, et beaucoup trop de panique dans l'air pour que l'épargne quitte les refuges sûrs apparus dans la période de repli. Même de nouvelles vagues d'innovations technologiques (dans les biotechnologies, l'Internet mobile, les nanotechnologies) ne pourront réactiver l'économie sans que renaisse la confiance dans leur avenir commercial. La nouvelle économie, au fond, est une question de culture : elle repose sur la culture de l'innovation, la culture du risque, la culture des anticipations, et finalement la culture de l'espoir en l'avenir. Ce n'est qu'à la condition que cette culture-là survive à sa négation par les tenants de l'ancienne économie industrielle que la net-économie pourra de nouveau prospérer. Mais, puisque nous connaissons désormais - pour en avoir fait l'expérience - la fragilité de ce processus de création de richesse, peut-être vivrons-nous sa deuxième phase d'une autre façon, avec en tête une autre conception des choses" (p.141-142.). - [Première partie : Les origines culturelles de l'Internet->http://www.homo-numericus.bonidoo.net/article.php3?id_article=124]
2002-03-26 22:19:53
-Tendance Il est de bon ton aujourd'hui de pester contre le spam, le pourriel comme disent les Canadiens qui envahit les boîtes aux lettres électroniques. Pour beaucoup d'analystes, l'année 2001 fut certainement la pire en la matière. Mais pendant que tout le monde a les yeux braqués sur son logiciel de courrier, les régies publicitaires truffent en toute indiscrétion les pages Web disponibles sur le réseau. Qui n'a pas remarqué la multiplication ces derniers temps de nouveaux types d'affichage publicitaire plus envahissants, plus grands et plus animés qu'auparavant ? Depuis la bannière classique qui ne collecte plus beaucoup de clics, on peut aujourd'hui ditinguer au moins trois nouvelles formes d'affichage : on trouve d'abord l'affichage qui prend l'allure de sponsoring, avec un habillage complet du site, logos sur fond de page, adaptation de la charte graphique du site entre autres. En france, le magazine le Journal Du Net s'était fait un temps une spécialité de ce type d'affichage qui a le mérite de ne pas (trop) gêner la lecture. Autre affichage possible, très à la mode ces derniers temps, les pop-up, ces nouvelles fenêtres qui s'ouvrent automatiquement au chargement d'une page Web. On croyait ce procédé réservé aux sites X ou de distribution de logiciels piratés, mais ceux-ci semblent avoir fait des émules, en particulier sur les grands portails généralistes. Le dernier chic en matière de pop-up fait en sorte que les fenêtres ouvertes viennent se placer en-dessous et non au-dessus de la fenêtre que l'on est en train de consulter. Considérable subtilité : dans le dernier cas, l'internaute énervé ferme mécaniquement, et sans la regarder, la fenêtre qui vient se superposer devant ce qu'il est en train de lire. Dans l'autre cas, c'est lorsqu'il a fini de lire qu'il voit l'écran publicitaire. Il est alors frais et dispos pour se livrer aux délices de la société de "consonication". Au dessus ou en dessous, la publicité par pop-up restera cependant toujours aussi désagréable et intrusive parce qu'elle provoque des événements non voulus sur l'ordinateur de l'utilisateur. Dernier format d'affichage possible, le plus créatif sans aucun doute, mais aussi le plus rare, l'animation à l'intérieur même de la page Web consultée peut être franchement intéressante...et désagréable lorsqu'un la voit pour la millième fois. Ce qu'on appelle parfois ["publicité volante"->http://www.cyber-strategie.com/strategies/inter.html] consiste très souvent à promener des éléments d'une bannière publicitaire (le plus souvent au format "skyscraper") à travers une page, jusqu'à ce que ceux-ci, à la fin de l'animation, rejoignent enfin leur emplacement à l'intérieur de la bannière. Ce support publicitaire original s'est récemment dégradé sur la plupart des sites Web et prend maintenant la forme d'un simple rideau qui vient recouvrir la moitié d'une page Web pendant quelques secondes. On parle alors [d'"expand banner"->http://www.journaldunet.com/dossiers/sites/e-pub/banner/expand.shtml] Ces évolutions relativement récentes visent à contredire la baisse continue d'attention que les internautes accordent aux écrans publicitaires. Fait nouveau, il ne s'agit plus seulement de ranimer l'intérêt défaillant par des formats différents, comme les fameux formats ["skyscraper"->http://www.journaldunet.com/dossiers/sites/e-pub/annuaireformats.shtml], mais de contraindre à regarder l'écran publicitaire avant de pouvoir accéder à l'information voulue. L'introduction d'animations constitue de ce point de vue un tournant majeur sur le Web dans la mesure où l'affichage d'information est désormais scénarisé, contraint dans un déroulement temporel prédéfini qui le rapproche fortement de la publicité télévisée. C'est d'ailleurs, selon [Cnet->http://news.com.com/2100-1023-860769.html], l'objectif affiché par les agences publicitaires de nouvelle génération qui développent ces formats. Ce rapprochement a le double intérêt pour elles, et pour les annonceurs, de réduire les coûts de développement d'une campagne, et surtout de créer des phénomènes de résonnance entre les supports, gage d'une efficacité maximale. Reste à savoir si ces nouveau formats sont adaptés au support informatique. Car l'échec des bannières classiques, simple transfert sans adaptation en provenance de la presse traditionnel met en évidence la nécessité d'adapter le contenu au support sur lequel il est diffusé. Il est peu probable que faire la même chose en copiant le support télévisuel aboutisse à des résultats plus probants. Il y a une régularité dans les usages informatiques en général, sur Internet en particulier, qui montre que la contrainte est le meilleur moyen d'entraîner des comportements contraires à ceux que l'on souhaite obtenir. Gageons que l'utilisation massive de pop-up entraînera une utilisation tout aussi massive de pop-up killers, ces petits logiciels destinés à fermer automatiquement les fenêtres ouvertes par le navigateur, ce qui entraînera la mise en place de parades plus ou moins efficaces de la part des éditeurs de contenus, aboutissant à une guerre larvée entre éditeurs et lecteurs pour le moins dommageable aux uns et aux autres.
2002-04-02 17:30:38
Pascal Fortin, chercheur en sciences sociales publie une note de lecture en cinq épisodes sur le dernier livre de Manuel Castells : La galaxie Internet. En voici la troisième partie. La suite sera publiée suivant un rythme hebdomadaire Qu'il s'agisse des mouvements ouvriers, identitaires, écologiques, religieux, nationalistes, culturels, féministes, des droits de l'homme, ou tout simplement politiques, tous ont désormais recours à l'internet. A telle enseigne que, affirme Castells, "Le cyberespace est devenu une agora électronique planétaire où, dans toute sa diversité, l'insatisfaction humaine explose en une véritable cacophonie" (p.172.). La principale caractéristique de ces mouvements sociaux serait de combler le "vide" laissé par la "crise" des "organisations hiérarchiques". Des "coalitions floues", des mobilisations "semi-spontanées", des mouvements "ponctuels et ciblés" de type néo-anarchiste se substitueraient désormais aux "organisations officielles permanentes et structurées". Profitant de la faiblesse du contrôle des Etats sur l'internet, ces mouvements ont profité de ce nouvel espace de liberté d'expression ouvert à toute la planète en marge du prisme déformant des médias commerciaux. Néanmoins, une coalition d'intérêts bien compris réunissant les Etats et entreprises menace aujourd'hui cet espace de liberté en abolissant l'intimité au nom de la sécurité. L'Etat, la société civile et les réseaux d'ordinateurs Mouvements "antimondialisation" et réseaux citoyens Prenant l'exemple de ce qu'il appelle le "mouvement antimondialisation"[[En fait, il serait plus juste de parler de mouvement "antimondialisation libérale", voire de "mouvement pour une autre mondialisation"]], Castells observe qu'il n'a "ni organisation permanente, ni centre, ni structure de commandement, ni programme commun" (p.176.). Naturellement, l'absence de centralisme du mouvement antimondialisation n'est pas inédit d'un point de vue historique : "Ce côté informel, cette relative spontanéité ont toujours été le signe distinctif des mouvements sociaux les plus productifs" (p.177.). Par contre, l'utilisation de l'internet comme moyen d'expression et d'organisation "crucial" pour la coordination interne et la médiatisation de ce type d'action est à la fois inédit et indispensable : "La nouveauté, c'est la mise en réseau par Internet, car elle permet au mouvement d'être à la fois divers et coordonné, de s'engager dans un débat continu sans être paralysé, puisque chacun de ses noeuds peut reconfigurer un réseau suivant ses affinités et ses objectifs, avec des chevauchements partiels et des connexions multiples. Le mouvement antimondialisation n'est pas seulement un réseau, c'est un réseau électronique, un cybermouvement. Et parce qu'il est chez lui sur Internet, il ne saurait être désorganisé ou pris au filet : il y nage comme un poisson dans l'eau." (p.177.). Think local, act global: inversant ce fameux truisme des années 1980, Castells rétorque que "les mouvements sociaux doivent penser local (en prise directe avec leurs préoccupations et leur identité propres) et agir global (au niveau mondial, où cela compte vraiment aujourd'hui)" (p.177.). A l'ère de l'information, conclut-il, "changer la société par le conflit, c'est d'abord lutter pour transformer les fondements de l'existence sociale en construisant des réseaux interactifs pour organiser et mobiliser. Ces réseaux, nés de la résistance de sociétés locales, cherchent à vaincre le pouvoir des réseaux mondiaux, donc à reconstruire le monde par en bas. Internet leur offre la base matérielle nécessaire pour engager la création d'une société nouvelle. En le faisant, ils transforment aussi Internet : d'outil dédié à l'organisation des entreprises et à la communication, le voici devenu le levier d'une mutation sociale" (p.178.). En dehors du mouvement "antimondialisation", le milieu des années 1980 a correspondu à l'émergence d'une "large gamme" de communautés en ligne. En général, écrit Castells, trois constituants distincts ont convergé dans ces réseaux d'ordinateurs à base communautaire : - les mouvements militants antérieurs à Internet; - les composantes les plus politisées du mouvement des hackers; - et enfin les municipalités qui s'efforçaient de renforcer leur légitimité en ouvrant de nouveaux canaux de "participation civique". L'exemple de la cité numérique d'Amsterdam témoigne de la difficulté à assurer la pérennité ce genre de réseau citoyen. C'est pourquoi, conclut Castells, "On ne voit pas encore clairement si une société civile planétaire est susceptible de se former dans les années qui viennent. Mais si elle se constitue, les réseaux d'ordinateurs citoyens locaux-mondiaux seront, incontestablement, l'une de ses composantes cruciales" (p.191-192.). Internet, démocratie et politique informationnelle Nombreux sont les observateurs à penser que l'internet pourrait être un "instrument idéal pour faire avancer la démocratie". Pourtant, constate castells, la plupart des études et enquêtes décrivent un bien "triste panorama". En fait, reconnaît-il, "il eût été surprenant qu'Internet, par la grâce de la technologie, conjure une méfiance si profondément ancrée à l'égard de la politique, et cela à l'échelle mondiale" (p.193.). Si l'internet ne saurait fournir de "remède technologique" à la "crise" de la démocratie, il joue néanmoins, affirme Castells, un rôle important dans la nouvelle dynamique politique qu'il appelle la "politique informationnelle". L'internet offre en effet à ses yeux un canal de communication horizontal en principe non contrôlé et relativement bon marché, d'individu à individu autant que d'individu à multitude. Bien que son usage par les hommes politiques reste très limité, observe-t-il, il est de plus en plus utilisé par les journalistes indépendants, les militants et toute sorte de gens pour diffuser des informations politiques et des "rumeurs". S'appuyant sur les exemples de "l'affaire Lewinsky" et de la publication des Mémoires du docteur Gubler, médecin de François Mitterrand, Castells en déduit la conclusion suivante : "Il n'y a plus de secret politique à l'ère d'Internet, une fois l'information sortie d'un cercle très restreint d'initiés (p.195.). A cet égard, regrette-t-il, "la frontière entre le bavardage, le fantasme et l'information politique valable se fait donc toujours plus floue, ce qui complique davantage encore le maniement de cette arme politique privilégiée qu'est l'information à l'ère d'Internet. Ainsi, pour l'instant, au lieu de renforcer la démocratie en stimulant l'information et la participation des citoyens, les usages que l'on fait d'Internet aggravent la crise de légitimité de la politique en offrant une base de lancement plus vaste à la politique du scandale" (p.195-196.). Finalement, observe-t-il, la politique informationnelle engendre tout naturellement l'éventualité d'une "guerre informationnelle" et, plus largement, le surgissement d'une nouvelle doctrine de sécurité adaptée à l'ère de l'internet. En fait, des stratégies informationnelles contradictoires se télescopent : "d'un côté on assiste à la mise en place d'un espace d'information et de communication planétaire aussi ouvert que possible à divers participants (Etats, organisations internationales, firmes, ONG); de l'autre, du point de vue de chaque Etat ou organisation, s'élabore une stratégie de l'information qui vise à promouvoir ses propres intérêts et valeurs dans le cadre des règles du jeu. Couler, autant que l'on pourra, les idées de la planète dans un moule favorable à un ensemble précis d'intérêts nationaux ou sociaux devient donc la nouvelle frontière, et la plus efficace, de l'exercice du pouvoir sur la scène mondiale" (p.199.). Ainsi, conclut, Castells : "A l'ère d'Internet, la dimension politique de notre vie est bouleversée en profondeur. Le pouvoir s'exerce d'abord au niveau de la production et de la diffusion des codes culturels et du contenu de l'information. Le contrôle des réseaux de communication devient le levier par lequel des intérêts et des valeurs sont mués en normes du comportement humain. Comme dans les situations historiques antérieures, ce mouvement se déploie contradictoirement. Internet n'est pas un instrument de liberté, mais il n'est pas non plus l'arme d'une domination unilatérale. L'expérience de Singapour le montre bien. [...] La liberté, en fait, n'est jamais acquise. Elle est l'enjeu d'une lutte perpétuelle, le fruit de l'aptitude des hommes à redéfinir l'autonomie et à mettre en oeuvre la démocratie dans un contexte social et technologique donné. De ce point de vue, Internet renferme un extraordinaire potentiel d'expression des droits civiques et de communication des valeurs humaines. Certes, la communication en ligne ne saurait se substituer au changement social ou à la réforme politique. Mais, en nivelant plus ou moins le terrain de la manipulation symbolique et en élargissant les sources de la communication, elle contribue bel et bien à la démocratisation. Internet met les citoyens en contact sur une agora publique, pour qu'ils expriment leurs préoccupations et partagent leurs espoirs. C'est pourquoi le problème politique le plus fondamental que pose le développement du réseau est peut-être le contrôle de cette agora publique par les citoyens eux-mêmes" (p.203-204.). Vie privée et liberté dans le cyberespace Menaces sur les libertés Créé pour servir d'outil de "libération", écrit Castells, l'internet semblait annoncer dans les premières années de son existence un "nouvel âge de liberté". Hélas, observe-t-il, ce "paradigme de la liberté" reposant selon lui sur une "double base technologique et institutionnelle" est précisément attaqué par de nouvelles techniques et réglementations : "Rien n'empêche de superposer aux protocoles d'Internet de nouvelles couches d'applications permettant d'identifier l'itinéraire et le contenu de la communication. Avec ces technologies, on peut alors s'ingérer dans la vie privée et, dès qu'il devient possible de relier les individus à des actes de communication précis dans des contextes juridiques particuliers, toutes les formes traditionnelles du contrôle politique et institutionnel peuvent être déchaînées sur l'utilisateur" (p.210.). La mise en danger de la liberté et de la vie privée sur l'internet, affirme Castells, "est un effet direct" de sa marchandisation. Reprenant à son compte l'analyse de Lawrence Lessig, il observe ainsi que le besoin de sécuriser et d'identifier la communication pour en tirer de l'argent associé à la volonté de protéger la propriété intellectuelle, aboutissent au développement de nouvelles architectures de logiciels autorisant le contrôle de la communication par ordinateurs. Par ailleurs, loin de lutter pour la protection des individus contre ces menaces sur la vie privée, Castells remarque au contraire que "Dans le monde entier, les Etats soutiennent ces technologies de surveillance et les adoptent avec enthousiasme dans l'espoir de récupérer en partie le pouvoir qu'ils étaient en train de perdre" (p.211.) En conséquence de l'action conjuguée des Etats et des marchands, affirme castells, "l'émergence d'un système de surveillance électronique se profile à l'horizon" (p.218.). Or, ce constat lui paraît d'autant plus paradoxal que l'essentiel de la technologie capable de percer l'anonymat et de limiter la vie privée est aujourd'hui fournie par les sociétés de l'internet à l'idéologie pourtant "ardemment libertaire" : "Le grand paradoxe historique, c'est qu'un des principaux champions de la liberté, la libre entreprise, est la pierre angulaire de ce système policier" (p.223.). Non seulement, les entreprises de l'internet ont été les premières à utiliser ces techniques, mais elles ont permis un "retour en force" du contrôle des Etat dans "l'espace de liberté que les pionniers d'Internet avaient créé en profitant de l'indifférence et de l'ignorance des bureaucraties traditionnelles" (p.218.). Ceux-ci ne se sont d'ailleurs pas fait prier pour passer à l'offensive et entreprendre une politique ambitieuse de coordination inter-étatique aux fins de lutter contre la cybercriminalité : "La réunion du G8 à Paris en juin 2000 a mené la charge et le Conseil de l'Europe lui a fait écho en élaborant une Convention contre la cybercriminalité, rédigée par les ministères de l'Intérieur et les polices des pays européens avec l'aide des grands éditeurs mondiaux de logiciels : elle constitue à ce jour l'entreprise la plus vaste et la plus exhaustive jamais tentée pour contrôler la communication sur Internet" (p.220.). Lessig a raison, ajoute-t-il : "la nouvelle architecture d'Internet - le nouveau code - devient l'outil fondamental de surveillance qui permet aux instances traditionnelles de l'Etat de faire oeuvre de réglementation et de police" (p.221.). Manifestement indigné, Castells multiplie les attaques contre l'adoption des décisions liberticides qui entravent la liberté de l'internet : "L'effet global de toutes ces mesures est d'ôter tout caractère privé à la communication sur Internet - de transformer cet espace de liberté en maison de verre" (p.221.). Alors que les mesures sécuritaires qui ont suivi les attentats du 11 septembre 2001 aux Etats-Unis n'avaient pas encore été adoptées au moment où Castells écrivait son livre, cela ne l'empêchait pas de pousser ce cri d'alarme : "Avec le panoptique électronique, c'est donc la moitié de notre vie qui est surveillée en permanence" (p.223.). La contre-offensive des "combattants de la liberté" Néanmoins, fidèle à cette conviction que les peuples menacés dans leur liberté finissent un jour ou l'autre par se rebeller, castells veut croire en la capacité des internautes à résister à cette coalition manifeste d'intérêts entre les entreprises et les Etats qui "menacent ensemble la liberté" : "Codes contre codes. Les technologies du contrôle peuvent aussi être contrecarrées par des technologies de la liberté" (p.225.). Selon lui, la société civile entreprend aujourd'hui de nouveaux "combats libérateurs" en s'appuyant notamment sur le pouvoir judiciaire qui lui offre une certaine protection contre les abus flagrants. A cet égard, affirme castells, "L'histoire est contradictoire et la contre-offensive des combattants de la liberté est en marche" (p.218.). Et si l'internet n'est plus un "territoire libre", précise-t-il, "il n'accomplit pas non plus la prophétie de George Orwell. C'est un terrain disputé où se livre la nouvelle bataille de principe pour la liberté à l'ère de l'information". (p.211.) Ainsi, conclut-il, "A l'aube du XXIe siècle, une étrange combinaison de contraires domine le monde d'Internet : une idéologie libertaire d'un côté, une pratique de plus en plus sécuritaire de l'autre. Les mouvements de défense de la liberté sur le réseau, comme la coalition qui s'est constituée autour de l'Electronic Privacy Information Center aux Etats-Unis, jouent un rôle essentiel dans la préservation de l'esprit initial d'Internet, espace de liberté. Mais la résistance ne suffira pas. C'est sur le terrain du droit, des tribunaux de l'opinion, des médias, de la responsabilité sociale des entreprises, des institutions politiques, que se jouera l'avenir d'Internet. Les réseaux mondiaux sont incontrôlables mais leurs utilisateurs peuvent être, sont et seront surveillés - à moins que les sociétés, optant pour la liberté d'Internet, ne passent à l'action" (p.227.). Conclusion Castells reconnaît que l'essentiel de son analyse repose sur un postulat implicite : "les Etats ne sont pas des amis de la liberté" (p.227.). C'est pourquoi il défend vigoureusement la légitimité de la cryptographie face aux menaces d'intrusion de la part des entreprises aussi bien que de l'Etat en tant que "moyen le plus efficace dont disposent les particuliers pour assurer l'intimité de leur message" (p.227-228.). Finalement, écrit-il, "les Etats ne font pas confiance aux citoyens - ils savent toujours mieux que ce qui est bon ou pas - et les citoyens ne font pas confiance aux Etats - on les connaît" (p.228). Aussi, conclut-il à propos des Etats, "tant qu'ils persisteront à craindre le peuple, donc internet, la société, étonnamment fidèle à son histoire, montera sur les barricades de la liberté" (p.228-229.). - [Première partie : Les origines culturelles de l'Internet->http://www.homo-numericus.bonidoo.net/article.php3?id_article=124] - [Deuxième partie : La nouvelle économie n'est pas un mythe->http://www.homo-numericus.bonidoo.net/article.php3?id_article=133]
2002-04-09 00:00:00
Pascal Fortin, chercheur en sciences sociales publie une note de lecture en cinq épisodes sur le dernier livre de Manuel Castells : La galaxie Internet. En voici la quatrième partie. La suite sera publiée suivant un rythme hebdomadaire Nombreux sont les futurologues à avoir annoncé la mort de la géographie ou encore le désenclavement des territoires corrélativement au développement des techniques d'information et de communication. Evidemment, il n'en est rien. S'il fallait encore convaincre de l'ineptie de ce type de prophétie, les analyses de Castells devrait permettre de vaincre la crédulité des derniers récalcitrants. Certes, l'internet redéfinit les distances, mais il n'abolit pas la géographie : "De nouvelles configurations territoriales émergent des processus simultanés de concentration, décentralisation et connexion spatiales qu'impulse inlassablement la géométrie variable des flux planétaires d'informations" (p.255.). L'hyperconcentration de la production des contenus La réalité géographique de l'internet, explique Castells, peut être analysée à trois niveaux : la répartition dans l'espace de son équipement technique, de ses utilisateurs et de ses producteurs. - Sur le plan technique, L'un des points intéressants à retenir est la centralité des Etats-Unis dans les connexions internationales en raison de leur capacité de largeur de bande bien supérieure à celle du reste du monde. - Au niveau des utilisateurs, personne ne sera surpris de "l'extrême inégalité" de la répartition territoriale de l'internet. A cet égard, précise Castells, "L'usage d'Internet se diffuse très vite, mais en épousant une structuration de l'espace qui fragmente sa géographie en fonction de la richesse, de la technologie et du pouvoir : c'est la nouvelle géographie du développement" (p.260.). - Si l'usage de l'internet est appelé à se diffuser largement dans les années qui viennent dans les pays industrialisés ainsi que dans les grandes métropoles du monde en développement, Castells insiste à juste titre sur une "géographie économique plus élitiste" qui se dessine lorsqu'on observe la production des contenus. Dans la mesure où ces derniers sont le produit crucial de l'ère informationnelle et où l'internet constitue l'outil fondamental pour les produire et les faire circuler, la géographie économique globale de l'internet, affirme Castells, est celle de ses fournisseurs de contenu. Or, observe-t-il, "Les Etats-Unis se taillent la "part du lion" des domaines Internet avec environ 50% du total (p.267.). Cette domination des Etats-Unis est encore plus forte quand on la mesure en termes de sites et de pages les plus visitées : "65% des 1000 premiers sites et 83% de l'ensemble des pages visionnées en 2000" (p.268.). Il y a bien, précise Castells, une "tendance à l'élargissement géographique de la fourniture de contenus de l'internet commercial, mais à partir d'une concentration spatiale extrême dans un tout petit nombre de pays, dont la domination dans leur conception et leur distribution sera effective pendant très longtemps" (p.268.). Au niveau même des Etats-Unis, la domination des grandes métropoles dans la fourniture des contenus de l'internet est écrasante, avec une concentration particulièrement forte au sommet : "En nombre de domaines, New York, Los Angeles et San Francisco-Silicon Valley devancent de très loin toutes les autres" (p.270.). La concentration des fournisseurs de contenu Internet aux Etats-Unis cache donc en réalité une autre concentration dans une poignée d'aires métropolitaines, et particulièrement dans celles qui constituent le sommet de la pyramide de l'internet : New York, Los Angeles et San Francisco, Seattle et Washington DC. Ainsi, conclut Castells, "la recherche prouve que la fourniture de contenus Internet, mesurée en nombre d'adresses de domaine, présente un taux de concentration dans l'espace très élevé. Cette activité en principe sans attache a donc un quotient de localisation supérieur à la plupart des autres branches. Elle est concentrée dans un petit nombre de pays; installée dans son écrasante majorité en zone métropolitaine, et en particulier dans certaines des métropoles les plus riches du monde; en général (mais pas toujours) concentrée dans les plus grandes aires métropolitaines du pays; concentrée, encore, au sein de chaque pays, dans un petit nombre d'aires principales, avec taux élevé de spécialisation dans celles qui ont lancé l'Internet commercial; concentration enfin dans des quartiers précis au sein même des aires métropolitaines. Bref, ce qui définit la géographie des fournisseurs de contenus Internet, c'est la mainmise d'un tout petit nombre de lieux physiques sur les sites virtuels du monde entier" (p.271-272.). L'ère des métropoles tentaculaires et des "réseaux diviseurs" On l'a déjà dit, l'un des mythes fondateurs de la futurologie à l'ère de l'internet, c'est la mort des villes. Or, remarque castells : "Internet est, très concrètement, un support technologique qui permet à la fois l'expansion des métropoles et leur mise en réseaux à l'échelle planétaire" (p.275.). Ainsi l'économie en réseaux est-elle pour l'essentiel constituée de très vastes aires métropolitaines interconnectées. Dans la mesure ou l'internet traite de l'information, on ne sera pas surpris d'apprendre que "ses centres nerveux se trouvent dans les principaux systèmes d'information, ceux sur lesquels reposent l'économie et les institutions des métropoles" (p.279.). Néanmoins, précise Castells, l'internet n'est pas au sens strict un phénomène purement métropolitain, mais un "réseau de noeuds métropolitains" : "Il n'y a pas centralisme mais nodalité, dans le cadre d'une géométrie de réseau" (p.279.). Le trait fondamental de ces bassins de vie est d'effacer les distinctions traditionnelles entre villes et campagnes, ou encore entre villes et banlieues. La région métropolitaine est finalement une structure qui "repose entièrement sur les transports et les communications. Et les systèmes d'Information et de communication sont organisés par Internet et autour de lui" (p.282.). A l'intérieur de ces nouvelles aires métropolitaines, de nouvelles formes de travail ont d'importants effets sur l'espace. En effet, si l'annonce de l'avènement du télétravail à domicile est l'un grand mythes de la futurologie, d'autres formes de travail à distance connaissent un essor significatif. C'est le cas notamment du travail dans les "centres d'appel". L'autre grande innovation est le télétravail mobile qui, selon Castells, va bientôt connaître une "croissance spectaculaire". En fait, observe-t-il, "Le modèle qui s'impose n'est donc pas celui du télétravailleur à domicile, mais celui du travailleur nomade et du bureau en cavale" (p.285.). Ce qui caractérise les régions métropolitaines à l'ère d'Internet, conclut Castells, c'est "une dynamique simultanée d'expansion tentaculaire et de concentration, le mélange des modes d'occupation des sols, l'hypermobilité, et la dépendance à l'égard des communications et du transport, tant intramétropolitain qu'internodal. Ainsi apparaît un espace hybride, fait de lieux et de flux : un espace de lieux mis en réseaux" (p.287.). Hélas, déplore-t-il, "tout le monde n'est pas invité à pénétrer dans le nouvel espace de sens promis par l'ère d'Internet : la ségrégation s'accroît dans nos villes, imposée par la logique des réseaux diviseurs" (p.291.). En effet, la logique de réseau inhérente aux infrastructures de l'internet est caractérisée par des lieux qui peuvent être aussi facilement connectés que déconnectés. L'infrastructure pour tous, observe castells, a été la "pierre angulaire" de l'urbanisation moderne dans la mesure où elle a permis la constitution des villes industrielles "en tant que systèmes sociaux et fonctionnels intégrés". Or, semble-t-il regretter, "Au cours des années 1990, la libéralisation, la privatisation et la déréglementation, ainsi que la rapide mutation technologique et la mondialisation de l'investissement, ont inversé cette tendance historique : elles ont diversifié l'infrastructure urbaine en fonction de la capacité des marchés, des priorités fonctionnelles, des privilèges sociaux et des choix politiques" (p.291.). Cette tendance, ajoute-t-il, est généralisée à la surface du globe : "on construit des infrastructures de télécommunication spécifiques qui contournent le réseau téléphonique normal et relient directement les très grands centres d'affaires, ceux qui produisent et consomment l'écrasante majorité des données en circulation sur Internet" (p.293.). Elle se traduit par la mise en place de "réseaux diviseurs" qui "accentuent la tendance générale à l'aggravation de la ségrégation socio-spatiale dans les villes du monde entier" (p.293.). En conclusion, écrit Castells, "Une nouvelle dualité urbaine naît de l'opposition entre espace de flux et espace de lieux. L'espace de flux relie des lieux éloignés sur la base de leur rentabilité, de leur élitisme social et de leur supériorité infrastructurelle. L'espace des lieux isole les gens dans leurs quartiers, en raison de leurs faibles chances d'accéder à un meilleur environnement local (à cause du prix) et mondial ( en raison du manque d'équipements de connexion convenables) (p.293-294). Malgré le pessimisme de ce constat, Castells veut croire dans la possibilité d'une inversion de tendance dont il pense déceler les prémices dans la réaction actuelle des "exclus" censés réaffirmer leurs valeurs en utilisant Internet pour "résister" et promouvoir des "projets alternatifs". Néanmoins, conclut-il, "en l'absence de mobilisation sociale et de politique inspirée par l'intérêt général, les réseaux diviseurs nés d'une déréglementation débridée des télécommunications et d'Internet risquent fort d'alimenter un clivage nouveau, et fondamental : la fracture numérique mondiale" (p.295.). La fracture numérique Exitla fracture sociale, voici le temps de la "fracture numérique". Or, à en croire Castells, cette dernière n'est pas moins inquiétante que la première, mais vient aggraver ses méfaits. D'emblée, il nous prévient que "Le rôle central d'Internet dans tant d'activités sociales, économiques et politiques condamne à la marginalité ceux qui n'y ont pas accès, ou insuffisamment, et ceux qui sont incapables de s'en servir efficacement" (p.300.). Et d'ajouter aussitôt, comme pour mieux nous alarmer que "La différenciation entre connectés et non-connectés ajoute un nouveau clivage fondamental aux facteurs existants de l'inégalité et de l'exclusion sociales, dans une interaction complexe qui accroît ouvertement l'écart entre les riantes promesses de l'ère de l'information et sa sinistre réalité pour tant de gens dans le monde" (p.300.). Cette fracture numérique, précise Castells, ne se résume pas à la simple question de l'inégalité d'accès. Néanmoins, ajoute-t-il, "il s'agit d'une condition qu'il faut satisfaire si l'on veut surmonter l'inégalité dans une société dont les fonctions et les groupes sociaux dominants s'organisent de plus en plus autour d'Internet" (p.301.). Quoi qu'il en soit, Les dimensions de la fracture numérique sont multiples. Plutôt que de les présenter en détail, on se contentera simplement ici de mentionner ces inégalités : de revenus, d'éducation, générationnelles, géographiques, liées aux différences d'appartenance "ethnique", de situation familiale, ou encore au handicap. Au départ, la fracture numérique était très forte aux Etats-Unis. Naturellement, elle existe toujours, sauf entre les sexes. Néanmoins, observe Castells, elle tend à s'atténuer à mesure que l'utilisation de l'internet s'étend à la majorité de la population. "Si l'on en croit les projections, 63% des Américains seront en ligne en 2003 et plus des trois quarts vers 2005 : la fracture numérique autour de l'accès concernera donc essentiellement les secteurs les plus pauvres et les plus marginalisés de la population - ce qui aggravera leur marginalité" (p.308.). Selon, lui, toutes choses égales par ailleurs, une dynamique comparable semble à l'oeuvre dans les autres pays industrialisés. Malgré cette évolution finalement plutôt positive, Castells demeure profondément pessimiste quant au devenir de la fracture numérique. "Internet a pris son essor dans un contexte d'inégalité sociale de l'accès, et cela partout : voilà qui risque d'avoir sur sa structuration et son contenu des conséquences durables, dont nous ne pouvons pas encore pleinement appréhender les modalités. L'impact des utilisateurs est, en effet, encore plus déterminant sur Internet que sur toute autre technologie, en raison de la vitesse à laquelle leur rétroaction est transmise et de la flexibilité du réseau. C'est ainsi que les premiers utilisateurs ont pu façonner Internet pour les suivants - ses contenus comme son infrastructure -, et que ses pionniers ont déterminé la technologie qu'allaient ensuite utiliser les multitudes des années 1990. Aujourd'hui, l'accès se complique, car il passe par des technologies plus raffinées (tels les interfaces utilisateurs graphiques), et cela pourrait ralentir le taux d'adoption dans les catégories les moins instruites. Quoi qu'il en soit, si la fibre libertaire, qui a inspiré Internet nous a donné une "toile" planétaire de chances à saisir (fût-ce au prix d'un certain élitisme culturel), ses usages très marchands de la fin des années 1990, inspirés du modèle de consommation et d'organisation sociale des milieux aisés des sociétés occidentales avancées, ont peut-être déformé sa pratique en lui imposant des distorsions précises" (p.309-310.). Dès qu'une source d'inégalité technologique semble s'atténuer, s'offusque-t-il, une autre apparaît. Aujourd'hui, c'est l'écart dans l'accès rapide aux services large bande qui pose problème. Ainsi est-il fort possible que "lorsque les masses accéderont enfin en rang serré à l'Internet par téléphone, les élites de la planète se seront déjà retirées dans une plus haute sphère du cyberespace" (p.310.). Par ailleurs, tout effort de réduction de la fracture numérique est nécessairement voué à l'échec si elle n'est pas accompagnée par une amélioration du système éducatif à une époque où la capacité d'apprendre en permanence devient essentielle à la réussite professionnelle et à l'épanouissement personnel. "Pour travailler sur le réseau et surtout pour développer l'aptitude à apprendre dans une économie et une société organisées autour de lui, il faut un autre type d'enseignement. Son principe fondamental est clair : il ne s'agit plus d'apprendre, il s'agit d'apprendre à apprendre" (p.313.). Hélas, s'alarme Castells, tout laisse à penser que, dans l'état actuel de la situation, loin de se combler, les écarts semblent plutôt se creuser. "Au cours des années 1990, en même temps que la révolution explosive des technologies de l'information, la montée de la nouvelle économie et la diffusion d'Internet, le monde a connu une aggravation massive de l'inégalité des revenus, de la pauvreté et de l'exclusion sociale" (p.320.). Concrètement, précise-t-il, "le monde, son économie, ses réseaux de communication se transforment avec Internet et autour de lui en laissant de côté pour l'instant, l'écrasante majorité de la population de la planète : plus de 93% en 2000" (p.316.). Or, affirme-t-il, "On peut prouver que, dans les conditions sociales et institutionnelles qui dominent aujourd'hui dans le monde, le nouveau système techno-économique crée un développement inégal, qui accroît simultanément la richesse et la pauvreté, la productivité et l'exclusion, et répartit de façon différenciée ces effets dans les diverses régions du monde et les différentes catégories sociales. Et, puisque Internet est au coeur de la nouvelle structure d'organisation socio-technique, ce processus mondial de développement inégal est peut-être l'expression la plus spectaculaire de la fracture numérique" (p.321.). Conclusion En raison de l'éloquence des analyses de Castells et de la gravité de ses conclusions, contentons nous finalement de lui céder la parole en espérant sans trop y croire que son cri d'alarme est susceptible de recevoir quelque écho : "Fondamentalement, la fracture numérique ne se mesure pas au nombre de connectés à Internet, mais aux effets simultanés de la connexion et de la non-connexion. Parce qu'Internet, je me suis efforcé de le montrer tout au long de ce livre, n'est pas seulement une technologie. C'est l'instrument et la structure organisationnelle qui distribue le pouvoir de l'information, la création du savoir et la capacité de mise en réseau dans tous les domaines. Et les pays en développement sont donc pris au piège de sa toile d'araignée. Ne pas être connecté à Internet, ou l'être superficiellement, c'est se faire marginaliser dans le système planétaire en réseaux. Se développer sans Internet aujourd'hui, ce serait comme s'industrialiser sans électricité hier. C'est pourquoi les fréquentes déclarations qui préconisent de commencer par les "vrais problèmes du tiers-monde" - c'est à dire la santé, l'éducation, l'eau, l'électricité, etc. Avant d'en venir à Internet - traduisent une incompréhension profonde des problèmes actuels du développement. Sans une économie et un système de gestion fondés sur Internet, aucun pays ne pourra s'assurer les ressources nécessaires pour financer son développement durable. Je veux dire durable économiquement, durable socialement, et durable pour l'environnement. [...] Face à cette situation, la mondialisation fondée sur Internet applique la logique du réseau : elle passe au crible la planète en quête de bonnes occasions et connecte uniquement ceux dont elle a besoin pour les objectifs qu'elle s'est fixés. C'est ainsi que les sociétés et les institutions se fragmentent, avec la mise en réseau dynamique des entreprises qui réussissent, des individus qui gagnent et des organisations qui s'adaptent; Bien évidemment, ces mécanismes relèvent en dernière analyse de l'action humaine; ils peuvent donc être inversés ou modifiés. Mais ce n'est pas seulement une question de compétence et de volonté politique - bien que l'une et l'autre soient indispensables à tout effort pour changer le cours des événements. D'autres facteurs entrent en ligne de compte : l'ampleur de la fracture numérique dans chaque pays; la capacité d'impulser une dynamique d'apprentissage social parallèlement à la construction d'une infrastructure en technologies de l'information et de la communication; la bonne gestion des activités économiques; la qualité de la production active; l'existence ou non d'un consensus social fondé sur la redistribution; l'émergence d'institutions politiques légitimes enracinées dans le local et capables de gérer le global. Tout dépend, enfin, de l'aptitude des pays et des acteurs sociaux à s'adapter à la vitesse Internet dans la mise en oeuvre du changement. Continuer comme avant, c'est élargir la fracture numérique mondiale, qui risque de projeter toute la planète dans des crises innombrables et multiformes. Le nouveau modèle de développement impose de "sauter l'obstacle". Son objectif est une économie fondée sur Internet, dynamisée par l'instruction et la capacité de produire du savoir, capable d'opérer au sein des réseaux mondiaux de la valeur, et soutenus par des institutions politiques légitimes et efficaces. Son émergence en conforme à l'intérêt de l'humanité tout entière" (p.326-327-328.). -[Première partie : Les origines culturelles de l'Internet-> http://www.homo-numericus.bonidoo.net/article.php3?id_article=124] -[Deuxième partie : La nouvelle économie n'est pas un mythe->http://www.homo-numericus.bonidoo.net/article.php3?id_article=133] -[Troisième partie : Internet et la politique->http://www.homo-numericus.bonidoo.net/article.php3?id_article=134]
2002-04-20 22:50:05
Pascal Fortin, chercheur en sciences sociales publie une note de lecture en cinq épisodes sur le dernier livre de Manuel Castells : La galaxie Internet. En voici la cinquième et dernière partie. Parmi les nombreux débats suscités par le développement de l'internet, rares sont ceux qui ont suscité des polémiques aussi passionnées et peu étayées que dans le cas des effets attribués à l'internet sur nos modes de sociabilité. Ainsi l'internet a-t-il été accusé, entre autres poncifs, d'inciter ses adeptes à s'évader du réel pour entrer dans une culture de plus en plus dominée par la réalité virtuelle. Pourtant, observe Castells, les études existantes montrent que "Dans leur écrasante majorité, les usages d'Internet sont utilitaires et étroitement liés au travail, à la famille et à la vie quotidienne des internautes. Les e-mails en représentent plus de 85%, et servent pour l'essentiel à accomplir des tâches d'ordre professionnel ou pratique, et à maintenir le contact avec la famille et les amis dans la vie réelle" (p.149.). Communautés virtuelles ou société en réseaux ? En fait, les usages de l'internet correspondent avant tout à une extension de la "vie réelle" et les échanges électroniques semblent n'avoir en général qu'un effet limité sur la structuration de la vie quotidienne, consistant pour l'essentiel à ajouter une interaction en ligne aux relations sociales préexistantes : "Si Internet a un effet quelconque sur l'interaction sociale, il serait plutôt positif. D'autant que ses utilisateurs semblent accéder plus facilement; grâce à lui, aux autres sources d'information" (p.153.). Contrairement à une idée très répandue, les études existantes ne confirme pas l'hypothèse d'un affaiblissement du lien social et d'une aggravation de la solitude liée à la pratique de l'internet. En fait, suggère Castells, "Le vrai problème est peut-être qu'on ne pose pas les bonnes questions" (p.157.). En effet, il s'agit selon lui de restituer l'étude de la sociabilité de l'internet dans le contexte "de la mutation des modes de convivialité dans notre société" (p.157.). Or, précise-t-il, "Le point capital ici est naturellement le passage de la communauté au réseau comme forme de structuration principale de l'interaction. Les communautés - dans la tradition de la recherche sociologique - étaient fondées sur le partage de certaines valeurs et d'une organisation sociale. Les réseaux sont construits en vertu des choix et des stratégies des acteurs sociaux, qu'il s'agisse d'individus, de familles ou de groupes. La grande mutation de la sociabilité dans les sociétés complexes est donc passée par un changement de la forme principale du lien sociale : la substitution des réseaux aux communautés territoriales" (p.160.). Aujourd'hui, rappelle Castells, la montée de l'individualisme est le trait dominant de l'évolution des relations sociales dans nos sociétés. "Après l'hégémonie des relations primaires (les familles, les communautés), puis secondaires (les associations), nous voici dotés d'un nouveau système dominant qui paraît construit sur les relations tertiaires, pourrait-on dire - ce que Wellmann appelle les "communautés personnalisées" : les réseaux centrés autour du moi. On assiste, en fait, à une véritable privatisation de la sociabilité. Mais cette relation individualisée à la société est un mode de structuration spécifique du lien social, et non un trait psychologique. Elle est issue avant tout de l'individualisation du rapport entre capital et travail, et entre les actifs et leur activité professionnelle, dans l'entreprise en réseau. Elle est induite par la crise du patriarcat et sa conséquence, la désintégration de la famille nucléaire traditionnelle telle qu'elle s'était constituée à la fin du XIXe siècle" (p.161-162.). Si "l'individualisme en réseau" est bien le nouveau mode de sociabilité dans nos sociétés, l'internet constitue avant tout un amplificateur de réseaux et non un facteur de solitude. Non seulement il est efficace pour maintenir et même développer des liens faibles, mais il semble aussi jouer un rôle positif pour le maintien des liens forts à distance. Ainsi, le rôle le plus important de l'internet dans la structuration des relations sociales, affirme Castells, découle de sa contribution à la "nouvelle sociabilité fondée sur l'individualisme" : "De plus en plus de gens sont organisés, non seulement dans des réseaux de sociabilité, mais encore dans des réseaux de sociabilité qui communiquent par ordinateur. Internet ne créé donc pas l'individualisme en réseau, il offre un support matériel approprié à sa diffusion hégémonique" (p.164.). On l'aura compris, cet individualisme en réseau est bien aux yeux de Castells une structure sociale et non une juxtaposition d'individus isolés : "Les individus tissent leurs réseaux en ligne et hors ligne à partir de leur centre d'intérêt, de leurs valeurs, de leurs affinités et de leurs projets. Grâce à la flexibilité et à la puissance de communication d'Internet, l'interaction sociale en ligne joue donc un rôle croissant dans l'organisation globale de la société. Les réseaux en ligne, quand ils se stabilisent, peuvent engendrer de véritables communautés : des communautés certes virtuelles, différentes en cela des communautés physiques, mais pas nécessairement moins fortes ou moins efficaces pour maintenir un contact ou mobiliser. En outre, nous assistons de fait, dans nos sociétés, au développement d'un hybride de la communication : il réunit le lieu physique et le cyberlieu pour servir de support matériel à l'individualisme en réseau" (p.164.). Non seulement les nouveaux développements technologiques semblent jouer dans le sens de l'individualisme en réseau, mais ils accroissent ses chances, affirme castells, de devenir "la forme dominante de sociabilité". Finalement, conclut-il, "s'il est évident, que ces évolutions contribuent au triomphe de l'individu, leur coût pour la société n'est pas encore clair. A moins de considérer que les individus, en fait, réédifient aujourd'hui le lien social lui-même, en s'aidant des technologies dont ils disposent, pour en construire une forme nouvelle : la société en réseau" (p.166.). Convergence, multimédia, hypertexte et lien social Sans cesse annoncée, toujours repoussée, le fantasme de la "convergence" est sans doute l'un des mieux partagés parmi les technophiles de tout poil. "Tout au long des années 1980, futurologues, technologues et bâtisseurs d'empires médiatiques ont couru derrière un rêve : la convergence entre l'informatique, Internet et les médias" (p.232.). En fait, affirme Castells, "loin de converger avec les médias, Internet affirme sa spécificité" (p.246.). Si l'internet est bien doté aux yeux du sociologue de sa propre logique et de sa propre langue, il n'est pas pour autant confiné dans un champ particulier de l'expression culturelle, tout simplement parce qu'"il les traverse tous". Ainsi a-t-on recours à l'internet aux fins de diffuser des messages politiques, de communiquer par e-mail dans sa vie quotidienne, de transmettre des idées, ou encore de chercher des informations. C'est pourquoi, affirme castells, l'internet relève avant tout de la communication plutôt que du loisir. "Tandis que les médias audiovisuels, et en particulier la télévision, se sont laissés dominer par la logique du spectacle et de l'information-spectacle, Internet interprète celle-ci comme un "accident technique" de la communication et la contourne. Les échanges qui se développent sur Internet se caractérisent par la libre expression sous toutes ses formes, plus ou moins appréciées selon les goûts de chacun. C'est l'open source, l'envoi gratuit, la radiodiffusion décentralisée, l'interaction inventive, la communication pour agir et la création collective qui s'expriment sur Internet. Si la convergence a lieu un jour, ce sera lorsque l'investissement requis pour installer des capacités de largeur de bande à une échelle excédent les besoins des entreprises sera justifiée par un nouvel ordre médiatique, un ordre qui sera disposé à satisfaire la plus considérable des demandes latentes : la demande de libre expression interactive et de création autonome - aujourd'hui contrecarrée par la pensée sclérosée des médias traditionnels" (p.247.). En fait, suggère Castells, "la vision la plus novatrice de la mutation culturelle à l'ère de l'information est peut-être celle qui s'est élaborée autour du concept d'hypertexte et de la promesse du multimédia - dans son sens originel" (p.247.). La convergence entre les médias et l'internet, ainsi que l'utilisation des technologies numériques de réalité virtuelle, étaient censées accomplir la "grande promesse". Pourtant, constate-t-il, "ce n'est pas ce à quoi nous assistons à l'aube du XXIe siècle" (p.248.). Mais l'erreur est peut-être d'avoir "conçu l'hypertexte comme un système interactif réel de communication numérique, exploité électroniquement, au sein duquel toutes les composantes des expressions culturelles présentes, passées et futures, dans toutes leur manifestations pourraient coexister et être recombinées" (p.248.). Or, s'il est possible d'un point de vue technique de créer un tel système, personne ne semble aujourd'hui, selon Castells, disposé à le mettre au point. Pour autant, Castells se demande si cette vision finalement très matérialiste de l'hypertexte ne correspond pas à une façon bien trop "primitive" d'appréhender les processus culturels. En effet, précise-t-il, ce ne sont pas les machines qui créent la culture à partir de la vie, "ce sont les esprits" : "L'hypertexte n'est pas produit par le multimédia qui utiliserait Internet pour nous atteindre, il est produit par nous qui utilisons Internet pour aspirer les expressions culturelles du multimédia - et les autres" (p.249.). Partant de cette observation, Castells en déduit que nous entrons dans une époque qu'il baptise de "culture de la virtualité réelle" : "Elle est virtuelle parce qu'elle est élaborée principalement selon des processus de communication virtuels, électroniques. Elle est réelle (et non pas imaginaire), parce qu'elle est notre réalité fondamentale, la base matérielle à partir de laquelle nous vivons notre vie, construisons nos systèmes de représentation, accomplissons notre travail, entrons en relation avec les autres, trouvons nos informations, élaborons nos opinions, menons une action politique et entretenons nos rêves. Cette virtualité est notre réalité. Voilà ce qui caractérise la culture à l'ère de l'information: c'est essentiellement en passant par la virtualité que nous créons du sens" (p.250). S'appuyant sur cette hypothèse selon laquelle la virtualité fondée sur l'élaboration d'un hypertexte personnalisé serait "la langue dans laquelle nous construisons le sens", Castells en déduit une double conséquence sur nos modes de socialisation : "Si[...] nous construisons nos propres systèmes d'interprétation grâce à Internet, nous sommes certes libres, mais nous sommes aussi des autistes en puissance" (p.251.). En effet, précise-t-il, plus nous choisissons notre "hypertexte personnel" dans un contexte de structure sociale en réseaux et d'expression culturelle individualisée, et plus nous aurons du mal à trouver un "langage commun". C'est pourquoi il en vient finalement à poser la question fondamentale suivante : "comment pouvons-nous partager des valeurs dans la vie sociale ?" (p.250.). En fait, suggère-t-il, en dehors des mécanismes traditionnels de partage de "codes culturels" lié au simple fait de vivre ensemble, "la communication dépend beaucoup dans la culture de la virtualité réelle, de l'existence de "protocoles d'échange du sens" (p.251.). Or, affirme-t-il, l'art est aujourd'hui le plus important de ces protocoles : "Peindre les puissants dans leur misère humaine, sculpter les opprimés dans leur dignité humaine, relier les splendeurs de notre environnement aux enfers de notre psyché comme dans les paysages de Van Gogh, c'est dépasser les inévitables épreuves de la vie pour trouver l'expression de la joie, de la douleur, du sentiment, qui nous réunit tous et fait que cette planète , malgré tout, est vivable. [....] Dans un monde aux miroirs brisés, fait de textes non communicables, l'art pourrait devenir - non pas en s'en donnant mission, mais par sa simple existence - un protocole d'échange et un outil de reconstruction sociale. En suggérant, par l'ironie ou la beauté, que nous sommes encore capables d'être ensemble, et d'en jouir. L'art, qui devient toujours plus un hybride de matériaux virtuels et physiques, est ainsi en mesure de jeter un pont culturel entre le réseau et le moi" (p.252.). Conclusion générale Société en réseau, société numérique, société de l'information, société de la communication, galaxie internet, etc. : finalement, peu importe la dénomination retenue, l'essentiel étant aux yeux de castells, que l'internet est bien un "nouveau milieu de communication". Or, précise-t-il, "Puisque communiquer est l'essence même de l'activité humaine, Internet pénètre tous les domaines de la vie sociale et les transforme. Une nouvelle configuration, la société en réseau, est en gestation sur toute la planète, sous des formes certes très diverses d'un point à l'autre, et avec des effets tout à fait différents sur la vie des populations en fonction de leur histoire, de leur culture, de leurs institutions. Comme les mutations structurelles antérieures, ce bouleversement charrie avec lui autant de possibilités nouvelles que de problèmes. Son issue est indéterminée : elle dépendra d'une dynamique contradictoire, de lutte éternelle entre les efforts toujours renouvelés pour dominer, pour exploiter, et la défense du droit de vivre et de chercher un sens à sa vie" (p.333.). On aura compris que Castells ne croit pas en la fin de l'histoire. Si nul ne peut prédire l'avenir, il n'en reste pas moins que les nuages s'accumulent à l'horizon : "En cette aube de l'ère de l'information, nous voyons monter dans le monde entier, face à la dynamique du changement qu'impulse aujourd'hui la technologie, un extraordinaire sentiment de malaise qui risque de susciter un choc en retour considérable. Si nous ne lui répondons pas, son exaspération pourrait anéantir les promesses contenues dans cette forme nouvelle d'économie et de société qui naît de l'ingéniosité technique et de la créativité culturelle" (p.334.). Contentons-nous ici de relever les nombreux défis auxquels Castells nous enjoint de faire face : - les menaces sur la liberté; - l'aggravation du processus d'exclusion; - les problèmes d'éducation; - les nouvelles modalités de la lutte entre employeurs et salariés à l'ère de l'entreprise en réseau et de l'individualisation des structures de l'emploi; - le défi de l'encadrement de la nouvelle économie par des procédures "neuves et flexibles" de réglementation institutionnelle, - l'accélération de la dégradation de l'environnement; - les "monstres technologiques" que nous risquons d'engendrer; - et, surtout, la nécessité de combler l'absence d'acteurs et d'institutions ayant les moyens et la volonté de relever tous ces défis. A cet égard, écrit Castells, "Jusqu'à présent, en démocratie, cette responsabilité revenait aux Etats, agissant au nom de l'intérêt public. Et je pense qu'elle leur incombe encore aujourd'hui. Mais j'ai bien du mal à l'écrire, car je suis pleinement conscient - on l'aura compris à la lecture de ce livre - de la crise de légitimité et d'efficacité qui les frappe actuellement" (p.340.). En dépit de ce scepticisme quant à la capacité des Etats à relever les nombreux défis de la "société en réseau"; conclut Castells, "nous aurons tout de même besoin d'institutions, de représentation politique, de démocratie participative, de procédures d'élaboration du consensus, de politiques publiques efficaces. Et, pour commencer, d'Etats responsables et vraiment démocratiques. J'estime que, dans la plupart des sociétés, la traduction pratique de ces grands principes est un vaste champ de ruines, et qu'un pourcentage considérable de citoyens ne s'attendent plus à les voir appliquer. C'est le maillon faible de la société en réseaux. Si nous ne reconstruisons pas, par le bas et par le haut, nos institutions politiques, nous ne serons pas en mesure de répondre aux défis fondamentaux auxquels nous sommes confrontés. Et ce que les institutions politiques démocratiques ne pourront faire, nul ne pourra le faire et nul ne le fera à leur place" (p.341-342.). -[Première partie : Les origines culturelles de l'Internet->article124] -[Deuxième partie : La nouvelle économie n'est pas un mythe->article133] -[Troisième partie : Internet et la politique->article134] -[Quatrième partie : Géographie de l'Internet et fractures numériques->article135]
2002-03-27 15:51:57
-Analyse Lorsque Thierry Carcenac remit récemment son rapport sur l'administraton électronique, quelques observateurs s'interrogèrent sur l'absence de préoccupation dans ce document sur la question essentielle de la protection des données personnelles, comme si la réflexion sur l'une n'entrainait pas automatiquement des questions sur la deuxième. Ce deuxième volet de la réflexion vient donc de faire l'objet d'un livre blanc rédigé par Pierre Truche, président de la Commission nationale de déontologie des forces de sécurité, Patrice Flichy, sociologue spécialiste des technologies de l'information, et Jean-Paul Faugère, préfet et ancien directeur des libertés publiques au Ministère de l'Intérieur ; un rapport très attendu dans le contexte d'un débat émergent sur les questions relatives à l'identité électronique, à l'usage de la cryptographie et in fine sur le risque de mise en place d'une société de surveillance concomittante à l'entrée dans la société de l'information. Tout l'intéret du rapport Truche est d'insérer la question de la protection des données personnelles au sein de l'administration électronique dans le contexte plus général de l'environnement industriel dans lequel il se déploie. Comme le relève bien le document, l'administration française est loin d'etre la seule à s'intéresser à la question, et elle se trouve bien loin derrière les entreprises privées comme Microsoft ou Verisign qui proposent des systèmes déjà opérationnels. Par ailleurs, la dimension protéiforme de cette question est prise en compte par les auteurs du rapport qui abordent dans le même temps la question de la confidentialité des données, celle de la gestion des identités numériques et de l'authentificaqtion des documents électroniques. Quelques lignes de principes forts ont guidé leur réflexion : 1. Le déploiement d'une administration électronique n'a de sens que dans la perspective d'une amélioration des services rendus à l'usager, et notamment d'une inversion des flux d'information. Il ne s'agit plus désormais pour les administrations de demander incessamment des informations - toujours les mêmes, et des documents justificatifs, mais plutot de communiquer aux personnes les informations dont elles disposent sur elles, et de les rectifier ensuite si besoin est. En un mot, l'usager n'est plus au service de l'administration, mais l'administration au service de l'usager. 2. Cette amélioration du service va dans le sens d'une application plus effective et concrète de la loi Informatique et Libertés qui prévoit une droit d'accès et de rectification de l'usager sur les informations collectées sur lui, droit resté jusqu'à présent très théorique. Elle implique une plus grande maîtrise de l'usager sur ses données personnelles et l'utilisation qui en est faite par les différentes administrations. 3. La question de l'identité numérique fait l'objet d'une approche fine par le raport qui reconnaît comme légitime une certaine fragmentation des identités selon les contextes. C'est pourquoi le rapport écarte implicitement le recours d'emblée à un identifiant unique valable universellement, qui ne pourrait d'ailleurs s'appuyer sur rien d'existant; Le rapport Truche rappelle en particulier que le numéro INSEE ne peut servir d'identifiant unique et que son utilisation en dehors du cadre social ou médical est très sévèrement encadré par la loi. De toutes façons, le rapport n'arrive pas dans un paysage vierge et précise que chaque ministère a développé ou est très engagé dans son propre système d'identification lié à la manière dont sont organisés ses propres fichiers ; projet I-prof dans l'Education nationale basé sur le NUMEN des enseignants, projet Copernic pour l'administration des finances, mise en place du "titre fondateur" par le Ministère de l'Intérieur. 4. Fort heureusement, personne ne songe à interconnecter tous ces fichiers de manière automatique (c'est interdit par la loi Informatique et Libertés) : ce sera aux personnes elles-mêmes à autoriser les administrations à se communiquer tels types de renseignements, ou, le cas échéant, à les fournir en personne. 5. Il reste à déterminer quelle méthode sera utilisée pour conserver les données personnelles de chaque individu. C'est ici que la fameuse notion de coffre-fort électronique fait son apparition : il s'agit d'une application sécurisée centralisant toutes les données personnelles, aussi bien celles qui servent à l'identification que celles qui décrivent différentes qualités attachées à la personne. A priori, ce "coffre-fort " est sécurisé et accessible au moyen d'une clé d'identification ou d'un jeu de clés partielles. Mais le vrai débat n'est pas là : il s'agit plutôt de savoir si ce coffre-fort doit etre hébergé par un service de l'administration publique ou conservé par l'administré, que ce soit sur une carte à puce ou sur son ordinateur personnel. On sait que le ministre de la fonction publique, Michel Sapin, a déjà opté, en théorie pour la première solution, s'attirant les moqueries du site Kitetoa. Le rapport Truche est beaucoup plus prudent et préfère examiner toutes les possibilités, avec leurs avantages et leurs inconvénients : on apprend en particulier que le GIE carte bancaire est en train d'étudier la possibilité d'insérer une fonction de signature électronique sur la puce des cartes de crédit. Le Ministère de l'Intérieur pour sa part est en train de mettre au point une carte d'identité électronique à options, sur laquelle pourraient être inscrits différents droits : permis de conduire ou carte d'électeur par exemple. Une des options retenues inclut aussi l'insertion d'une signature électronique qui pourra être utilisée à des fins d'authentification de documents. 6. Dernier point, et non des moindres, qui fera plaisir aux militants de l'AFUL - l'Association Française des Utilisateurs de Logiciels Libres, les auteurs du rapport rappellent qu'il n'y a de sécurité possible que si les sources des programmes informatiques qui assurent cette sécurité sont ouvertes, c'est-à-dire accessibles et contrôlables par tous : les logiciels "open source" limitent en effet les risques de vulnérabilité (qui sont plus vite corrigées), et surtout interdisent l'insertion d'une backdoor qui serait immédiatement détectée. Une remarque de bon sens qui témoigne que le combat des défenseurs du libre n'est pas totalement inutile. Plus étonnante est la recommandation par les auteurs du rapport pour un rapprochement avec le regroupement Liberty Alliance, mis sur pied à la hâte par Sun Microsystems pour répondre dans le domaine de la gestion des données personnelles au Passport de Microsoft. L'intérêt de Liberty Alliance disent-ils, est de se cantonner à la mise au point d'un protocole et d'un standard ouverts et utilisables par tous, contrairement aux logiciels développés par Microsoft qui reposent sur des technologies propriétaires. Pourquoi pas en effet, mais ce choix relève aussi d'une stratégie purement industrielle qui dépend d'autres acteurs. Ne nous emballons pas. Même de qualité, ce document n'est qu'un rapport. Et on sait quel triste destin attend la plupart des rapports, surtout lorsqu'ils sont de qualité. Le fond du problème vient ici du fait que chaque administration dans chaque ministère développe son propre programme de passage à l'administration électronique sans véritable coordination. Le rapport Truche insiste d'ailleurs, à la suite du rapport Carcenac sur la nécessité d'un chef d'orchestre qui pour l'instant n'existe pas. Par ailleurs, les administrations sont inégalement avancées dans leur travail, avec d'un coté Bercy qui engage 90 milions d'euros dans son projet Copernic, et de l'autre l'Education Nationale encore incapable de fournir des téléservices au public auquel elle s'adresse. L'un et l'autre de ces ministères acceptera-t-il un "chef d'orchestre" dans les mêmes conditions ? Le risque est en effet grand que le passage en ordre dispersé de l'administration aux téléservices entraine le leadership de fait d'une administration, en l'occurrence les Finances ou l'Intérieur sur les systèmes développés par les autres administrations. Au total le rapport Truche, relativement équilibré comme on vient de le voir, manifeste un optimisme de bon aloi envers ce que pourrait être une administration électronique efficace : la mission espère en effet que cette évolution, loin d'être néfaste, constitue une chance de réfome pour une administration unanimement accusée par les Français de harcèlement bureaucratique. Belle espérance, mais il est encore trop tôt pour se prononcer : il ne s'agit après tout que d'un rapport. -Le Forum des Droits sur l'Internet a reçu pour mission d'organiser un [débat public->http://www.foruminternet.org/forums/descr.php?f=7] sur le [livre blanc->http://www.foruminternet.org/telechargement/documents/rapp-truche-20020226.pdf] qui peut être consulté en ligne, ainsi qu'une [synthèse->http://www.foruminternet.org/telechargement/documents/rapp-truche-synth-20020226.pdf] vraiment très...synthétique.
2002-04-09 23:27:25
-Tendance Le logiciel libre a dix-huit ans. C'est en 1984 que Richard Stallman et d'autres hackers ont lancé le projet [GNU->http://www.gnu.org/gnu/initial-announcement.html] en réaction au développement de versions commerciales et surtout propriétaires du célèbre système Unix utilisé jusqu'alors de manière relativement libre par les universités et institutions scientifiques du monde entier. Mais si le logiciel libre atteint aujourd'hui l'âge de majorité, ce n'est pas seulement une question de date. La progression fulgurante à la fois des programmes distribués dans ces conditions et des idées qui animent ce mouvement manifeste à la fois la maturité du logiciel libre, mais lui pose aussi un certain nombre de questions sur son développement futur. -Une offre plus large et plus accessible L'offre en matière de logiciels libres s'est considérablement diversifiée et s'adresse désormais à un public beaucoup plus large que les milieux scientifiques et académiques. L'actualité de ces dernières semaines en est la preuve : les supermarchés Auchan ont choisi de faire [migrer leurs serveurs départementaux->http://techupdate.zdnet.fr/story/0,,t381-s2107829,00.html] vers Linux. De même pour le [Bundestag allemand->http://news.zdnet.fr/story/0,,t118-s2103865,00.html] et les collectivités locales danoises, rebutées par le renchérissement des licences Microsoft. Parallèlement, les sociétés de service Linux se multiplient proposant aux entreprises et institutions la configuration de systèmes mixtes le plus souvent, reposant sur une infrastructure logicielle libre, et des applications propriétaires développées pour l'occasion. C'est même là tout l'intérêt du logiciel libre : dans la mesure où le code source est ouvert, les petites entreprises de services peuvent facilement l'adapter aux besoins d'un client spécifique. L'arrivée du logiciel libre en général, de Linux en particulier sur le bureau de l'utilisateur final, que ce soit un particulier ou le salarié d'une entreprise est plus incertaine. Pour ce qui concerne Linux, des sociétés comme [Mandrake->http://www.linux-mandrake.com] ont fait de gros efforts pour rendre le système techniquement accessible à tous. Installer Linux sur son ordinateur personnel n'est plus un chemin de croix ; mieux encore, ce choix n'implique pas de jeter Windows aux orties, le système d'exploitation libre gérant la coexistence des deux systèmes dans un même ordinateur. Plus récemment, de petites sociétés se sont spécialisées sur ce créneau de "Linux pour tout le monde". [Lycoris->http://www.lycoris.com/] en est l'exemple le plus frappant, parmi d'autres. La société [Ximian->http://www.ximian.com] pour sa part a développé un bureau tout à fait performant et simplifie considérablement les procédures de mise à jour grâce à son logiciel Red Carpet. On peut mesurer la rapidité du changement dans le développement du logiciel libre en relisant l'article que nous avions écrit il y a quelques mois à peine sur les [alternatives à Windows XP->http://www.homo-numericus.bonidoo.net/article.php3?id_article=80] : les deux faiblesses que nous avions pointées concernant les Personal Information Manager (du type Outlook) et la vidéo sont aujourd'hui en partie comblées : Evolution, du même Ximian est enfin sorti de son statut en bêta-développement, et le projet Aethera semble relancé par une nouvelle version plus performante. Pour la vidéo, des logiciels commme Oms et Xine permettent de s'en sortir honorablement. C'est même une nouveauté de la distribution [Mandrake 8.2->http://www.linux-mandrake.com/fr/82announce.php] que d'inclure Xine dès l'installation du système, ce qui évite bien des déboires de compilation pour l'utilisateur de base. -Incertitudes économiques Des systèmes plus performants, plus faciles à installer et à utiliser, tout irait pour le mieux dans le meilleur des mondes libres...s'il n'y avait la dure réalité des chiffres pour nous rappeler que les systèmes d'exploitation alternatifs à Windows (Linux, BSD, feu-BeOS) restent quantité négligeable en comparaison de ceux commercialisés par la firme de Redmond, pour ce qui concerne les ordinateurs personnels tout du moins. Que manque-t-il alors pour assurer leur succès ? Le marketing évidemment ; et la volonté des éditeurs de se tourner vers le grand public. Que cette volonté soit inexistante n'est pas étonnant : le coeur des systèmes et les applications de base étant pour l'essentiel gratuits, c'est essentiellement sur les services que les entreprises se rémunèrent ; services dispensés aux entreprises évidemment, et pour lequel l'utilisateur individuel n'est pas prêt à payer. C'est même là le coeur du problème : les distributions pour le grand public ne peuvent être chères dans la mesure où celui-ci a l'impression de ne pas payer Windows qui est préinstallé sur son ordinateur. Il est donc plus facile pour une entreprise de se poser la question du logiciel libre dans la mesure où elle sait (et même chaque année), qu'elle paie pour Windows. En attendant la question se pose chaque jour davantage de la viabilité économique des entreprises proposant des services commerciaux liés au logiciel libre. Les [difficultés financières->http://www.linux-mandrake.com/en/mdkfuture.php3] dans lesquelles se bat actuellement Mandrakesoft ne sont pas faites pour rassurer. A court de liquidités, l'entreprise a dû réviser en catastrophe sa politique commerciale et demander à ses utilisateurs d'adhérer massivement au "club" qu'elle a mis en place, avec un succès mitigé jusqu'à présent. Pour sa part, l'entreprise Sun Microsystems a décidé de rendre payante sa suite bureautique [Star Office->http://newsforge.com/article.pl?sid=02/03/25/013225&mode=thread], concurrent jusqu'à présent gratuit de Office édité par Microsoft. Star Office n'a jamais été un logiciel libre bien entendu (contrairement à Open Office), mais était jusqu'à présent inclus gratuitement dans la plupart des grandes distributions Linux. On a souvent tendance à confondre logiciel libre (qui concerne la liberté accordée pour la modification et redistribution su code) et freeware (logiciel gratuit). Mais cette confusion n'est pas si absurde que cela, car dans la réalité, la plupart des logiciels libres sont aussi des freeware (c'est l'inverse qui n'est pas forcément vrai) et c'est exclusivement ce qui fait, pour l'utilisateur, son intérêt. Comment, dès lors, rentabiliser une activité de distribution d'un logiciel gratuit ? Cette question, reposée avec une insistance malveillante par les éditeurs de logiciels propriétaires n'a toujours pas trouvé sa réponse, spécialement dans la mesure où le système économique dans lequel s'insère le logiciel libre, repose quand même sur des principes de fonctionnement relativement différents. -Début d'une révolution ? De gros progrès techniques et ergonomiques, une forte incertitude économique et commerciale, la situation du logiciel libre dix-huit ans après son lancement quasi-officiel est contrasté. Mais ce n'est pas exactement sur ce terrain qu'il est en train de gagner une première bataille. Car la philosophie politique qui préside à la production du logiciel libre, sous l'effet en particulier de l'attitude de l'industrie du divertissement culturel, s'est étendue à d'autres domaines que la programmation informatique, en particulier à la création artistique et à la production d'information indépendante où la notion d'"open source" commence à être utilisée et appliquée. Cette dernière sert désormais de fondement à un combat juridique et politique plus large contre les formes les plus sévères de la législation sur la propriété intellectuelle, combat rassemblant au delà du cercle habituel des programmeurs et hackers indépendants et mené aujourd'hui aussi bien par des journalistes ou des juristes, des artistes ou des individus. Des juristes comme Lawrence Lessig et son initiative intitulée [Creative Commons->http://www.creativecommons.org/], des artistes comme Antoine Moreau et son portail [Artlibre->http://artlibre.org/news/], des journalistes comme Patrick Dedoni et Natacha Quester-simon qui travaillent actuellement sur le développement d'un portail du ["contenu ouvert"->http://www.contenuouvert.org/] et d'autres encore qui ont compris à quel point la révolte des programmeurs dans les années 80 contre les entreprises commerciales qui étouffent l'innovation en faisant un usage immodéré du droit protégeant la propriété intellectuelle est le point de départ d'une bataille plus importante et plus large qui touche à tous les types de production intellectuelle. Ils ont surtout compris que la législation du copyright, au départ conçue pour protéger les auteurs et garantir une diffusion efficace des connaissances et des discours, autrement dit des Lumières pour lesquels il a été défini, a été perverti et est aujourd'hui le moyen le plus efficace pour un petit nombre d'acteurs de contrôler et s'approprier les moyens juridiques et économiques de la production cullturelle ; c'est-à-dire très exactement le contraire de ce pourquoi il a été conçu. En ce sens, la création du logiciel libre il y a dix-huit ans fut sans doute le début d'une authentique révolution qui verra un nombre croissant d'individus réclamer le retour des idées, des "contenus" et des formes d'expression culturelle dans le giron du bien commun, accessible à tous et modifiable par tous. La bataille ne fait que commencer.
2002-04-27 00:30:30
Les résultats du premier tour des élections présidentielles, en plaçant un leader d'extrême droite en seconde position pour la première fois dans l'histoire de ce scrutin a provoqué un choc considérable et une mobilisation sans précédent pour la défense des valeurs républicaines. Sur le réseau aussi : le magazine Transfert s'est fait l'écho, tout au long de la semaine, de ces multiples initiatives qui, à l'instar de Liberté-Egalité-Fraternité, appellent à la mobilisation. Christophe Agnus, rédacteur en chef du même magazine appuie ces initiatives et demande d'ailleurs aux internautes d'utiliser l'outil de communication qu'ils maîtrisent bien, mails, forums, et Web, pour diffuser le mot d'ordre, sans se faire trop d'illusion d'ailleurs : "beaucoup de ceux qui ont voté pour l'extrême droite dimanche 21 avril n'ont pas accès à l'Internet" écrit-il dans un éclair de lucidité. Et c'est bien là le problème, ou en tout cas un symptôme majeur du problème. Car, au cours de son développement, Internet en France tout du moins, n'est resté jusqu'à présent qu'un "fétiche" (comme dirait Wired) de plus entre les mains d'une petite élite, que toutes les enquêtes sur le profil sociologique des internautes décrivent de la même manière : diplômée, urbaine, jeune et mondialisée. Celle qui précisément détient déjà par ailleurs les clés de la communication par d'autres canaux : médias traditionnels, réalisations professionnelles, action politique ou associative. -Fracture communicationnelle Dans cette perspective, il est probable que le vote Le Pen, et plus largement le vote protestataire, au delà de toutes les causes qui ont déjà été évoquées trouve une partie de son explication dans un échec flagrant de la communication politique comme mode de réalisation d'un fonctionnement démocratique au sein de la société. Que des millions de personnes n'aient trouvé à leur disposition que le bulletin de vote du Front National pour exprimer leur sentiment politique, et sans doute leur mécontentement, est significatif de cet échec. La désormais fameuse fracture sociale, qui se double d'une fracture politique, on vient d'en faire l'expérience, repose en dernière instance sur une fracture communicationnelle dont on commence à mesurer les ravages : d'un côté une petite élite socialement homogène qui verrouille les positions et sources de la communication, de l'autre une multitude obscure qui ne dispose d'aucun autre moyen pour se représenter le monde qui l'entoure et de se représenter à elle-même que le 20 heures de TF1, avec les conséquences que l'on sait. -Faillite de la médiation La médiation de l'information et de l'opinion par des circuits de légitimation complexes et contrôlés est en France une sorte de dogme auquel il est hors de question de toucher : le journaliste, l'homme politique, le leader syndical, le scientifique s'y arrogent plus facilement qu'ailleurs un monopole de diffusion de l'information et d'expression des opinions qu'il est censé à la fois représenter et médiatiser. Il ne fait cependant aucun doute que les instances de médiation traditionnelles se sont effondrées les uns après les autres au cours de ces dernières années. La rupture des circuits d'expression et de légitimation a ouvert un fossé gigantesque entre deux France qui ne se parlent plus depuis longtemps. Les opinions qui ne trouvaient plus à s'exprimer par ces canaux se sont donc rabattues brusquement sur un moyen de communication très limité, très imparfait, parce qu'il n'a jamais été conçu pour cela : le vote. On a beaucoup reproché aux Français ces derniers jours d'avoir "joué aux cons" en instrumentalisant leur bulletin de vote. Mais avaient-ils les moyens de faire autrement quand tout autre mode de communication leur était fermé, quand ils n'avaient aucune autre possibilité pour faire entendre leur exaspération ? Ce qu'on appelle avec pompe la "société de l'information" reste bien éloigné de la situation française qui reste bloquée sur un modèle communicationnel parfaitement archaïque : une circulation univoque et hiérarchisée de l'information à partir d'un centre qui occupe cette position pour des raisons (historiques et économiques) que rien ne vient légitimer, jusqu'à des périphéries isolées, considérées comme de simples réceptacles consommatrices d'information et de mots d'ordre, structurellement dans l'incapacité de pouvoir répondre, exprimer ou échanger quoique ce soit. Jusqu'à présent, le déséquilibre structurel dans la communication était amplifié sinon causé par la configuration technique des moyens de communication : ni les mass média, quels que soient leur support, ni les processus électif ne peuvent techniquement permettre la réalisation d'un grand forum national où chacun exprimerait à l'égal ses positions et espérerait être entendu. De ce point de vue, les nouvelles technologies de l'information peuvent être appréhendées comme un déverrouillage technologique possible de cette dissymétrie dans la communication politique. Il est désormais techniquement possible de constituer à grande échelle, à l'échelle d'une nation entière, un dialogue entre les citoyens, de mettre sur pied des lieux d'expression et de négociation à propos des grandes et petites orientations que peut prendre le gouvernement de la nation. -Déterminisme technologique Mais, toute l'histoire des techniques le montre, il n'y a pas de déterminisme technologique. De par sa seule existence, une technologie ne change pas une réalité sociale, tant qu'elle ne correspond pas à des pratiques et conceptions nouvelles. Si l'on passe rapidement en revue les différents domaines dans lesquels les nouvelles technologies ont été récemment introduites, on se rend compte que bien peu en ont profité pour évoluer réellement. Bizarrement, c'est l'administration qui est le mieux placé pour le faire aujourd'hui, car elle s'est engagée dans un projet ambitieux de service à l'usager pour le moins prometteur. Les derniers rapports sur le sujet (Rapport Carcenac, rapport Truche) sont d'ailleurs fort clairvoyants en la matière : le basculement vers l'administration électronique n'a de sens que si elle fournit l'occasion d'une réorganisation en profondeur de ses services. Une chose que manifestement n'ont pas compris les acteurs de la vie politique. Les sites de campagne ne furent, une fois de plus, que des vitrines, simples portages chics de plaquettes électorales surannées. La presse spécialisée a suivi avec passion l'expérience de vote électronique qui s'est déroulée à Vandoeuvre, sans se demander une seule seconde ce que ce système pouvait bien apporter de neuf à part un dépouillement des suffrages plus rapide. Autre initiative plus ancienne, le site Expression publique, constituait a priori une approche originale de la question de la communication politique puisqu'il se proposait d'organiser le débat public sur différentes questions et d'en porter les résultats auprès des "décideurs" ; pourquoi pas après tout. Mais l'approche retenue, sous forme de questionnaires fermés donnant lieu à des résultats chiffrés ressemblant à l'extrême aux sondages classiques clôt encore une fois la porte au dialogue. Pourtant, il est des expériences réussies qui ont montré que les nouvelles technologies pouvaient, intelligemment utilisées, considérablement rapprocher citoyens et élus, recréer des circonstances favorables à un débat permanent et à la mise en place de processus de co-décisions performants : les systèmes locaux d'Issy et de Parthenay, les structures de consultation mises en oeuvre sur des sujets très techniques comme le logiciel libre, la démocratie électronique ou ceux que traite le Forum des Droits sur Internet en sont de bon représentants, mais très limités et isolés. -Un nécessaire aggiornamento Nouvelles technologies, vieilles idées. Telle semble être la loi de la démocratie électronique en France, et plus largement de la démocratie tout court, dans l'état actuel des choses. Et l'actuelle polarisation du débat public dans la préparation du second tour des élections présidentielles n'arrange pas les choses car l'ensemble des analystes et acteurs de la vie politique est en train de perdre de vue la réalité de la fracture qui est à la source de la situation que nous connaissons. On ne pourra cependant pas faire l'économie d'un réflexion approfondie sur elle ; sous peine de voir se rejouer le même drame que celui que nous avons vécus, en pire peut-être. Et on ne pourra faire l'économie d'un véritable plan de sauvetage du débat démocratique, qui pourrait, pourquoi pas ? s'appuyer en partie sur la mise en oeuvre à grande échelle de moyens de communication électronique dans le cadre d'une consultation politique permanente. Pour cette partie là, trois impératifs devront être réalisés : une politique volontariste de réduction de la fracture numérique, sur le plan matériel évidemment mais aussi de la formation ; la mise en place d'instances et de procédures de débats et de consultation pouvant réellement influer sur les décisions politiques, un élargissement rapide du champ médiatique, où l'information et les opinions circuleraient de manière plus égale, seraient plus diversifiées, plus respectueuses de l'ensemble des sensibilités présentes au sein de la nation. Il ne s'agit ici que dune petite partie, celle qui nous concerne sur ce site, d'un programme plus vaste, d'un nécessaire aggiornamento de notre vie démocratique. Le scrutin de 21 avril l'a montré, il y a urgence ; au moins autant que celle de voter républicain le 5 mai.
2002-04-25 19:27:40
-« Jamais poète n'a interprété la nature aussi librement qu'un juriste la réalité » Hector dans « La Guerre de Troie n'aura pas lieu » - Giraudoux Ce document traite des brevets logiciels et du droit d'auteur. J'ai écrit cet article à la fois pour des juristes et pour des informaticiens. L'idée de départ était d'apporter des éléments de réponses à certaines questions publiées dans les différents forums Internet que je consulte. Il n'est pas rare de voir passer un "Y a t-il un juriste dans la salle ?". Je ne suis pas juriste mais j'ai accès à de la documentation et je peux me faire confirmer certains points. J'espère que les juristes trouveront ici un point de vue relativement argumenté sur les raisons qui font que nombre de développeurs sont contre les brevets logiciels. De même, j'espère que les développeurs pourront se servir de certaines idées et références contenues ici pour lutter contre les brevets logiciels. Ceci est mon analyse et mon opinion. Je ne m'exprime pour aucune association, entreprise ou corporation. Ces recherches ne relevaient d'aucune obligation professionnelle, associative ou scolaire. Remarques constructives bienvenues. Brevets logiciels : l'esprit de la loi Pour mémoire, rappelons qu'un logiciel ne peut être breveté en Europe, « en tant que tel ». En effet, un logiciel est une création et non une invention. Ainsi, s'il est concevable d'inclure dans un brevet la description d'un logiciel de conversion IP fonctionnant avec un modèle de routeur, il ne devrait pas être possible de breveter uniquement le logiciel, pas plus que l'algorithme de conversion. Un logiciel de conversion fonctionnant avec différents routeurs relève du droit d'auteur et ne peut être breveté. L'algorithme de conversion est une méthode non implémentée qui relève de l'idée. Seul l'éventuel écrit exposant la méthode est susceptible d'être protégé au titre d'oeuvre littéraire. C'est bien l'originalité de l'écrit qui est ici protégée et non pas la méthode scientifique qu'il expose. Si cet écrit est diffusé, vous pouvez parfaitement développer votre propre logiciel basé sur l'algorithme présenté. Notez que cette interprétation n'est visiblement pas celle de l'Office Européen des Brevets (OEB) qui semble autoriser les brevets de logiciels depuis plusieurs années.[LMF] Industrie et édition On peut se demander pourquoi un logiciel est une création et pas une invention. Selon le code de propriété intellectuelle , un logiciel est une « oeuvre de l'esprit » au même titre qu'un écrit ou qu'un morceau de musique, c'est l'implémentation d'une idée dans une forme, forme « empreinte de la personnalité de l'auteur ». Le fait que l'on parle d'« industrie du logiciel » induit le public en erreur, le terme adéquat est « édition de logiciels ». Jusqu'à présent, personne n'a revendiqué de droit de breveter le dernier single à la mode au nom de « l'industrie du disque ». Et l'« industrie du livre » ne dépose pas encore de brevets sur les Prix Goncourt. « Fabriquer des tubes » ne signifie pas pouvoir breveter ces dits tubes. Le fait qu'un logiciel soit une oeuvre multimédia et interactive amène à oublier qu'il ne résulte que du travail de création d'un ou plusieurs auteurs et non de la mise en oeuvre de processus industriels. Il n'existe aucun logiciel résultant d'un quelconque processus de fabrication industriel, il y a une différence entre fabriquer et dupliquer, entre créer et produire. Les brevets peuvent protéger des descriptions de processus visant à reproduire à l'infini et de façon identique un objet matériel. Un logiciel n'est conçu qu'une seule fois puis son image binaire est dupliquée sur un support matériel ou diffusé sur Internet. Il y a eu création, unique et originale. C'est le logiciel en tant qu'oeuvre qui est reproduit ou diffusé, pas son processus d'obtention. Nouveauté et originalité De plus, aucun logiciel en lui-même ne peut être qualifié de nouveau. Il est susceptible d'originalité et non de nouveauté. La nouveauté est un attribut attaché à l'invention, l'originalité un attribut attaché à la création. Le développement logiciel est un processus itératif se nourrissant toujours d'un existant. Et ce qu'il soit ludique ou fonctionnel, professionnel ou amateur. Le fait que certains auteurs abandonnent volontairement des droits attachés à leur personne (licence GPL) et distribuent systématiquement leur code source montre bien l'existence d'une conscience d'utiliser un fond commun, comparable au savoir scientifique ou au savoir juridique. Ce fond commun n'est pas qu'une abstraction. Comme un juriste lit de la doctrine et de la jurisprudence, un développeur lit du code, en permanence. Des millions, voire peut-être des milliards de ligne de code sont disponibles sur Internet. C'est l'agencement, la mise en forme qui font d'un logiciel une création. Et comme dans un écrit, on peut distinguer la la phrase originale, la courte citation et le plagiat honteux. L'exemple de Linux Le noyau Linux est entièrement bâti sur la norme POSIX, base de tous les systèmes UNIX. Le trait de génie de Linus Torvalds réside dans l'implémentation du standard, dans l'interprétation personnelle qu'il en a fait. Il a développé le noyau Linux en utilisant les descriptions de fonctions d'une documentation d'un autre système respectant la norme POSIX et à l'aide des sources de Minix, système conçu par le professeur Andrew Tannenbaum. Il s'est également appuyé sur les forums de discussion des utilisateurs Minix. La première version de Linux était écrite pour fonctionner uniquement avec des processeurs 386. Des pans entiers du code étaient en assembleur, langage très proche de la machine. À ce niveau de programmation, les lignes de code ressemblent à des expressions mathématiques et utilisent un jeu de fonctions réduites. C'est l'une des forme les plus pures de programmation. Le noyau est le coeur du système d'exploitation, tous les autres programmes l'utilisent directement ou indirectement. Pour un développeur, le noyau Linux est beau plus qu'il n'est nouveau. La nouveauté se définit par rapport à l'antériorité, la nouveauté est « ce qui n'est pas connu des hommes du métier ». Linus Torvalds n'a donc pas inventé Linux, il l'a créé en utilisant différentes sources d'inspiration et en y ajoutant sa touche personnelle. N'importe qui à la même époque disposait des mêmes éléments et aurait ainsi pu faire un noyau identique d'un point de vue fonctionnel. Cependant, il n'y avait aucune chance pour que les codes sources soient identiques. Arts et métiers Ayant travaillé chez un éditeur de jeux vidéos, j'ai pu observer comment graphistes, développeurs et scénaristes travaillaient ensemble à l'élaboration d'une oeuvre commune. Qui du graphiste, du développeur ou du scénariste faisait que telle séquence de jeu était de loin la plus ludique, la plus réussie ? Personnellement, je suis bien incapable de répondre, la séquence étant le résultat d'une itération créative permanente entre tous ces auteurs. Le fait qu'un logiciel soit issu d'un travail en entreprise n'enlève pas la qualité d'oeuvre à ce logiciel mais modifie la qualification juridique des auteurs, qui deviennent alors des contributeurs. Le droit ne fait pas de différence entre un jeu vidéo et un logiciel de comptabilité, tout comme il ne fait pas la différence entre un morceau de techno et un morceau de musique classique. Le droit d'auteur s'applique à « toute création intellectuelle faisant partie des oeuvres de l'esprit quels qu'en soient le genre, la forme d'expression, le mérite et la destination ». Les informaticiens, en général, sont encore souvent perçus comme de purs scientifiques et le terme de « Recherche et développement » occulte l'aspect créatif du travail de développeur. Pourtant, les avocats voient protéger leurs plaidoiries par le droit d'auteur bien qu'utilisant une approche scientifique, méthodique et rigoureuse. Le génie logiciel comme le génie civil utilise des plans décrivant des architectures et les architectes voient leur travail protégés par le droit d'auteur. Ces trois professions évoluent dans un environnement technique et normé et manient raison et logique. Comme le précise l'INPI, on ne peut breveter que l'application industrielle d'une méthode scientifique pas la méthode en elle-même. Toute méthode scientifique n'est pas toujours susceptible d'application industrielle. Il faut distinguer « application industrielle » et « expression originale ». Une autre idée de la noosphère Notez bien la différence entre vouloir breveter un logiciel et vouloir breveter un processus logiciel. Autoriser le dépôt de brevet sur un processus logiciel revient à vouloir autoriser les brevets sur les formules mathématiques, les démonstrations et sur tout autre méthode susceptible d'implémentation logicielle pour peu que l'on y décèle de la nouveauté. Breveter un processus logiciel, c'est admettre que l'information est à la fois matière première et produit transformé. Que l'intellect est un processus industriel. C'est envisager que le théorème de Thalès ou que l'idée de l'horloge parlante aient pu être brevetés. La France, pays latin, a une vision de la propriété intellectuelle qui diffère de la conception anglo-saxonne. Le code de propriété intellectuelle précise bien que la propriété intellectuelle n'est pas à envisager comme la propriété foncière alors que le droit anglo-saxon transpose ce concept à la sphère des idées, la noosphère. Ce terme a été employé par Éric S Raymond[ESR:1] pour décrire l'espace des idées susceptibles d'implémentation logicielle. Son texte « À la conquête de la noosphère » [ESR:2], analysant les pratiques sociales des développeurs en matière de propriété intellectuelle, repose entièrement sur la théorie de Locke relative à la propriété foncière. Il se positionne par rapport à un droit qui considère la noosphère comme un continent vierge où l'idée est à celui qui l'a eue, le colon, au sens de la Conquête de l'Ouest. C'est une approche matérielle et territoriale de l'idée. Au contraire, notre conception de la propriété intellectuelle est une conception spirituelle, on parle de droits moraux et de droits patrimoniaux, des droits subjectifs, attachés à la personne, que l'on distingue des droits réels, attachés aux biens. En France, les idées sont de libre parcours. On favorise l'expression de l'idée et on protège son auteur, travailleur intellectuel. L'idée est mouvante et ses contours sont flous, seule son implémentation dans une forme délimitera la frontière entre l'oeuvre et l'idée. L'idée en elle-même n'est pas originale, c'est un fond commun de l'Humanité, l'originalité réside dans l'interprétation que l'auteur en fait. L'auteur ne prend pas possession de la noosphère, la sphère de l'imagination mais de « ce que les astrophysiciens appellent l'ergosphère, la sphère de l'implémentation, du tangible ». Il est intéressant de constater que Éric S. Raymond s'est vu informé de la distinction entre noosphère et ergosphère par un de ces lecteurs, Fare Rideau [FAR] mais, bien qu'ayant inclus la remarque dans le texte, il n'a pas perçu d'intérêt pour son propos. Il en vient même à douter de l'existence de la noosphère, peut-être parce que la noosphère n'est pas susceptible de revendication territoriale. Un auteur français, procédant de la même analyse, aurait sans doute titré « A la conquête de l'ergosphère ». On ne part pas à la conquête de la noosphère, la noosphère n'est pas un espace matérialisable ou défini. La noosphère ne sert qu'à définir l'ergosphère. Le juriste parle de « précision-preuve » pour définir quand l'idée est devenue création. La précision-preuve est un critère utilisé pour définir la forme, l'implémentation, le passage de la noosphère à l'ergosphère. L'ergosphère est la sphère des interprétations individuelles, la noosphère est la sphère de toutes les idées humaines. Il existe des mots simples pour définir la noosphère, on parle de mémoire collective ou de culture. En ce sens, l'ergosphère est l'espace des oeuvres scientifiques, littéraires, et artistiques et ce quels que soient leur forme. L'utilisation du mot « tangible » par Éric S. Raymond ne doit pas faire croire que l'ergosphère est la sphère de la matière. A l'origine, ce qui est tangible est ce que l'on peut toucher, par extension ce qui est sensible, réel. Le son est un phénomène tangible tout comme le vent. Les technologies logicielles ne sont pas des technologies industrielles mais des technologies virtuelles, elles visent à automatiser des processus intellectuels et non manuels. Elles ne manipulent pas la matière mais l'information, le savoir et la connaissance humaine. Accepter le brevet sur les processus logiciels, c'est considérer qu'un manuel de mathématiques est un processus industriel pouvant être automatisé par une calculatrice. Il y une différence entre théorie et pratique, entre savoir et savoir faire. La recette ne fait pas l'omelette. Conclusion « Dispensés aujourd'hui, par la grâce de l'ordinateur, d'avoir une tête bien pleine, tâchons de la conserver bien faite »- Jacques Vanderlinden- [RTD] Les avancées technologiques révèlent la nature profonde de l'oeuvre logicielle, oeuvre multiforme, composite et commune. Un logiciel est une oeuvre à utiliser tout comme un livre est une oeuvre à lire, un morceau de musique une oeuvre à écouter. Un musicien joue pour des auditeurs, un écrivain écrit pour des lecteurs et un développeur programme pour des utilisateurs, chacun son public. Internet, le mouvement Open Source et les logiciels libres doivent amener à une juste réflexion sur les droits des auteurs-développeurs et sur ceux du public. Le fait qu'une partie du public d'un développeur puisse être constituée d'entreprises ne doit pas changer pas la qualification juridique du logiciel : un logiciel reste une création intellectuelle susceptible d'originalité, sa destination, son utilité importe peu. L'interactivité induit souvent un processus d'itération créative, tout utilisateur peut se transformer en auteur, créateur éventuel d'oeuvres dérivées. La légitimité de certains droits moraux se perd dans la finalité de l'oeuvre. Il est ainsi admis qu'un auteur de logiciels ne peut faire valoir son droit de retrait ou de repentir et qu'un utilisateur a le droit de modifier un programme à des fins d'interopérabilité. Cette inflexion à des droits moraux, ayant normalement un caractère absolu et discrétionnaire, montre bien que le juriste a perçu cette particularité. Il faut espérer que le législateur le soutiendra et ne cédera pas à une vision marchande de l'idée, incarnée par un système européen de brevets logiciels. Si le droit au respect du nom de l'auteur et de sa qualité doit être conservé, le droit au respect de l'oeuvre et le droit de reproduction devraient être assouplis pour que l'éventuelle intention d'ouverture et de partage exprimée par l'auteur puisse être préservée. La notion de don numérique est une réalité et si chacun doit être libre de vivre de son travail, qu'il soit manuel ou intellectuel, chacun doit être libre de s'exprimer et de partager son savoir. A l'heure de la libre circulation des biens et des personnes, il serait paradoxal d'envisager de restreindre la liberté de créer, considérée comme « consubstantielle à la liberté d'expression » [LDF:1]. La liberté de créer est classée comme liberté fondamentale au même titre que la liberté d'expression et la liberté de pensée [LDF:2]. Comme les scientifiques et les artistes, les développeurs de logiciels ouverts rendent à tous ce qui n'appartient à personne. Cette dualité de scientifique et d'artiste est l'essence même du développeur, sa raison d'être. Logique et créativité ne sont pas des opposés, ce sont des compléments. Compléments [CPI] - Code de la propriété intellectuelle L'auteur a utilisé le code de la Communication qui contient, dans sa partie III, intitulée « L'Information », les règles du code de propriété intellectuelle relative à la propriétaire littéraire et artistique - Éditions Dalloz 2000. Pour la partie relative à la propriété industrielle, l'auteur a utilisé l'appendice contenu dans le code de Commerce - Éditions Dalloz 2002. [ESR:1] - Éric S. Raymond Citoyen des États-Unis, développeur et écrivain, Éric S Raymond est un fervent partisan du mouvement Open Source et un développeur talentueux, reconnu par ses pairs, un « hacker ». Éric S. Raymond est également un interlocuteur reconnu par les éditeurs américains. Il a notamment participé à la rédaction des licences NPL et MPL utilisées par l'éditeur Netscape lors de l'ouverture du code source du navigateur web Communicator. Il est également surnommé « l'anthropologue des hackers » de par ses écrits étudiant les pratiques sociales des développeurs de logiciels ouverts. Des textes comme « A la conquête de la Noosphère » ou « La Cathédrale et le Bazaar » sont des écrits majeurs de la culture Hacker (prononcez [hackeur]). Précisons que « hacker » n'est pas « cracker ». Comme l'indique Éric S. Raymond : « Les hackers construisent ce que les crackers détruisent ». Personnellement, l'auteur traduit « hacker » par « codeur » du verbe « coder ». Le terme « cracker » (prononcez [crackeur]) est lui souvent traduit par « pirate » mais le terme « casseur » serait sans doute plus juste. Les codeurs codent ce que les casseurs cassent. [ESR:2] - « À la conquête de la noosphère » L'auteur a utilisé la traduction française de ce texte qui se trouve dans le livre « Libres enfants du savoir numérique - anthologie du libre ».[LESN] [FAR] - Fare Rideau - « About Éric S. Raymond's Articles » Fare Rideau publie sur son site une analyse d'« À la conquête de la noosphère ». Il y énonce notamment la distinction noosphère/ergosphère. Fare Rideau a une analyse du fonctionnement des projets libres qui diffère assez fortement de celle d'Éric S. Raymond. Ses positions sont proches des positions officielles de la FSF. Dans son analyse, Fare Rideau indique que, pour lui, l'ergosphère, sphère des services, est la seule susceptible d'être un espace marchand. La page personnelle de Fare Rideau se trouve à http://fare.tunes.org. [LDF:1] - Libertés et droits fondamentaux - Dalloz - Édition 2001 Cet ouvrage sert à la préparation du CRFPA (école des avocats). Il a été préparé sous la direction de Rémy Cabrillac, Marie-Anne Frison-Roche et Thierry Revet. L'ouvrage consacre une section entière à la liberté de créer au sein du chapitre « Le citoyen ». contenant également les sections relatives à la liberté d'expression, d'association, de pensée, ... [LDF:2] - La liberté de créer : liberté fondamentale ? La section « La liberté de créer » a été écrite par Dany Cohen, professeur à l'Université de Paris-Nord (Paris XIII). Il semble que la liberté de créer ne soit pas écrite, « en tant que telle », dans les textes français et européens « ce qui n'empêche pas qu'existent entre liberté d'expression, liberté de penser et liberté de création des liens si étroits qu'elles ne se conçoivent pas l'une sans l'autre ». Le seul texte comportant un article pouvant y être rattaché semble être la Déclaration universelle des droits de l'Homme de 1948 (ONU) : « Chacun a le droit à la protection des intérêts moraux et matériels découlant de toute production scientifique, littéraire ou artistique dont il est l'auteur » (Art 27-2). [LESN] - Libres enfants du savoir numérique - Éditions L'Éclat - Mars 2000 Cette anthologie, préparée par Olivier Blondeau et Florent Latrive, regroupe des textes d'auteurs comme Bernard Lang, Éric S. Raymond, Richard M. Stallman et bien d'autres. Un livre indispensable pour comprendre la culture du don numérique. [LMF] - Les brevets et les logiciels - Mode d'emploi Cet article écrit par Jean-Jacques de Jong, ancien conseil en propriété industrielle, est paru dans « GNU Linux et Hurd Magazine France » de Mars 2002. Jean-Jacques de Jong y décrit de manière précise la procédure d'enregistrement de brevet auprès de l'OEB et les critères requis. Il cite plusieurs exemples de brevets sur des méthodes mathématiques (compression de données) et sur des processus logiciels (glisser/déplacer vers une fenêtre partiellement cachée). « Mais ce n'est pas maintenant que les logiciels deviennent brevetables en Europe, ils l'étaient déjà il y a près de quinze ans ». Le dernier paragraphe s'appelle « Cassons du brevet » et montre comment contrer la multiplication des brevets en Europe. [RTD] -Cantate à deux voix sur le thème : « Une révolution informatique en droit ? » - RTD Civ(2)avr-juin 1998 Cet article est organisé sous la forme de questions-réponses entre Claude Thomasset, spécialiste de l'informatique juridique, professeur d'Université à Montréal et Jacques Vanderlinden,historien du droit, compariste et professeur aux Universités de Bruxelles, Moncton et Paris XII. Les deux auteurs s'interrogent notamment sur les conséquences que vont avoir les systêmes-experts sur la pratique juridique. Il est intéressant de noter que la première section de l'article s'intitule: « Les systêmes experts en droit : une compétition dont l'enjeu est le contrôle et la diffusion du savoir juridique ». Jacques Vanderlinden conclut l'entretien de la façon suivante : « Le peuple est, depuis si longtemps, dépossédé de sa capacité à produire le droit qu'il a peine à imaginer qu'elle puisse jamais lui être restituée. Et entre ces trois maîtres, le juriste, l'informaticien et le jurinformaticien, il est bien en peine de choisir, puisque tous veulent son bien sans lui voire malgré lui. La véritable révolution ne serait donc pas dans l'informatisation du droit, mais bien dans la restitution de son pouvoir de production du droit au peuple. Là est le vrai combat du juriste qui accepte également d'être un homme parmi les hommes » Juristes, développeurs : même combat ? Ce document a été écrit par un développeur disposant de quelques bases juridiques, de sources diverses (codes, docs de l'Institut National de la Propriété Industrielle (INPI), doctrine, ...) et de l'aide précieuse d'une étudiante en droit, Mlle X, désireuse de conserver son anonymat pour d'obscures raisons féminines. Toutefois, je tiens à la remercier publiquement pour sa patience, ses compétences et sa compréhension. Sans elle, ce document n'existerait pas. Merci à Benoît Sibaud pour sa relecture et ses corrections. Merci également aux lecteurs, qui m'ont écrit, pour leurs remarques et leurs commentaires -Ce document est disponible sur le [site de l'auteur->http://www.tekool.com/droit/delart.htm]
2002-06-02 15:31:50
Mozilla, Open Office, Abiword : depuis quelques mois, les logiciels phares du monde libre sont sortis de leur phase de développement pour proposer des versions finales ou sur le point de l'être. Assurément, il est temps de profiter de l'occasion pour se débarasser de l'emprise des logiciels Microsoft afin d'introduire enfin un peu de diversité sur nos bureaux et essayer autre chose, tout simplement. Oui mais voilà, pour nombre d'entre nous, les logiciels libres sont synonymes de Linux et ce qui nous retient de les utiliser, c'est la peur et l'inconvénient de devoir basculer entièrement d'un système d'exploitation à l'autre, au risque de perdre nos données dans l'opération, d'avoir à effectuer des manipulations que nous ne maîtrisons pas totalement, au risque surtout de perdre nos chères habitudes et le cadre rassurant du desktop Windows. Une crainte compréhensible bien que de moins en moins fondée, mais qu'il est aujourd'hui possible de contourner dans la mesure où un grand nombre de logiciels libres bénéficient désormais d'un portage sous Windows. Dès lors, pourquoi ne pas tenter une transition en douceur en installant et utilisant des logiciels libres sous Windows, tout en gardant la possibilité de revenir en arrière en cas de problème ou de déconvenue ? Rien de plus simple désormais, en téléchargeant des logiciels directement utilisables sous Windows 98/ME en remplacement des incontournables Office, Word, Outlook Express et autres clients FTP, logiciels de retouche graphiques, lecteurs multimédia. - [Mozilla->http://www.mozilla.org] est un navigateur, lecteur de courrier et de news, éditeur léger de pages HTML tout à fait performant et stable, et s'accompagne d'un client IRC, Chatzilla, pour les amateurs de discussion en direct sur Internet. Une version plus légère est en cours de développement : [Mozilla Firebird->http://www.mozilla.org/products/firebird/]. - [Open Office 1.0->http://www.openoffice.org] est une suite bureautique complète (traitement de textes, tableur, éditeur de présentation et de charts) qui ressemble beaucoup à Microsoft Office et qui, donc, ne perturbera pas vos habitudes de travail. -[Filezilla->http://sourceforge.net/projects/filezilla] est un client FTP qui vous permettra de transférer en toute simplicité vos fichiers. - [GIMP->http://www.gimp.org] est un logiciel de retouche graphique semblable à Paintshop Pro, certes moins performant sous Windows que sous Linux, mais qui reste très agréable à utiliser et plein de ressources, Freeamp est un lecteur de MP3 entièrement skinable et peu gourmand en ressources système. - [Abiword->http://www.abiword.org] pour finir est un logiciel de traitement de texte très simple à utiliser, très léger et plus agréable qu'Open Office pour les petits travaux d'écriture (lettres, articles, prospectus) ne demandant pas une mise en page trop élaborée. Les principaux dictionnaires de langue pour le correcteur orthographique sont joints avec le logiciel. - [Exodus->http://exodus.jabberstudio.org/], un logiciel de messagerie instantannée, qui remplacera favorablement ICQ, Yahoo messenger et autres Netmeeting. Il s'appuie sur une protocole libre, [jabber->http://www.jabber.org/], qui permet de ne dépendre d'aucun arbitraire. Et si Exodus ne vous convient pas, il existe une dizaine d'autres logiciels utilisant le même protocole. Il y en a pour tous les goûts. Quand on vous disait que le logiciel libre, c'était la diversité sans pour autant être la Tour de Babel... - N'oublions pas l'indispensable [7-zip->http://www.7-zip.org/], un logiciel de compression et décompression de fichier alternatif à l'incontournable Winzip, et surtout, beaucoup moins intrusif. - N'oubliez pas d'aller voir la [documentation->http://www.fsf.org/philosophy/free-sw.fr.html] produite par la Free Software Foundation qui vous expliquera de manière claire et avec pédagogie ce qu'est le logiciel libre et pourquoi il est important de le défendre. Quid de la compatibilité de ces outils avec les documents édités sous formats propriétaires ? Malgré les difficultés, les développeurs ont manifestement fait des efforts ces dernières années au niveau des filtres d'importation. Ainsi, Mozilla Mail récupère de manière extraordinairement efficace les dossiers, messages et listes de contact venant d'Outlook ou Outlook Express ; il est vrai cependant que les configurations de compte et les règles de filtrage de courrier devront être redéfinies à la main. Pour ce qui est des fichiers .doc édités sous MS Word, nous n'avons eu aucun problème à les faire ouvrir par Abiword ou Open Office. Pour ceux qui souhaiteraient aller plus loin et ajouter d'autres logiciels à leur panoplie de base, nous ne pouvons que leur recommander d'aller faire un tour sur le site [Framasoft->http://www.framasoft.net] qui fournit un annuaire très complet de logiciels libres avec une [rubrique->http://www.framasoft.net/libre/soft/index.html] spéciale pour ceux tournant sous Windows.
2002-05-01 22:44:24
Le 21 avril, les Français ont montré qu'ils avaient la mémoire courte. Hypnotisés par le caméléon Le Pen, nombre d'entre eux se sont laissés prendre au piège du tour de magie qui a transformé le tribun haineux des années 90 en gentil papy poli et policé, raisonnable et modéré, exposant sur le ton de l'évident bon sens un programme qui, lui, n'a pas changé. Contre la magie du verbe et le pouvoir de la rhétorique, les slogans et les mots d'ordre ne suffisent pas. Il faut toujours en revenir aux faits, à l'argumentation, à l'information, par le texte et par l'image ; parier sur la raison et non seulement sur l'émotion. Des documents importants ont déjà été publiés, d'autres sont encore à faire qui informent sur la réalité du Front National, argumentent et réfutent ses thèses, rappellent qui sont ses cadres. Il est urgent que ces documents soient diffusés le plus largement possible, reproduits, distribués, commentés, afin de dissiper le brouillard de mensonges dont s'entoure le parti de la haine. C'est à cela que doit servir Mnémosyne, bibliothèque électronique de documents libres de droits pour contrer la haine et défendre la tolérance. Mnémosyne, c'est d'abord un fichier, contenant un ensemble de publications, images et textes, accompagnées de leur origine, que n'importe qui peut copier et distribuer, utiliser, en totalité ou en partie, à son gré, sous licence LLDM. Auteurs, graphistes, photographes, éditeurs, journalistes et intellectuels, vous pouvez contribuer à cette initiative en alimentant la bibliothèque libre contre la haine et en autorisant la libre reproduction de vos publications : écrivez à : [mnemosyne@humains-associes.org->mailto:mnemosyne@humains-associes.org]. Webmestres, responsables associatifs, syndicaux et politiques vous pouvez user de ce droit de reproduction en photocopiant les textes de la bibliothèque, en la plaçant sur vos sites Web, en la mailant à vos listes de diffusion : inscrivez-vous sur la liste [mnemosyne.liste@humains-associes.org->mailto:mnemosyne.liste@humains-associes.org]. Simples citoyens et particuliers, vous pouvez distribuer autour de vous ces textes, les imprimer et les placer dans la boîte aux lettres de vos voisins, les mailer à vos amis et connaissances : téléchargez le fichier Mnémosyne sur contenuouvert.org. Pour que personne ne puisse plus dire qu'il ne savait pas. Pour une démocratie libre et humaniste. -Pierre Mounier, [homo-numericus.net->http://www.homo-numericus.net] -Natacha Quester-Séméon et Tatiana Faria, [cyberhumanisme.org->http://www.cyberhumanisme.org] et [humains-associes.org->http://www.humains-associes.org] -Patrick Dedoni, [entreelibre.org->http://www.entreelibre.org] -Michaël Thévenet, [boson2x.org->http://www.boson2x.org] -------------------------------- Licence LLDM -Version française Licence de libre diffusion Mnémosyne -- lldm version 1 Ce document peut être librement lu, stocké, reproduit, diffusé et cité par tous moyens et sur tous supports aux conditions suivantes: 1. tout lecteur ou utilisateur de ce document reconnaît avoir pris connaissance de ce qu'aucune garantie n'est donnée quant à son contenu, à tout point de vue, notamment véracité, précision et adéquation pour toute utilisation; 2. il n'est procédé à aucune modification autre que changement de format de représentation ou correction d'une erreur de syntaxe évidente; 3. les fragments doivent faire clairement référence au document source et si possible à une copie facilement accessible; 4. cette licence s'applique à l'ensemble du document (sauf en cas de citation courte), quelqu'en soit le format de représentation; 5. quel que soit le mode de stockage, reproduction ou diffusion, toute personne ayant accès à une version numérisée de ce document est autorisée à en faire des copies numérisées; elle doit le faire dans un format directement utilisable et si possible éditable, suivant les standards publics, et publiquement documentés, en usage; 6. la transmission de ce document à un tiers se fait avec transmission de cette licence, sans modification, et en particulier sans addition de clause ou contrainte nouvelle, explicite ou implicite, liée ou non à cette transmission. En particulier, en cas d'inclusion autorisée dans une base de données ou une collection, le propriétaire ou l'exploitant de la base ou de la collection s'interdit tout droit de regard lié à ce stockage et concernant l'utilisation qui pourrait être faite du document après extraction de la base ou de la collection, seul ou en relation avec d'autres documents. Toute opposition, contrariété ou incompatibilité des termes de la licence ci-dessus avec un dispositif légal ou une disposition contractuelle est résolue par la supériorité du dispositif légal ou de la disposition contractuelle en cause sur la présente licence. --------------------------------------------------------- -English version Mnemosyne free dissemination licence -- mfdl version 1 This document may be freely read, stored, reproduced, disseminated or quoted by any means on any medium provided the following conditions are met: 1. every reader or user of this document acknowledges that he his aware that no guarantee is given regarding its contents, on nay account, and specifically concerning veracity, accuracy and fitness for any purpose; 2. no modification is made other than change of representation format, correction of obvious syntactic errors; 3. fragments must clearly refer to the original complete version, and to one copy that is easily accessed whenever possible; 4. this licence applies to the whole document (except for brief quotes), independently of the representation format; 5. whatever the mode of storage, reproduction or dissemination, anyone able to access a digitized version of this document as the right to make a digitized copy; the person must proceed with a format directly usable, and if possible editable, according to accepted, and publicly documented, public standards; 6. redistributing this document to a third party requires simultaneous redistribution of this licence, without modification, and in particular without further condition or restriction, expressed or implied, related or not to this redistribution. in particular, in case of an authorized inclusion in a database or collection, the owner or the manager of the database or the collection renounces any right related to this inclusion and concerning the possible uses of the document after extraction from the database or the collection, whether alone or in relation with other documents. Any opposition or incompatibility of the above licence terms with legal or contractual decisions or constraints are solved in favour of the legal or contractual disposition. ------------------------------ Cette licence est une version modifiée par Michaël Thévenet de la Licence de Libre Diffusion des Documents de Bernard Lang -LLDM http://www.contenuouvert.org/article.php3?id_article=11 -LLDD http://pauillac.inria.fr/~lang/licence/v1/lldd.html
2002-05-06 12:34:04
Reproduction interdite
Cet article fut publié une première
fois dans la revue [Expertises des systèmes
d'information->http://www.celog.fr/expertises/]. Merci à Olivier
Iteanu et Daniel Duthil pour avoir autorisé Homo-Numericus à le
republier.
Les pères de l'Internet ont créé le système de nommage (DNS) dans le but de populariser les services offerts sur le réseau au grand public. Dans le même temps, les Sociétés les plus avancées de la planète se structuraient autour de l'outil informatique et de télécommunications, le plus souvent aux standards de l'Internet. C'est dans ces conditions que ce processus d'ordre technique, le DNS, est devenu un système de régulation de la société de l'information. Nous tenterons de comprendre comment a pris place cette évolution et, surtout, au bénéfice de qui (A). Puis, nous étudierons la répartition des pouvoirs légaux et réels au sein et/ou autour de l'organisation présentée comme la structure régulant le DNS, la société de droit californien à but non lucratif dénommée Internet Corporation for Assigned Names and Numbers, mieux connue sous l'acronyme, ICANN (B). Exemple de gouvernance pour certains, miroir aux alouettes pour d'autres, il est difficile d'apporter aujourd'hui une réponses définitive à ces questions, d'autant que la matière est évolutive à la vitesse d'Internet. On peut cependant d'ores et déjà, y compris en chemin et en l'état du système de régulation mis en place, en dresser la problématique. D'un outil de recherche en réseaux à un espace commercial et politique 1. Comment le système de nommage[[En anglais se dit le Domain Name System ou DNS]] est devenu un enjeu de pouvoirs 1.1. Organisation d'une pénurie Le système de nommage Internet est généralement présenté comme la réponse à un objectif : celui de maximaliser la possibilité d'échanges via le réseau. En d'autres termes, le système de nommage est né dans le but de favoriser à l'échelle planétaire une véritable interopérabilité et interactivité entre les membres des réseaux. Il s'agit de rendre mnémonique pour le grand public les adresses des machines connectées au réseau de façon à permettre un accès facilité. Le système dit de nommage est destiné à prendre place aux côtés du système d'adressage. Chaque machine connectée au réseau dispose d'une adresse composée d'une suite de chiffres entrecoupés de points, indicateurs de routage des données à l'instar du numéro de téléphone. Cette adresse est difficile à mémoriser pour le commun des mortels. Ainsi, chaque nom de domaine est associé à cette adresse dite IP (Internet Protocol). On distingue aujourd'hui encore deux grands types de domaines[[En anglais se dit le Domain Name System ou DNS]]. Ceux appelés génériques ou internationaux, qui se caractérisent jusqu'à très récemment par le fait qu'ils sont constitués de trois lettres : les plus connus et les plus anciens sont .com, .net et .org que le monde entier se partage. Récemment, de nouveaux domaines génériques sont apparus. Il s'agit des .biz et .info. La seconde catégorie de domaines est dite domaines nationaux. Elle est constituée d'une extension reproduisant le code d'un Etat conforme à la norme ISO 3166-1. Il s'agit du .fr pour la France, du .it pour l'Italie, du .ro pour la Roumanie etc. ... Ces domaines associés à des noms, tels que constituent ensemble un nom de domaine (exemple : cahierdunumerique.fr). Compte tenu du petit nombre de suffixes créés et de ce que le patrimoine en caractères est forcément limité[[ 26 lettres de l'alphabet de surcroît au format ASCII]], il était aisé de percevoir que le système ne pourrait prospérer qu'à la condition de se confiner à un cercle restreint d'initiés. Dès le moment où le grand public allait investir le réseau, ce qui de manière contradictoire était le but recherché et ce qui fut fait dès le milieu des années 90, la pénurie en noms de domaine allait apparaître. La planète entière ne pourrait se satisfaire des ressources mises à disposition[[Les adresses IP sont également une ressource très limitée compte tenu du codage retenu à 16 bits. Les experts considèrent cependant qu'avec le déploiement du nouveau protocole IPV6, cette difficulté devrait être levée]]ou alors se créerait une véritable pénurie qui allait enflammer et donner toute sa valeur à cette ressource technique. Cette pénurie, que certains affirment qu'elle a été organisée en conscience[[« Confessions d'un voleur » par Laurent CHEMLA in Le Monde 29 Avril 2000 - Laurent CHEMLA est le fondateur de l'unité d'enregistrement GANDI, Société française la plus connue accréditée par l'ICANN comme unité d'enregistrement et qui a distribué plus de 250.000 noms de domaine en une année et demi]], allait immanquablement faire évoluer cette ressource technique qu'est le nom de domaine vers une valeur commercialisable, enjeu de pouvoirs. C'est ainsi que le nom de domaine entrait dans la sphère du commerce juridique et s'imposait comme enjeu politique. 1.2. qui fait du nommage un enjeu commercial Pour les entreprises, et de manière plus générale pour toutes organisations humaines, le nom est un attribut de personnalité majeur dont la propriété intellectuelle a permis, depuis longtemps, l'appropriation par le biais d'une fiction juridique appelée marque. Le nom de domaine, nouvel attribut de la personnalité dans la Société de l'information, n'échappe pas à la règle. Certes, il reste encore ici ou là des courants de pensée minoritaires pour prétendre que le nom de domaine est une ressource technique non appropriable. Cette analyse est démentie au quotidien. Cet identifiant est bien à son tour un signe distinctif qui prend place au milieu des autres signes distinctifs classés dans l'ordre juridique de la propriété intellectuelle. Ainsi donc, marques, dénominations sociales, noms commerciaux, enseignes, droits d'auteur doivent ils accueillir ce nouveau venu. Un nouveau venu de grande taille puisqu'en seulement quelques années, c'est plus de 30 millions de noms de domaine génériques qui ont été distribués sur l'ensemble de la planète. Un processus d'accueil rendu controversé du fait de deux phénomènes très médiatisés. D'une part, le cybersquatting, pratique qui consiste à se faire attribuer le premier un nom de domaine disponible qui reproduit une marque notoire ou le nom de tel artiste connu, dans le but de monnayer sa restitution. Quelques affaires retentissantes, mais en réalité isolées, nous indiquent que cette pratique aurait rapporté quelques millions de dollars à ses auteurs, appelés cybersquatters. Le phénomène du cybersquatting est cependant en net recul ces derniers mois, tels que le démontre la baisse des saisines judiciaires à son sujet comme des saisines des institutions de règlement des conflits de noms de domaine. D'autre part, l'avènement du phénomène « start up » dès Mars 1999 a également constitué un facteur accélérant du phénomène. Ainsi, le nom domaine venait grossir les faibles actifs de ces entreprises fébriles : là encore, les achats de noms de domaine se multipliaient sans correspondre, très souvent, à un service en exploitation. On attribue généralement au dégonflement de la « bulle spéculative », les données statistique des derniers mois de l'année 2001, qui démontrent que, pour la première fois dans l'histoire du DNS, le nombre de noms de domaine perdus, car non renouvelés, se trouve supérieur aux noms de domaine acquis. C'est dans ces conditions que le système de nommage est passé du stade de processus technique à celui de marché. Un marché financièrement juteux et crucial pour les entreprises. Une illustration des tensions naissantes est le cas des conflits de noms de domaine. Pour la France, de Décembre 1995, date d'apparition du réseau Internet dans la sphère judiciaire, à Août 1999, on recensait cent décisions judiciaires publiées concernant le « droit de l'internet », dont plus d'un tiers concernaient les seuls noms de domaine en conflit avec d'autres identifiants, principalement marques. Au cours de l'année 2000, on estimait même que les procès portant sur des noms de domaine représentaient de l'ordre de la moitié des affaires judiciaires intéressant l'Internet. L'ICANN, alertée du problème par notamment l'Organisation Mondiale de la Propriété Intellectuelle (OMPI), tentait d'y répondre. Elle promulguait alors la création d'une procédure de règlement des conflits. A mi-chemin entre la médiation et l'arbitrage, cette procédure était qualifiée d'administrative. L'ICANN chargeait quatre institutions de règlement des litiges, dont l'OMPI basée à Genève, de prendre en charge ce nouveau type de litige. Aujourd'hui, c'est plus de trois mille saisines qui ont été instruites par ces institutions de règlement tandis que les contentieux judiciaires traitant des noms de domaine restent toujours majoritaire à la matière « droit de l'Internet » en France et, avec quelques nuances dans certains Etats, en Europe. 1.3. ... et politique Mais le système de nommage planétaire est l'objet d'un autre enjeu moins souvent cité. Celui là est politique. En schématisant, le système de nommage est une gigantesque base de données constituée autour d'une structure unique. Chaque Etat voit en l'existence de son domaine géographique une manifestation de sa souveraineté. La Croatie a obtenu son extension .cr tardivement. L'union Européenne quant à elle souhaite ardemment disposer de son extension, .eu, manière pour elle d'exister sur la toile. L'acte de création d'une extension est donc un acte politique. A l'inverse le .za, pour Zaïre, Etat disparu au profit du Congo Démocratique, n'avait plus lieu d'être, sauf pour les opposants au régime. Pour autant, en dépit de quelques protestations, par le jeu (ou le prétexte) naturel des normes ISO, le .za était supprimé sur requête de l'ICANN dans le courant de l'année 2001. La maîtrise de l'arbre de nommage est donc bien du domaine politique. 2. Recherche régulateur désespérément 2.1. Au commencement, John POSTEL créa le système Le système a un père bien identifié. Son nom est John POSTEL. Membre de l'Université de Californie à Los Angeles (UCLA) et décédé en Octobre 1998, c'est lui qui décida de recenser et d'allouer les adresses IP selon des critères d'ordre géographiques. Il maintint ensuite le système mis en place notamment au moyen de normes techniques regroupées au sein de documents intitulés Requests For Comments (RFC). Après que John POSTEL rejoignit l'Université du Sud de la Californie (USC), l'ensemble de ces normes techniques et des personnes les ayant composées, se regroupèrent au sein d'un Groupe de travail appelé l'Internet Assigned Numbers Authority (IANA) au sein de l'association internationale Internet Society ou ISOC[[www.isoc.org L'Internet Society dispose de chapitres ouverts dans le monde, notamment le chapitre français - www.isocfrance.org.]]. L'IANA mettait en place le registre des noms de domaine dit registry et déléguait ses pouvoirs à des organismes régionaux comme l'INTERNIC (Network Information Center) pour l'Amérique du Nord, le RIPE NCC pour l'Europe, l'APNIC pour la zone Asie-Pacifique. A leur tour ces organismes déléguaient leur pouvoir à des entités régionales. Par exemple, le RIPE NCC déléguait ses attributions pour la zone .fr en 1987 à un Etablissement Public à caractère scientifique et technologique régi par le décret n°85-831 du 2 août 1985, l'Institut National de Recherche en Informatique et en Automatique (l'INRIA) appelé pour la circonstance NIC France. L'INRIA allait laisser ensuite sa place à une association régie par les dispositions de la loi du 1er juillet 1901, l'Association Française pour la gestion du Nommage Internet en Coopération (AFNIC). Dans le but notamment d'ouvrir le système aux différents intérêts en présence et de lui donner une diversité géographique, l'ISOC constituait en novembre 1996 un Comité International Ad Hoc (International Ad Hoc comittee ou IAHC), composé de l'International Telecommunications Union (UIT), de l'Organisation Mondiale de la Propriété Intellectuelle, de l'International Trademark Association (INTA) et de deux membres désignés par l'ISOC, l'IANA et l'Internet Architecture Board (IAB) autre groupe de travail de l'ISOC. Une première proposition de réforme fut publiée par l'IAHC le 19 décembre 1996 et le document final était publié le 4 février 1997. Cependant, le Gouvernement américain ne se satisfaisait pas des propositions. Le 1er juillet 1997, il publiait un rapport intitulé "Framework for Global Eletronic Commerce" puis, à la suite de ce rapport, le 5 janvier 1998, le Département du Commerce américain lançait un appel à commentaires pour "améliorer le système technique des noms et adresses Internet" qui se conjuguait avec des propositions de réforme incluses dans un "livre vert" sur le sujet. A la suite de ce processus préliminaire, le Département du Commerce américain[[la National Telecommunications and Information Administration - NTIA]] publiait le 5 juin 1998, le "livre blanc" de la gestion des noms et adresses Internet qui constitue aujourd'hui encore le texte de base du DNS. Ce document appelait la création d'une société pour la gestion du DNS afin de "transférer progressivement ces fonctions (...) dès que possible". Le reste de ce document allait décrire assez précisément le système qui allait se mettre en place. C'est dans ces conditions que l'IANA a laissé sa place à une société de droit californien à but non lucratif, l'ICANN, constituée selon des statuts datés du 6 novembre 1998. 2.2. Présentation politiquement correcte des pouvoirs au sein de l'ICANN Fondée en Octobre 1998, l'ICANN dispose à sa tête d'un Conseil d'Administration composé de 19 membres. 9 de ces administrateurs sont désignés par trois collèges appelés « Supporting Organizations » censés représenter, chacun, l'une des grandes missions de l'ICANN. Le collège qui traite du système de nommage est connu sous l'acronyme DNSO[[Soit Domain Name Supporting Organization ]] lui même subdivisé en sept sous-collèges appelés « constituencies ». C'est de loin le collège le plus complexe à comprendre car il est composé d'une masse d'intérêts hétéroclites organisés en sous-collèges. On comprend mal la pertinence qu'il y a eu à les regrouper. On retiendra essentiellement que ces sous-collèges regroupent, pour l'un, les unités d'enregistrements des extensions nationales[[http://cctld.dnso.icann.org]], pour un autre, les unités d'enregistrement des domaines internationaux ou génériques[[http://www.dnso.icann.org/constituency/gtld/gtld.html]] ou encore les fournisseurs d'accès et d'hébergement, les distributeurs de noms de domaine, des professionnels de la propriété intellectuelle, des titulaires de noms de domaine non commerciaux. Les deux derniers sous-collèges paraissent plus énigmatiques et on saisit mal leur utilité à ce stade. Le second collège des supporting organizations qui désigne également trois membres au Conseil d'Administration est l'ASO[[Soit Address Supporting Organization ]]. L'ASO a pour mission de formuler des recommandations et plus généralement de traiter des questions intéressant les adresses IP. Les trois registres IP qui ont pour mission d'allouer et de gérer ces ressources se partagent le pouvoir au sein de ce second collège bien plus homogène[[Signalons la création d'un organisme dédié à l'Afrique, AFRINIC, qui tarde à voir le jour]]. Le dernier collège de cette première moitié de l'ICANN est le PSO[[Soit Protocol Supporting Organization ]]. Créé par une décision du Conseil d'Administration de l'ICANN en Mai 1999, il s'intéresse aux protocoles permettant le dialogue adresses IP et noms de domaines. Son document fondateur est constitué d'un « memorandum of understanding » signé par cinq organisations. Ces organisations sont l'IETF[Soit, l'Internet Engeneering Task Force ]], le W3C[[Soit World Wide Web Consortium pour les technologies Web]], l'UIT[[International Telecommunications Union - http://www.itu.int/home/index.html]], l'ETSI[[Soit European Telecommunications Standards Institute ]] organisme de standardisation bien connu du secteur des télécommunications et l'ICANN elle même, bien qu'il soit plutôt curieux qu'une organisation signe un accord avec son propre organe constituant. L'autre moitié de l'ICANN est à ce jour constituée du collège « grand public » dit At Large. Ce collège n'est composé ni décomposé d'aucune structure ni sous-structure. Il se compose, à ce jour, de 5 élus (et 4 autres membres désignés non élus) qui n'ont aucun contact avec leur « base », ont été élus, chacun dans une région arbitrairement constituée par l'ICANN, au suffrage électronique direct par des électeurs qui ont voté en Octobre 2000. Pour être électeur, il était simplement demandé de déclarer une adresse électronique sans autre forme de contrôle. Aux côtés de ces organisations statutaires qui disposent d'une représentation organique, on trouve des comités consultatifs, dont l'avis est requis dans des cas précis, mais qui ne disposent d'aucun pouvoir direct sur les matières traitées par l'ICANN. Parmi ces quelques comités, on trouve le GAC ou Government Advisory Committee ou comité consultatif des gouvernements. C'est une sorte de forums de discussion des gouvernements et organisations internationales gouvernementales qui se réunit régulièrement en marge des réunions publiques de l'ICANN. Le GAC ne dispose d'aucune pouvoir décisionnel et doit en outre, même dans ses avis, respecter un consensus. A défaut, il doit rendre public tous les avis divergents exprimés. B L'ICANN, le premier gouvernement mondial ? Disons le tout net, il nous paraît tout autant absurde que dangereux que de conférer à l'organisation actuelle à qui revient la charge de réguler le DNS, le nom de gouvernement, et ceci pour trois raisons majeures. 1. Le pouvoir réel de réguler 1.1. Le gouvernenement américain, seul maître du jeu ? Tout d'abord sur un plan historique, le Gouvernement américain, aux côtés de l'IANA, a toujours joué un rôle central et incontournable sans lequel le DNS aujourd'hui n'existerait pas. Dès le début, les travaux de l'IANA étaient financés par un organisme d'Etat américain, la National Science Foundation (NSF). Pour les noms de domaine génériques, selon contrat passé le 31 décembre 1992, la National Science Foundation chargeait une Société de droit privé, la Société Network Solutions (NSI), du service d'enregistrement de ces noms de domaine. L'ancêtre de la Société VeriSign a exercé un monopole sur cette fonction jusqu'au 1er janvier 2000, date à laquelle elle s'est trouvée contrainte de partager son activité avec plus d'une centaine de sociétés privées de part le monde. Quant au Gouvernement américiain lui même, il n'a jamais perdu la haute main sur le système de nommage en son entier. C'est lui qui initie l'ICANN actuelle. Cette société est constitué selon des statuts datés du 6 Novembre 1998. Dix neuf jours après la conclusion de cet acte constitutif, soit le 25 novembre 1998, la Société de droit californien concluait un accord[[Memorandum Of Understanding]] avec le département du commerce américain du gouvernement des Etats-Unis aux termes duquel elle lui accordait un droit de veto sur la plupart de ses décisions[[Article V A. 1. « The Parties agree to jointly participate in the DNS Project for design, development, and testing of the mechanisms, methods and procedures, that should be in place for the private sector to manage the functions delineated in the Statement of Policy in a transparent, non-arbitrary, and reasonnable manner."]]. C'est ce système à base de contrats qui a toujours cours aujourd'hui. 1.2. L'omniprésence des intérêts privés et commerciaux L'un des axes d'actions annoncé comme priorité par l'ICANN a consisté à tenter de mettre fin au monopole de la société NSI - VeriSign dans la gestion des domaines génériques. A cet effet, l'ICANN a accrédité plus de cent vingt unités d'enregistrement (registrars), réparties dans les sept "régions" du monde définies par l'Organisation Mondiale du Commerce, la France appartenant à la région « Western Europe ». Ces nouvelles unités d'enregistrement agissent comme des revendeurs de domaines génériques. Cependant, la Société VeriSign reste le maître de l'architecture du système laissant aux registrars les miettes de son empire. Ainsi, au titre des trois domaines génériques les plus populaires, la Société VeriSign reste t'elle à l'heure où ces lignes sont écrites, le maître de la base de données. Le contrat qui lui confère ce pouvoir sur le domaine le .org prend fin le 31 Décembre 2002. S'agissant du .net, l'ICANN a renouvelé le contrat de la Société VeriSign jusqu'en 2006 et pour le .com jusqu'en 2007. En échange de ces acquis, la Société VeriSign s'est engagé, sans que l'on puisse réellement contrôler cette promesse, à investir une somme de 200M$ en Recherches et Développements et infrastructure et financera l'entité à but non lucratif qui sera sélectionnée pour gérer le .org à hauteur de 5 millions de dollars. Autre, structure commerciale omniprésente dans le système de nommage, la Société CISCO. Cette Société détient dans le monde un quasi-monopole dans la fourniture de routeurs Internet. Que dire encore des propriétaires de marques, dont la puissance des intérêts a fortement influencée l'ICANN dans sa politique de protection des marques à l'égard des noms de domaine. Ainsi, l'ICANN, aidée en cela par l'OMPI, a mis en place une procédure administrative de règlement des conflits de noms de domaine. Cette procédure aboutit dans plus de 70% des cas à des décisions décidant du transfert ou de la radiation du nom en domaine en litige au profit du titulaire d'une marque. 1.3. Les serveurs de racines parlent Symbole de cette omniprésence des intérêts américains et privés, les serveurs de racines. Le système de nommage est dirigé techniquement par treize serveurs de racine dont on peut schématiquement dire que l'ensemble des routeurs du monde entier viennent y copier l'arbre de nommage qui s'y trouvent présents. En quelque sorte, il s'agit de serveurs maîtres de la base de données « noms de domaine ». Ces treize serveurs sont eux mêmes une structure pyramidale à la tête de laquelle se trouve le serveur de racine dit A, le maître de la base de données. La répartition géographique de ces serveurs de racine est la suivante : neuf sont basés aux Etats-Unis d'Amérique, deux en Europe (Londres et Stockholm), un en Asie (Tokyo). Si l'on s'intéresse de savoir qui dispose de la maîtrise juridique desdits serveurs. Un seul est maîtrisé par l'ICANN elle même. D'autres serveurs sont maîtrisés par des entités difficilement identifiables. C'est par exemple le cas du serveur basé à Stockholm qui est déclaré la propriété d'une entité inconnue du grand public, semblant dépendre d'une fondation. Mais, plus encore que la localisation géographique ou l'entité propriétaire, c'est le mode de gestion de ces serveurs, et plus spécialement du serveur de racine dit A, qui étonne. A chaque, acte de gestion touchant à ce serveur, l'ICANN adresse une requête à l'entité gestionnaire : on y retrouve ici la Société VeriSign. Loin d'obéir au doigt et à l'œil de celle qui nous est pourtant présentée comme son maître, l'ICANN, la Société VeriSign va préalablement à l'implantation de la requête ICANN s'en retourner vers le Département du Commerce du Gouvernement des Etats-Unis d'Amérique pour recueillir le feu vert de ce dernier. Ce n'est qu'après réalisation de cette « formalité » peu neutre que la Société VeriSign viendra alors implanter la requête de l'ICANN sur le serveur de racine A. Mais les « bottle necks » ne sont pas pour autant terminés. La Société CISCO devra implanter elle même sur ses routeurs les procédures qui permettent de prendre en compte les requêtes venant d'en haut, des treize serveurs, tandis que l'IETF, groupe de travail largement dominé par les américains, devra éventuellement travailler à la norme qui permettra l'implantation harmonieuse : ainsi, lorsqu'il s'est agi d'implanter les noms de domaine avec accents ou plus généralement de caractères non ASCII (Arabe, Chinois, Hébreu etc. ...), des problèmes de normes ont largement perturbé voire contrarié cette mise en place, preuve de l'importance du travail de l'IETF dans cette matière. 2. Le At Large, seul contre pouvoir ? 2.1. Ne me parlez plus de démocratie Chacun croît connaître l'Icann. Pourtant cette entité est un mystère. Tout d'abord dans sa forme. Une Société à but non lucratif de droit Californien[[A California Nonprofit Public Benefit Corporation]]. Pour un européen, et spécialement un praticien du droit français, cette forme de société est inconnue. Le but non lucratif est spécialement attaché à la forme associative tandis que la forme sociétale, elle, est propre au regroupement de personnes physiques ou morales qui joignent leurs apports dans le but commun de partager les bénéfices de leur entreprise. Or, la forme de l'ICANN n'est ni l'une ni l'autre. Conséquence de cette situation, sa forme la dispense, d'une part, de disposer d'actionnaires, donc d'une assemblée d'associés contrôlant le mandat donné à ses dirigeants sociaux, d'autre part, d'avoir à disposer de membres, comme pour une association, pouvant eux aussi dans le cadre d'une assemblée, censurer le fonctionnement d'une année passée. Les « membres » de l'ICANN sont détenteurs d'intérêts, des « stakeholders », sans contrôle organique sur les dirigeants de l'organisation. Elle est un mystère également quant au fond du travail qu'on lui prête. Lorsqu'une Autorité de Régulation, par exemple dans le domaine des télécommunications, maîtrise politiquement et juridiquement une ressource telle qu'un plan national de numérotation, elle maîtrise la chaîne en son entier. C'est elle qui décide de la structure du plan, implante ses éventuelles modifications, alloue les ressources, implante ces allocations. L'ICANN ne maîtrise rien de cela ou peu. Elle vit sous la tutelle d'un seul gouvernement alors qu'elle déclame qu'elle assume une gestion mondiale d'une ressource mondiale. Elle se soumet aux fourches caudines d'intérêts privés alors qu'elle affirme qu'elle défend l'intérêt général ou plutôt arbitre entre des intérêts privés au nom de la stabilité du système. En tout état de cause, ce positionnement lui interdit de prétendre à une quelconque représentativité, autre que de papier, sur le plan géographique et politique. Rien dans l'ICANN n'échappe à quelques uns sans souci du plus grand nombre. Mais peut être plus grave que tout, c'est l'absence totale de transparence qui frappe lorsque l'on s'approche du saint des saints. Une épaisse brume faite d'acronymes multiples qui recouvrent des réalités très diverses, des procédures de travail et de décisions qui font la part belle à ceux qui sont capables de disposer du temps et des moyens de suivre sur l'ensemble de la planète des échanges disparates et peu structurés. Ainsi, peu nombreux sont ceux qui ont une connaissance réelle des travaux de l'ICANN. 2.2. La réforme proposée C'est dans ce contexte que l'ICANN était amenée au cours de l'année 2001 à réfléchir à l'évolution de sa structure au travers d'une étude menée sur le devenir du collège At Large. Cette réflexion était organisée au sein d'une commission constituée par son conseil d'administration et dénommée ALSC[[At Large Study Committee - www.atlargestudy.org]]. Le comité, présidé par Carl BIDT ex-Premier Ministre de Suède, remettait en novembre 2001 au conseil de l'administration de l'ICANN un rapport final que l'institution acceptait dans son principe et dont elle demandait à l'ALSC d'étudier la façon de l'implanter[[http://www.icann.org/minutes/premim-report-15nov01.htm]]. Pour mémoire, le collège At Large est l'un des deux collèges constituant l'ICANN. Il représente la participation des utilisateurs individuels au processus notamment du DNS. Les statuts de l'ICANN, en leur article 4 , rappellent que le collège At Large doit composer la moitié du conseil d'administration. Cette situation n'a jamais prévalu, le collège At Large élisant en octobre 2000, 5 administrateurs seulement pour des raisons de contingence purement pratiques. Ces élections regroupaient à peine quelques dizaines de milliers de votants sur l'ensemble de la planète, se révélaient très onéreuses (de l'ordre de 15 $ US par votant) et surtout peu fiables en raison du nombre élevé de fraudes relevées. En outre, comme indiqué précédemment, les membres élus du collège At Large se trouvent totalement isolés, sans contact aucun avec une base auprès de laquelle se référer. Dans ce contexte, l'ALSC constatait l'échec du système mis en place. Pour autant, l'ALSC préconisait le maintien du principe At Large mais réclamait sa structuration en collège constitué, appelé ALSO[[At Large SupportingOrganization]],diviséensix régions. Le comité préconisait également de réduire la notion d'utilisateur à celle de titulaire d'un nom de domaine au lieu d'un collège d'électeurs ouvert aux détenteurs d'une adresse email. Le nouveau système présenterait l'avantage de s'autofinancer, les titulaires de noms de domaine membres du collège At Large s'acquittant d'un droit à payer au moment de la réservation et / ou acquisition du nom de domaine pouvant couvrir les frais de fonctionnement du collège et les frais d'élection. Au delà des polémiques et questions que n'a pas manqué de susciter ce rapport sur le nombre d'administrateurs At Large, le système censitaire mis en place au détriment des pays pauvres etc. ..., l'esprit qui a animé les membres de l'ALSC était bien celui de créer les conditions et les modalités d'un contre pouvoir susceptible de faire évoluer l'ICANN. Il s'agit de créer au bénéfice d'individus issus d'une grande diversité géographiques des postes d'observations au sein de l'ICANN. Il s'agit aussi que cette observation serve le fonctionnement du système, c'est à dire que ces observateurs soient en position de dénoncer les dérives si elles sont constatées, de diffuser leur message le plus largement possible. A l'heure où ces lignes sont écrites, le conseil d'administration de l'ICANN a adopté une position de principe qui doit être confirmée dans les prochaines semaines avant d'être implantée. Conclusion Non, l'ICANN n'est pas un bon exemple de gouvernance de l'Internet en l'état actuel de sa structuration. Elle est captive d'un seul gouvernement. Celui-ci promet de lui retirer sa tutelle lorsqu'elle sera capable d'assumer la stabilité technique du système : or, ce qui ne lasse pas d'inquiéter est qu'on ne perçoit aujourd'hui aucun critère objectif qui permette de dire quand cette stabilité sera atteinte. L'ICANN est aussi captive d'intérêts privés dont elle doit s'affranchir. Or, les derniers développements relatifs aux renouvellements de contrats passés avec la Société VeriSign montrent que l'affranchissement n'est pas pour demain. Dans ce contexte, le rapport de l'ALSC fait figure d'une évolution majeure qui, si elle devait ne pas être suivie, pourrait signifier la mort d'une fausse gouvernance. L'ICANN doit, d'une part, se recentrer sur ses fonctions techniques, d'autre part, s'ouvrir à l'extérieur afin d'y laisser pénétrer un regard extérieur capable d'alerter un corps constitué d'une quelconque irrégularité ou atteinte aux intérêts du système : seul un collège At Large, fort et structuré, est capable d'assumer cette position. Certains prétendent que ci ces réformes ne sont pas rapidement arrêtées, alors l'ICANN sera un premier cas évident de law intelligence. La law intelligence est une pratique qui consiste à utiliser en toute légalité la technique juridique pour assurer la domination d'un pouvoir. En créant les conditions d'une structure incompréhensible, remplie d'acronymes et de jeux de pouvoirs légaux mais complexes, hermétiques, les tenants d'une law intelligence bloquent toute ouverture du système à plus de diversité géographique et tout simplement de démocratie dans le DNS. Exemple de gouvernance ou law intelligence, c'est aux instances dirigeantes de l'ICANN de répondre désormais. ------------------------------------------------ [1] En anglais se dit le Domain Name System ou DNS [2] En anglais se dit le Domain Name System ou DNS [3] 26 lettres de l'alphabet de surcroît au format ASCII [4] Les adresses IP sont également une ressource très limitée compte tenu du codage retenu à 16 bits. Les experts considèrent cependant qu'avec le déploiement du nouveau protocole IPV6, cette difficulté devrait être levée [5] « Confessions d'un voleur » par Laurent CHEMLA in Le Monde 29 Avril 2000 - Laurent CHEMLA est le fondateur de l'unité d'enregistrement GANDI, Société française la plus connue accréditée par l'ICANN comme unité d'enregistrement et qui a distribué plus de 250.000 noms de domaine en une année et demi [6] www.isoc.org L'Internet Society dispose de chapitres ouverts dans le monde, notamment le chapitre français - www.isocfrance.org. [7] la National Telecommunications and Information Administration - NTIA [8] Soit Domain Name Supporting Organization [9] http://cctld.dnso.icann.org [10] http://www.dnso.icann.org/constituency/gtld/gtld.html [11] Soit Address Supporting Organization [12] Signalons la création d'un organisme dédié à l'Afrique, AFRINIC, qui tarde à voir le jour [13] Soit Protocol Supporting Organization [14] Soit World Wide Web Consortium pour les technologies Web [15] International Telecommunications Union - http://www.itu.int/home/index.html [16] Soit European Telecommunications Standards Institute [17] Memorandum Of Understanding [18] Article V A. 1. « The Parties agree to jointly participate in the DNS Project for design, development, and testing of the mechanisms, methods and procedures, that should be in place for the private sector to manage the functions delineated in the Statement of Policy in a transparent, non-arbitrary, and reasonnable manner." [19] A California Nonprofit Public Benefit Corporation [20] At Large Study Committee - www.atlargestudy.org [21] http://www.icann.org/minutes/premim-report-15nov01.htm [22] At Large Supporting Organization
2002-05-08 19:42:50
Depuis cette année, le Ministère de l'Education Nationale met en place progressivement un dispositif destiné à sanctionner l'apprentissage des techniques informatique dans l'enseignement scolaire, aussi bien à l'école qu'au collège. -Un brevet très techno Ce certificat, appelé [Brevet Informatique et Internet->http://www.education.gouv.fr/bo/2000/42/encart.htm], valide la progression de l'élève dans la maîtrise des techniques de manipulation de l'information sur support informatique. Se composant de deux niveaux, sa délivrance garantit en principe que l'élève sait utiliser un traitement de textes, faire une recherche sur Internet, synthétiser l'information en provenance de plusieurs supports, traiter des données au moyen d'un tableur ou encore communiquer au moyen de la messagerie électronique. Récemment, le [Café Pédagogique->http://www.cafepedagogique.net], un magazine en ligne traitant de pédagogie, a constitué un [dossier très complet->http://www.cafepedagogique.net/dossiers/b2i/] sur le B2I, incitant professeurs, documentalistes et inspecteurs à tirer un premier bilan de leur expérience. Premier constat, dans un grand nombre de collèges, ce sont les professeurs de technologie qui gèrent exclusivement la délivrance du certificat, alors qu'il est prévu que l'enseignement et la validation des connaissances soit prise en charge par l'ensemble de l'équipe pédagogique. Ceci est dû en particulier au fait que nombre de techniques sanctionnées par le B2I sont déjà enseignées en cours de technologie et que, généralement, ce sont les enseignants de cette matière qui sont responsables du parc informatique de l'établissement. -Innovations pédagogique Contrairement aux espérances donc, le B2I n'a pas encore - sans doute est-ce encore trop tôt - incité l'ensemble des professeurs à introduire de manière significative les nouvelles technologies dans leur enseignement. Et c'est du côté des écoles primaires que les initiatives les plus innovantes sont venues, ce qui n'est pas une surprise dans la mesure où les instituteurs, de par leur formation et leurs méthodes de travail, sont naturellement plus ouverts à l'innovation pédagogique que leurs collègues du secondaire. Du côté des élèves, les premiers retours sont extrêmement positifs. Cela tient bien sûr à l'attrait qu'exerce le média sur les jeunes, mais aussi, de manière non négligeable à la méthode d'évaluation, particulièrement innovante : chaque élève possède en effet une "feuille de position" sur laquelle sont inscrites les différentes compétences qu'il doit apprendre à maîtriser. On lui demande dans un premier temps de s'auto-évaluer et cette auto-évaluation est dans un second temps sanctionnée par un professeur. Plutôt malin et responsabilisant pour des élèves ravis apparemment de gérer eux-mêmes leur progression dans un système scolaire qui, de manière générale, parie plutôt sur leur passivité. -Une pratique citoyenne Mais le B2I ne fait pas que sanctionner des connaissances techniques. Il est aussi censé développer une "pratique citoyenne" des nouvelles technologies, apprenant par exemple, au deuxième niveau du brevet, à connaître et appliquer la législation sur la collecte des données personnelles, ou bien, au premier niveau, à respecter la législation sur la propriété intellectuelle des logiciels informatiques et des contenus multimédia. Toute la question se pose maintenant de savoir si la formation des enseignants sur cette dimension "citoyenne" des nouvelles technologies est bien suffisante. Car, pour avoir testé les petits dispositifs d'évaluation que certains d'entre eux ont mis aux point pour leurs élèves, on ne peut qu'être sceptiques. Exemples à l'appui : "[Question nº 4->http://www.gmace.firstream.net/php4/exo21.php] : « Un de tes camarades a gravé plusieurs copies d'un CDrom qu'il vient d'acheter. Il t'en propose une. Dois-tu accepter ? » Réponse : « Non, il est interdit de reproduire et distribuer des logiciels sans autorisation spéciale ». Autre exemple, les cinq interdictions de la section « je respecte la propriété d'autrui » d'un [cours d'informatique premier niveau->http://www.discip.crdp.ac-caen.fr/phch/college/B2I/Web/22.htm] : « Tu ne dois pas: Copier des cédérom. Donner ou vendre des copies de CD. Mettre des fichiers MP3 sur ton site Internet. Mettre des photographies non personnel sur ton site Internet. Mettre des virus ou des cracks sur ton site Internet ». -Quid du logiciel libre ? Moralité : les adolescents apprennent qu'ils n'ont quasiment jamais le droit de recopier ou distribuer un contenu numérique, quelles que soient les circonstances, ce qui est une simplification outrageusement orientée de la situation légale, et qui ne fait que reproduire sans réflexion les prises de position des plus gros éditeurs de contenus commerciaux. Or, la généralisation de ces pratiques ne peut que renforcer l'espèce de face-à-face insoluble entre industrie du copyright d'un côté et pirates de l'autre, tel que nous le connaissons. Et il est un peu naïf de croire que reproduire l'unique point de vue de la BSA ou du GESTE dans cet enseignement empêchera le piratage, ou plus souvent la reproduction illicite de contenus. Mieux vaut peut-être tenter de rendre compte de la diversité des situations concernant les licences d'utilisation des contenus numériques. Il est faux par exemple, de dire qu'il est interdit en toutes circonstances de reproduire un CD. Tout dépend de la licence d'utilisation, et, dans le cas des logiciels libres, la reproduction peut être autorisée dans certaines conditions. Idem pour les contenus disponibles sur Internet : il existe aujourd'hui des banques d'images distribuées sous licences libres, des textes librement reproductibles, voire des fichiers musicaux distribués dans les mêmes conditions. Dès lors, pourquoi ne pas apprendre aux adolescents à lire les contrats de licence, plutôt que leur dire que toute reproduction est a priori interdite ? Parce que les enseignants ne sont eux-mêmes pas au courant de ce qui leur apparaît comme des subtilités et confondent pour la plupart, comme le grand public du reste, les licences libres à du piratage. Et le bel exemple de [Framasoft->http://www.framasoft.net], ou d'autres enseignants passionnés par les logiciels libres, ne doit pas cacher la forêt de ceux qui se contentent de suivre les directives du Ministère ou des rectorats, bien plus orientées par les logiciels propriétaires. Il serait pourtant autrement plus intéressant - et plus "citoyen" - d'exposer aux futurs utilisateurs l'ensemble de l'éventail des options légales qui se présentent et parmi lesquelles ils peuvent choisir. On pourrait en profiter pour apprendre dans le même temps aux éditeurs de logiciels à rédiger des contrats de licence (ou des notices explicatives) directement utilisables et lisibles par le citoyen lambda, qui a le malheur de n'être ni juriste, ni avocat spécialisé en droit de la propriété intellectuelle. Pour ce qui est de la collecte et du traitement automatisé des données personnelles, nous n'avons jamais vu un exercice portant sur ce sujet ; signe évident du manque d'information (mais aussi de clarté législative) sur ce sujet et qui ne fait que renforcer l'impression que tout n'est pas toujours clair pour tout le monde, qu'un travail pédagogique en profondeur, non seulement en direction des adolescents, mais aussi des adultes est encore à faire. -Le FDI s'en mêle Dans un récent entretien qu'elle a accordé au [magazine Zdnet->http://www.01net.com/rdn?oid=182821&rub=1724], Isabelle Falque-Pierrotin, qui dirige le Forum des Droits de l'Internet, signalait que cet organisme avait pris contact avec le Ministère de l'Education Nationale en vue de réaliser des actions d'éducation à la "civilité" sur Internet en direction du public adolescent. On attend des indications plus précises sur cette action ; mais le FDI pourrait veiller à faire évoluer, par une action pédagogique auprès des enseignants comme des élèves, une situation pour l'instant bien peu satisfaisante.
2002-06-27 10:37:44
Franz Molenda et Emmanuelle Chouteau, les deux webmestres du site [defense - consommateur. org->http://www.defense-consommateur.org] sont en train de vivre un enfer judiciaire. Condamnés le 28 mai dernier à payer 80000 € de dommages et intérêts au cybermarchand pere-noel.fr, ils sont maintenant sur le point d'être saisis sur leurs biens personnels alors même qu'ils ont fait appel de leur jugement. Mais cet appel est non suspensif et la diligence avec laquelle leur opposant tente de faire exécuter le jugement les prend de court. -Payer les pots cassés Quel est leur crime ? D'avoir hébergé sur leur site Web des forums de discussion dans lesquels plusieurs internautes ont déposé des propos jugés dénigrant ou injurieux à l'égard de pere-noel.fr. Le juge a considéré qu'ils étaient responsables de ces propos au titre en particulier de la loi de 1881 sur la liberté de la presse, mais aussi du Code Civil qui détermine le principe d'une réparation. Et c'est là que leur situation paraît d'autant plus injuste. Car, des forums contenant des propos injurieux contre tel ou tel, et même bien pire, il n'en manque pas sur la planète Internet. Mais [jusqu'à leur condamnation->http://www.homo-numericus.bonidoo.net/article.php3?id_article=169], personne ne pensait que des prestataires de forums puissent être assimilés à des directeurs de publication ou responsables de propos qu'ils n'ont pas tenu personnellement. C'est là en grande partie le fond de la question. La situation de Franz Molenda et Emmanuelle Chouteau semble particulièrement injuste parce qu'ils ont été les premiers à être condamnés pour des faits dont ils pouvaient légitimement ne pas s'estimer responsables, en l'absence de précédent. Ils n'ont fait que payer, personnellement, les pots cassés d'une loi imprécise ou d'une absence de loi, au choix, cause d'une incertitude juridique extrême pour les éditeurs de sites. Si, en l'absence de loi spécifique, ce sont les décisions au coup par coup des juges qui font la loi, quelqu'un doit à chaque fois payer, parfois très cher, l'avancée progressive de la jurisprudence et la définition au cas par cas des responsabilités de chacun. Ce n'est pas peu dire que le système est alors loin d'être idéal. La loi punit certes, mais elle protège aussi, normalement, ne serait-ce qu'en définissant clairement les droits et devoirs de chacun, afin que chacun ait la possibilité de déterminer son comportement en toute connaissance de cause. Et il n'y a pas plus grande injustice que d'être condamné alors qu'on ne se savait pas être condamnable. -Des gens derrière les ordinateurs Mais il y a plus : de discussions juridiques en procédures judiciaires, de commentaires sur la liberté d'expression sur Internet en débats sur la responsabilité des prestataires de forums, on finit par oublier que ce sont des gens qui sont dans l'oeil du cyclone, de simples particuliers pour qui les conséquences d'un tel jugement sont énormes. Habituellement en effet, ce type de procès met aux prises des sociétés commerciales et/ou des sociétés de presse, disposant des ressources en trésorerie suffisantes pour amortir le choc. Rien de tel ici. Et on pourrait commencer à se demander s'il ne serait pas nécessaire d'établir une sorte de responsabilité limitée pour les webmestres personnels, dont la situation ne peut être comparée à celle de grosses sociétés éditrices. Responsabilité certes, parce qu'aux droits doivent correspondre des devoirs, mais limitée parce que les peines et réparations doivent être proportionnées aux capacités des personnes mises en cause. -La peur Et aussi parce que la condamnation du 28 mai a été suivie de peu par une [vague de procès->http://www.01net.com/rdn?oid=187666&rub=1714] liés aux forums de discussion qui fait désormais trembler tous les webmestres français. Nombre d'entre eux surveillent désormais avec attention leur forums, et certains d'entre eux ont déjà décidé de censurer a priori, sans cadre défini d'ailleurs. Ce n'est pas une bonne nouvelle pour la liberté d'expression. Je n'émettrai pas d'avis sur la société pere-noel.fr Je ne dirai rien des avis de centaines de consommateurs qui ont eu affaire à eux, je ne me prononcerai pas sur les propos qui ont été tenus à leur propos sur les forums de défense-consommateur.org. Je censurerai aussi tous les propos de cette nature qui pourront être tenus sur le forum associé à cet article. Tout cela pour une seule raison : comme beaucoup d'autres, j'ai peur moi aussi. Peur d'un procès, peur d'une condamnation, peur d'être broyé entre les rouages d'une justice que je ne comprend pas. Un comité de soutien à Franz Molenda et Emmanuelle Chouteau est en train de rassembler des fonds pour leur permettre de faire face à leurs frais de justice. On peut y envoyer des dons à cette adresse : Comité de Soutien à Franz et Emma 23 rue Clapeyron 75008 PARIS
2002-06-27 18:14:56
D'origine militaire, le réseau Arpanet, créé en 1969 dans le cadre de l'Advanced research projects agency (ARPA), est présenté comme l'ancêtre de l'internet. Néanmoins, c'est la "république des informaticiens" [[Flichy, Patrice, 2001, 80, L'imaginaire d'Internet. Paris : La Découverte, 272 pages.]], qui a apposé son sceau sur les premiers développements de l'internet. A partir des années 1980, les informaticiens ont d'abord été rejoints par les hackers puis par les membres des premières "communautés virtuelles". Par-delà leur différence, tous ces pionniers de l'internet ont en commun un forte culture du partage et une faible propension à se soumettre à toute forme de hiérarchie, surtout lorsqu'elle émane de l'extérieur. Si l'on ajoute à cette première observation la prise en compte du caractère mondial et décentralisé de l'internet, l'hétérogénéité actuelle de ses utilisateurs, ou encore la volatilité de ses contenus, il est dès lors aisé de comprendre pourquoi la "mise en droit" [[Conseil d'Etat, 1998, 204, Internet et les réseaux numériques. Paris : La Documentation Française, 266 pages.]] de ce dispositif de communication se heurte à de sérieuses difficultés. Suite à l'augmentation rapide du nombre de machines connectées concomitante des premiers balbutiements du commerce électronique, la nécessité d'une réglementation de l'internet est pourtant devenue de plus en plus patente. Officiellement lancé le 31 mai 2001, le Forum des droits sur l'internet (FDI) a précisément pour ambition de "favoriser l'adaptation de l'ensemble du droit et des pratiques au contexte nouveau de la société de l'information" en essayant d'"associer l'ensemble des acteurs à la construction de la civilité de l'internet"[[Voir à ce sujet la présentation du FDI [En ligne]. Adresse URL : http://www.foruminternet.org (Dernière consultation le 3 juin 2002)]]. L'une des principales originalités du FDI est son statut puisqu'il s'agit non pas d'une autorité administrative indépendante mais d'une association sans but lucratif de type loi 1901. Ce choix ne relève pas du hasard mais de la volonté clairement affichée d'inscrire cet organisme dans la continuité de l'histoire de l'internet. Officiellement présenté par sa présidente, Isabelle Falque-Pierrotin, comme une instance de gouvernance, le FDI n'échappe pas à certains écueils propres à ce nouveau type d'organisme même s'il a su en éviter d'autres. I/ Les limites de l'autorégulation à l'origine du FDI -1.1/ L'autorégulation au fondement de l'histoire de l'internet Si l'internet pose de multiples défis à la loi et aux juges, il n'en constitue pas pour autant une zone de non-droit. Il est également soumis depuis ses origines à différentes formes d'autorégulation. Définie par Isabelle Falque-Pierrotin comme la "manifestation de la volonté générale", l'autorégulation est fondée sur le principe de la responsabilisation des internautes. Elle est une forme d'autodiscipline à travers l'adoption de règles plus ou moins contraignantes définies par les acteurs eux-mêmes. L'exemple le plus connu d'autorégulation sur l'internet est probablement celui de la netiquette, sorte de code de conduite de moins en moins respecté par les internautes. Le mode d'élaboration des standards techniques de l'internet constitue un autre exemple d'autorégulation dans la mesure ou les organismes internationaux qui s'en occupent sont des entités ouvertes sans procédure formelle d'adhésion, dont le mode de décision est fondé sur la recherche du "consensus approché" (rough consensus). Néanmoins l'exemple de l'ICANN montre que plus on s'éloigne de la sphère technique pour aborder des domaines où les enjeux de pouvoir sont importants, moins l'autorégulation fonctionne [[Voir à ce sujet : Fortin, Pascal, 2002 : "Gouvernance de l'internet : quelle légitimité pour l'ICANN ?". A paraître dans la revue Terminal. Cet article est également en ligne sur le site de l'association IRIS. Adresse URL : http://www.iris.sgdg.org/les-iris/lbi/lbi-110402.html (Dernière consultation le 3 juin 2002 ). ]]. Plus récemment, en réaction aux premières tentatives de réglementation de l'internet liées à l'augmentation du nombre d'internautes et au développement du commerce électronique, de nouveaux modes d'autorégulation ont été adoptés en rapport avec des préoccupations très variées comprenant notamment le respect de la vie privée, les règles de transaction commerciale, ou encore la limitation de l'accès à des "contenus préjudiciables". Adoptés par les acteurs du marché, les associations ainsi que les utilisateurs eux-mêmes, ils ont pris des formes très diversifiées : contrats, codes de bonne conduite, chartes éthiques, labels commerciaux, dispositifs de filtrage, etc.. Présentées par leurs promoteurs comme un substitut avantageux à la réglementation traditionnelle, jugée "obsolète à l'ère des réseaux", ces nouvelles formes d'autorégulation soulèvent néanmoins de nombreuses difficultés et ne peuvent en aucun cas se substituer à la loi ou au juge. Elles présentent en effet, selon les propres termes d'Isabelle Falque-Pierrotin, le double risque de voir les acteurs dominants du marché mettre en place des normes et pratiques de l'internet répondant à leurs intérêts d'une part, et de conduire à des formes de censure privée gravement préjudiciables aux libertés individuelles et publiques d'autre part [[Voir à ce sujet : Falque-Pierrotin, Isabelle, 27 novembre 1999, "Quelle régulation pour Internet et les réseaux ?". Le Monde.]]. C'est pourquoi Isabelle Falque-Pierrotin a imaginé la mise en place d'une nouvelle forme de régulation combinant autorégulation et réglementation : la "corégulation". -1.2/ De l'autorégulation à la corégulation En France, la réflexion politique sur la régulation de l'internet a véritablement été lancée en 1996 avec la formation d'un groupe de travail interministériel dont Isabelle Falque-Pierrotin était présidente. Mais il faut attendre la publication du rapport du Conseil d'Etat intitulé Internet et les réseaux numériques, le 8 septembre 1998, pour voir apparaître pour la première fois l'idée de la création d'un "organisme de corégulation" de droit privé [[Conseil d'Etat, op. cit.]] . Compétent pour tout ce qui est relatif à la "déontologie des contenus", la mission de ce nouvel organisme devait principalement consister à élaborer des recommandations d'ordre général dans ce domaine, mais aussi "des avis spécifiques d'ordre déontologique sur le contenu de sites ou de services". Il était également recommandé de le doter des attributions suivantes : gestion d'une ligne d'urgence sur les contenus illicites; exercice d'une mission de veille sur les technologies et usages de l'internet; conseil auprès du gouvernement sur ces questions; développement de la coopération internationale; élaboration d'actions de communication et d'information auprès des acteurs concernés; et enfin mise en place de fonctions de médiation et d'arbitrage en cas de litige entre les acteurs de l'internet. Dans une lettre datée du 15 novembre 1999, Christian Paul se voit confier par le Premier ministre de l'époque, Lionel Jospin, la mission de réfléchir à la préfiguration de cet organisme de corégulation imaginé par Isabelle Falque-Pierrotin. Rendu public en juillet 2000, son rapport intitulé Du droit et des libertés sur l'internet confirme l'intérêt de la création d'un tel organisme, tout en y apportant des modifications substantielles par rapport à la proposition initiale d'Isabelle Falque-Pierrotin [[Paul, Christian, 2000, 91-94 : Du droit et des libertés sur l'internet. La corégulation, contribution française pour une régulation mondiale. Paris : Rapport remis au Premier ministre, député de la Nièvre le 29 juin 2000, 158 pages [en ligne]. Adresse URL : http://www.internet.gouv.fr/francais/textesref/pagsi2/lsi/rapportcpaul/sommaire.htm (Dernière consultation le 3 juin 2002).]]. Simple structure chargée d'organiser le débat, il ne dispose plus d'aucune prérogative policière ni judiciaire. Il n'est plus habilité à statuer sur des cas individuels ni même à "labeliser" des codes. De même, si le principe de la mise en place d'une ligne d'urgence est maintenu, celle-ci ne serait plus gérée par cet organisme, mais directement par la police judiciaire. Enfin, la dénomination d'organisme de corégulation est délaissée au profit de celle de Forum des droits sur l'internet. En décembre 2000, Jospin donne finalement son accord pour la création d'un tel organisme et en confie la responsabilité à Isabelle Falque-Pierrotin. Le lancement officiel du FDI est annoncé dès le 31 mai suivant lors d'une conférence de presse organisée par cette dernière. Afin de bien comprendre le sens de cette notion de corégulation, il paraît judicieux de rappeler dans un premier temps la différence entre celles de régulation et de réglementation. En France, le terme de régulation est en effet souvent utilisé comme synonyme de celui de réglementation. Pourtant, l'usage qui semble de plus en plus s'imposer renvoie plutôt à une définition plus large de ce terme d'origine anglo-saxonne. Dans le rapport de Christian Paul, la régulation est ainsi définie comme "l'ensemble des règles s'appliquant aux contenus et aux pratiques, qu'elles résultent de l'intervention d'un régulateur public ou d'autres mécanismes"[[Idem , 31.]]. Dans cette acception, la régulation ne se limite donc pas à la définition française de réglementation, mais renvoie plutôt à toute forme d'intervention normative publique ou privée, dont les moins contraignantes. La réflexion sur l'internet a souvent opposé la réglementation à la régulation par le marché. Partant du postulat que les Etats et les institutions démocratiques ne sont pas les mieux à même de réguler les activités de l'internet, les promoteurs de la régulation par le marché en déduisent qu'il revient aux acteurs économiques de proposer, voire d'imposer, des codes éthiques et des pratiques de régulation de l'internet. Les partisans de la réglementation pensent au contraire que les institutions existantes et les processus démocratiques non seulement suffisent mais sont aussi les seuls légitimes à traiter les questions juridiques posées par les usages de l'internet. Afin de dépasser cet antagonisme, les promoteurs de la corégulation considèrent qu'il revient aux institutions démocratiques de traiter les questions posées avec la rapidité et la pertinence nécessaires en collaborant plus étroitement avec l'ensemble des acteurs de l'internet et en encourageant le développement d'une autorégulation pas uniquement marchande, mais multiforme. Telle est l'ambition de la corégulation [[Selon Christian Paul, la corégulation articule deux dimensions : un échange permanent et fourni entre les acteurs de l'internet et les autorités de la régulation publique; une coopération entre les instances de la régulation publique et les différentes formes d'autorégulation des acteurs économiques et sociaux (Paul, Christian, op. cit., 75.).]]. II/ le FDI comme instance de gouvernance -2.1/ Présentation du FDI "Lieu permanent de dialogue et de réflexion visant au développement harmonieux des règles et usages de ce nouvel espace", le FDI entend participer à la corégulation de l'internet en se fixant pour ambition "d'associer l'ensemble des acteurs à la construction de la civilité de l'internet". Seules les personnes morales, publiques ou privées, sont habilitées à devenir membres de cette association de type loi 1901 dont Isabelle Falque-Pierrotin est la présidente et déléguée générale. Leur adhésion est conditionnée par l'engagement solennel de respecter un certain nombre de principes, parmi lesquels figure en bonne place celui de "participer activement aux travaux du forum dans un esprit de recherche de consensus" [[Voir la Charte d'adhésion au FDI sur le site internet de cette association. Adresse URL : http://www.foruminternet.org (dernière consultation le 3 juin 2002).]]. Les membres du FDI se répartissent entre deux collèges : celui des "acteurs économiques" et celui des "utilisateurs". L'objectif explicitement affiché par cet organisme est d'aboutir à "une participation représentative des divers acteurs publics et privés de l'internet dans le respect des objectifs du forum". Organe principal du FDI, le Conseil d'orientation tripartite est composé de quinze membres, dont un tiers de "personnalités qualifiées", un tiers de membres issus du collège des "acteurs économique" et un dernier tiers issus de celui des "utilisateurs". Le Conseil d'orientation est épaulé par des groupes de travail informels composés par les membres intéressés du FDI ainsi que par des experts invités qui ont pour mission de réfléchir sur les thème fixés par celui-ci. Affichant son indépendance par rapport à l'Etat et l'administration, le FDI entend "conjuguer autonomie et proximité" à leur égard "afin de garantir l'impartialité de ses décisions ou recommandations mais aussi de faire en sorte que ses propositions soient prises en compte par la sphère publique". Financée pour l'essentiel par une subvention annuelle de l'Etat de 1,12 millions d'euros pendant trois ans, l'association reçoit par ailleurs des cotisations de ses membres qui varient selon leur budget et statut respectifs [[Selon Nicolas Arpagian, le montant de la dotation de l'Etat représentait un an après le lancement du FDI 90% de son budget. (Arpagian, Nicolas, 30 avril 2002, "Le Forum des droits de l'internet ne demande qu'à être utilisé". Le Nouvel Hebdo.).]] . Investi d'une triple mission, le FDI a d'abord pour ambition de favoriser la concertation entre les différents acteurs de l'internet en vue de formuler des recommandations qui s'adressent aussi bien aux acteurs privés, en les appelant à une action d'autorégulation, qu'aux acteurs publics, dans le cadre d'un aménagement du droit existant. L'information et la sensibilisation du public constitue sa deuxième mission. Enfin, le FDI s'engage à favoriser la coopération internationale en essayant de rapprocher les positions des différents partenaires. Finalement, parmi ses principes de fonctionnement, le FDI souhaite respecter les modalités de la "démocratie élaborative" en facilitant le dialogue et l'échange entre tous les acteurs de l'internet. A cette fin, il promet de privilégier une démarche pragmatique destinée à fournir des réponses souples et évolutives ainsi qu'une approche transversale destinée à "briser les cercles" en dépassant les obstacles sectorielles dans le but de dégager des "principes communs". -2.2/ Le FDI comme instance de gouvernance Le titre d'une intervention d'Isabelle Falque-Pierrotin, "Le forum des droits sur l'internet : un instrument de gouvernance", présentée lors d'un récent colloque organisé par l'université Paris I et le ministère de la Justice, illustre parfaitement l'homologie entre les notions de gouvernance et de corégulation, cette dernière pouvant être définie comme une transposition dans le domaine du droit de la première. L'extrait qui suit au sujet du FDI nous éclaire sur le choix de cet intitulé : "En réalité, c'est une aide à la gouvernance, au sens où l'on entend la "gouvernance" comme la prise de décision dans un système complexe : dans de tels systèmes, la décision ne peut plus être imposée par un nombre limité d'acteurs, publics ou non; elle se bâtit pas à pas, au terme d'interactions successives entre acteurs publics, entreprises, représentants de la société civile; elle résulte de l'équilibre instable qui s'établit entre eux. Le rôle du Forum est d'offrir un lieu permanent de gestion de ces interactions, favorisant l'émission de cette position d'équilibre" [[Falque-Pierrotin, Isabelle, 2001, "Le Forum des droits sur l'internet : un instrument de gouvernance". Paris : Allocution présentée lors du colloque intitulé Droit de l'internet - Approches européennes et internationales, organisé par l'université Paris I et le ministère de la Justice les 19 et 20 novembre 2001 [En ligne]. Adresse URL : http://droit-internet-2001.univ-paris1.fr/ (Dernière consultation le 3 juin 2002).]]. Un bref rappel des principales caractéristiques du FDI suffit à montrer que cet organisme est bien une variante des nombreuses formes possibles de gouvernance. Ce constat se vérifie en premier lieu au niveau des discours de légitimation du FDI qui reposent principalement sur quelques schèmes classiques de la rhétorique de la gouvernance : le postulat de la complexité et de l'ingouvernabilité comme fondement de la mise en place de nouvelles formes d'action publique; l'accent mis sur une logique d'efficacité; la valorisation d'une conception de la délibération collective fondée sur le consensus; la volonté affichée de représentativité; l'invocation récurrente des principes de transparence et d'ouverture; l'adoption d'une stratégie de responsabilisation accrue de tous les acteurs concernés par une implication plus forte dans le processus de prise de décision. Le lien entre corégulation et gouvernance se vérifie également au niveau du FDI lui-même puisqu'il s'agit d'un organisme tripartite de droit privé associant étroitement acteurs publics, entreprises privés et membres de la "société civile" dans la prise de décision. Il n'est donc pas surprenant d'observer que le FDI se heurte aux mêmes écueils que les autres organismes de gouvernance même s'il a su en contourner certains. III/ Critique du FDI au prisme de la gouvernance -3.1/ Un organisme dans l'air du temps ? Le rappel des origines de la création du FDI a permis de montrer que celle-ci découle du constat formulé par Isabelle Falque-Pierrotin des insuffisances des démarches d'autorégulation. Néanmoins, reconnaît-elle, certains "restent" favorables à la mise en place d'une structure publique pour réguler les contenus illégaux sur l'internet. Dans la mesure où il n'y a pas de droit de l'internet mais des contenus soumis à des régulations sectorielles spécifiques, l'option de la mise en place d'une autorité administrative indépendante lui paraît à juste titre inopportune. En revanche, les raisons qu'elle mentionne pour écarter l'hypothèse d'une commission administrative [[Une commission administrative qui pourrait par exemple être dotée des missions de consultation, d'information et d'organisation de la réflexion sur le droit et les libertés publiques sur l'internet.]] sont beaucoup moins convaincantes : "Elle risque d'apparaître au plan international comme l'illustration classique du centralisme administratif français; elle serait la plus éloignée de l'auto-régulation, voie qui semble s'imposer sur les réseaux; en outre une proposition qui prévoyait un rattachement d'un comité de la télématique au CSA a été annulée par le Conseil constitutionnel par la décision du 23 juillet 1996; les professionnels sont enfin réticent à son égard" [[Conseil d'Etat, op. Cit., 214.]]. Dans la mesure où le lien de cause à effet entre le rattachement du Conseil supérieur de la télématique au CSA et le rejet de la mise en place d'une commission administrative reste à démontrer, le principal motif invoqué par Isabelle Falque-Pierrotin tient finalement ni à une quelconque illégitimité d'un tel organisme, ni même à son éventuelle inefficacité, mais au fait qu'une telle proposition n'est pas, selon, ses propres termes, "en accord avec la philosophie générale de l'internet et les attentes des acteurs" [[Idem, 212.]]. Afin d'écarter par avance tout reproche de "centralisme administratif français", elle en déduit que "la solution la plus appropriée semble donc celle d'une structure privée à condition qu'elle puisse se "teinter" d'un caractère public lui permettant d'asseoir sa légitimité et de faciliter sa constitution" [[Idem, 214.]]. De fait, le FDI correspond parfaitement aux nouvelles conceptions de l'action publique dans la mesure où l'Etat est, du moins en apparence, très en retrait au sein de cet organisme. Certes, le FDI a été créé à l'initiative de l'Etat. Il est en outre largement financé par ce dernier et Isabelle Falque-Pierrotin, actuelle présidente et déléguée générale de l'association, est maître des requêtes au Conseil d'Etat. Néanmoins, le choix d'une structure de droit privé pour aborder des enjeux d'intérêt public, la composition tripartite de son conseil d'orientation, ou encore la répartition de ses membres au sein de deux collèges, celui des "utilisateur"s et des "acteurs économiques", témoignent d'une volonté manifeste de discrétion des pouvoirs publics. Bien que "teinté" d'un caractère public, le choix d'une structure privée s'inscrit ainsi très clairement dans une vision libérale de la société. A cet égard, observe l'association IRIS, "la corégulation serait encore plus dangereuse que l'autorégulation car elle serait légitimée par les pouvoirs publics. Elle constituerait en quelque sorte la Sainte-Alliance de l'administration et des lobbies économiques" [[IRIS, avril 2000 : Pour une alternative démocratique à la corégulation d'Internet : Proposition de création d'une mission interministérielle pour la citoyenneté et l'accès au droit sur Internet. Paris [En ligne]. Adresse URL : http://www.iris.sgdg.org/documents/rapport-coreg/rapport-coreg.html (dernière consultation le 3 juin 2002).]]. Ce choix n'est finalement pas étranger à la recommandation de Christian Paul, retenue dans les statuts actuels du FDI, de ne pas lui attribuer de missions régaliennes. -3.2/ Une logique de légitimation par l'efficacité Naturellement, la justification de la création du FDI ne se résume pas à son adéquation à "l'air du temps", fût-il celui de l'internet. L'argumentation adoptée par Christian Paul sur les mérites comparés de la corégulation comparativement à la réglementation est de ce point de vue très intéressante : "La troisième attitude [N.D.A. : celle des partisans de la réglementation] considère que les institutions existantes et les processus démocratiques suffisent et sont seuls légitimes à traiter des questions juridiques posées par les usages de l'internet. C'est à la justice de trancher les cas individuels et de construire peu à peu une jurisprudence et au législateur de faire évoluer ou clarifier les règles là où c'est nécessaire. La lenteur, l'imperfection, la confidentialité du processus sont la marque normale du fonctionnement démocratique et ne doivent pas être craints. Toute autre méthode poserait des problèmes insolubles de représentativité, de compétence, de légitimité, et risquerait de donner aux intérêts économiques les mieux organisés une influence disproportionnée sur la définition des règles et des pratiques de référence. Si cette analyse est incontestable sur le fond, elle connaît des limites d'un point de vue pratique. L'expérience des derniers mois montre que les contraintes - temps, charge de travail, moyens - du législateur et du juge ne permettent pas aujourd'hui à ces deux piliers de la vie démocratique de traiter la totalité et la complexité des questions inédites posées par l'internet" [[Paul, Christian, op. cit., 16-17.]] . La première question qui vient à l'esprit à la lecture de cet extrait est celle de l'inéluctabilité des "limites pratiques" qui entravent l'action de ces deux "piliers de la démocratie" que sont le législateur et le juge. Si l'internet pose effectivement des problèmes inédits, n'est-il pas envisageable de réformer les "institutions et processus démocratiques", "seuls légitimes à traiter les questions juridiques posées", afin de leur donner les moyens de répondre dans les meilleures conditions à la nouvelle situation plutôt que de sacrifier des pans de la démocratie ? [[Dans une contribution au débat sur la corégulation de l'internet, l'association IRIS a ainsi formulé un certain nombre de préconisations permettant, selon elle, de limiter une judiciarisation excessive et un engorgement encore plus important des tribunaux, dont la transposition des Maisons de la justice et du droit (MJD) au monde de l'internet (IRIS, op. cit.) Cette idée a d'ailleurs été reprise par Christian Paul qui indiquait à ce sujet que "Cette production originale avancée par l'association IRIS qui viserait à créer au sein des Maisons de la justice et du droit, des antennes spécialisées dans les litiges survenant sur l'internet ou à créer des "cyberMJD" spécialisées dans certains types de conflits, pourrait être explorée avec intérêt" (Paul, Christian, op. cit., 96.). Pourtant, cette proposition n'a toujours pas été suivie d'effet.]] En fait, l'homologie entre la justification de la corégulation par opposition à la réglementation et celle qui consiste à justifier les nouvelles formes de gouvernance par opposition au mode hiérarchique de gouvernement, apparaît dans cet extrait de manière particulièrement éloquente. Le raisonnement de Christian Paul s'articule en deux points. Dans un premier temps, il approuve l'argument des défenseurs de la réglementation en reconnaissant la justesse de l'analyse selon laquelle "toute autre méthode poserait des problèmes insolubles de représentativité, de compétence, de légitimité, et risquerait de donner aux intérêts économiques les mieux organisés une influence disproportionnée sur la définition des règles et des pratiques de référence". Dans un second temps, il n'en écarte pas moins cette solution au motif qu'"elle connaît des limites d'un point de vue pratique". Comme dans les nouvelles formes de gouvernance qui tendent à privilégier la légitimité de l'action publique par l'efficacité (output legitimacy) au détriment de la légitimité démocratique (input legitimacy), le rejet de la réglementation est ici motivé par le choix d'une logique d'efficacité. Pourtant, dans un article intitulé "Etat de Droit et gouvernance : le rôle du droit et des droits", François Crépeau met précisément en garde sur le danger d'une substitution de la logique managériale au principe d'égalité du droit [[Crépeau, François, 2000 : "Etat de Droit et gouvernance : le rôle du droit et des droits". Montréal : Allocution lors de la journée d'étude de l'équipe CEDIM/FCAR intitulée Mondialisation, Gouvernance et État de droit, organisée à l'Université du Québec à Montréal le 14 juin 2000 [En ligne]. Adresse URL : http://www.cedim.uqam.ca/FCAR2.htm (Dernière consultation le 3 juin 2002).]]. Le principe d'égalité au fondement de la logique démocratique est, affirme-t-il, conceptuellement opposé à la finalité d'efficacité du discours économiste dominant. C'est pourquoi, conclut-il, la valeur d'égalité doit transcender les problèmes d'efficacité liés à ce que certains appellent les "exigences démocratiques excessives". Finalement, l'option de la corégulation retenue par Christian Paul[[Conformément à la lettre de mission adressée par Lionel Jospin.]] paraît d'autant plus discutable que l'efficacité des mécanismes de gouvernance reste encore largement à démontrer. -3.3/ Une association comme les autres ? Afin de pallier la faible légitimité démocratique du FDI, ses promoteurs affichent l'ambition de devenir à terme le lieu d'une "participation représentative des divers acteurs publics et privés de l'internet". Le caractère illusoire d'un telle ambition affichée par Isabelle Falque-Pierrotin dès 1998 avait pourtant été reconnu par Christian Paul lui-même dans son rapport de préfiguration du FDI : "Il n'est pas possible de formuler des règles de "représentativité" de l'ensemble des acteurs de l'internet et de la société de l'information d'une part parce qu'il s'agit de tout le monde, d'autre part parce que certains secteurs (les professionnels, les entreprises) sont mieux organisés que d'autres (les utilisateurs, les consommateurs...)" [[Paul, Christian, op. cit., 103.]]. Toujours dans cet objectif de mieux asseoir la légitimité démocratique du FDI, ses adhérents sont officiellement incités à travailler dans "un esprit de recherche de consensus". Néanmoins, le mode d'adoption des recommandations témoigne de la volonté d'éviter la paralysie qui découlerait de l'obligation d'unanimité entre les membres du conseil d'orientation. Dans l'Etat actuel des statuts du FDI, le conseil d'orientation est en effet en mesure de prendre des décisions à la majorité simple et doit mentionner les expressions de positions minoritaires. Finalement, au regard des missions assignées au FDI, le grand mérite de celui-ci est paradoxalement de ne disposer d'aucune prérogative policière ni judiciaire. Simple lieu privé d'organisation du débat public, de consultation et de sensibilisation, il ne dispose ainsi d'aucun pouvoir contraignant. A cet égard, les recommandations formulées par Christian Paul dans son rapport de préfiguration du FDI ont été largement suivies. Comme le souhaitait ce dernier, "Le Forum des droits sur l'internet n'est pas un démembrement de l'Etat. Il n'exerce pas de mission régalienne". A titre d'exemples, le FDI n'est pas une instance administrative de contrôle sur le modèle du Conseil Supérieur de l'Audiovisuel (CSA) ou de l'Autorité de Régulation des Télécommunications (ART). Il ne produit pas de droit. Il ne se prononce pas non plus sur les cas individuels, notamment en cas de litige sur la licéité d'un site donné. L'idée d'une ligne d'appel d'urgence sur les contenus illicites ainsi que le principe de la "labelisation" des sites gérés par le FDI sont également écartés. Comme le remarquait l'association IRIS dans son communiqué de presse du 7 juillet 2000 [[IRIS, 7 juillet 2000, "Rapport Christian Paul sur la corégulation : Le projet écarte les principaux dangers, mais comporte un grave risque structurel de paralysie". Paris : Communiqué de presse [en ligne]. Adresse URL : http://www.iris.sgdg.org/info-debat/comm-coreg0700.html (Dernière consultation le 3 juin 2002).]], le principal intérêt de la configuration actuelle du FDI tient précisément au fait d'avoir évité les principaux écueils contenus dans les propositions initiales d'Isabelle Falque-Pierrotin. La limitation des prérogatives du FDI à la simple mission de créer un espace de concertation, d'accroître l'information du public et de favoriser la coopération internationale sur les enjeux liés au droit de l'internet, peut naturellement susciter un doute sur l'intérêt d'un tel organisme. Au vu de l'importance, de la complexité et de la rapide évolution de ces enjeux, cette mission devrait pourtant largement suffire à justifier son existence. Néanmoins, le bilan du FDI après plus d'un an d'existence suscite un réel scepticisme quant à ses capacités à mener à bien un tel objectif. En effet, suite à un démarrage plutôt prometteur illustré par les 350 contributions au forum d'ouverture, les thèmes de discussion suivants n'ont jamais suscité plus de quelques dizaines de messages. A cet égard, le choix des thèmes abordés n'est peut-être pas étranger à la faible fréquentation des forums ouverts par le FDI. Dès son démarrage, celui-ci a en effet fortement déçu les attentes des internautes en refusant d'ouvrir un forum sur le projet de loi sur la "société de l'information". Certains sujets abordés par le FDI portant notamment sur l'internet et les mineurs et sur la surveillance au travail, ont en outre déjà été traités par d'autres organismes comme la CNIL. Enfin, l'absence de forums sur les enjeux juridiques de l'internet à l'échelle internationale, et plus particulièrement au niveau européen où des décisions importantes se prennent, est doublement surprenante en raison de la gravité et de la complexité des problèmes posés d'une part, et des missions officiellement assignées au FDI d'autre part. Au vu de ces différentes observations, il paraît finalement légitime de s'interroger sur le bien-fondé de la dotation publique annuelle de 1,1 million d'euros attribuée au FDI pendant trois ans [[Selon Nicolas Arpagian, "A titre de comparaison, la Commission nationale informatique et libertés (CNIL) et ses soixante collaborateurs disposent d'un budget seulement trois fois supérieur. Et 110 000 euros avaient suffi à la première version de son site en 1998" (Arpagian, Nicolas, op.cit.).]]. Conclusion : A quoi sert le FDI ? Dans la mesure où la notion de corégulation peut être considérée comme un avatar de la gouvernance transposé dans l'univers du droit, l'analyse d'un organisme comme le FDI au prisme de cette dernière notion permet de mettre en évidence son inscription dans une logique de retrait de l'Etat au nom du principe de légitimation par l'efficacité et au détriment de la légitimité démocratique qu'une quête illusoire de consensus et de représentativité ne permet pas de compenser. Néanmoins, son absence de pouvoir contraignant lui permet d'écarter le reproche de démembrement des prérogatives de l'Etat sans remettre en cause la légitimité de sa mission officielle de participer au renforcement du débat public sur les enjeux juridiques de l'internet. Pourtant, la relative déception provoquée dès son démarrage par le refus du FDI de répondre aux attentes des internautes en ouvrant un débat sur le projet de loi sur la "société de l'information", n'est peut-être pas totalement étrangère à la désaffection très rapide pour ses forums de discussion. Ce dernier constat nous amène par conséquent à nous interroger sur l'utilité réelle du FDI. Il serait en effet logique de déduire de ce qui précède qu'il ne sert pas à grand chose. Mais la réalité n'est peut être pas aussi simple, surtout si l'on se demande qui peut éventuellement tirer profit de son existence. A cet égard, l'un des intérêts du FDI ne serait-il pas de cautionner de manière insidieuse - indirectement, par défaut, en creux - l'action des pouvoirs publics, en cherchant à attirer vers lui l'attention des acteurs potentiels du débat sur les enjeux juridiques liés au développement de l'internet, tout en leur refusant la possibilité d'aborder les aspects les plus polémiques de ce débat. De la même manière, une autre conséquence non négligeable de l'existence du FDI n'est-elle pas de restreindre les marges d'action de ses membres plus ou moins liés à ses décisions, ainsi que celles de ses non-adhérents qui se trouvent du même coup à l'écart d'une instance de délibération et d'une tribune aspirant à jouer un rôle de plus en plus important ? Finalement, dans quelle mesure la création du FDI n'est-elle pas motivée par la volonté des pouvoirs publics de créer une entité indirectement contrôlée par eux-mêmes, faisant office de porte-parole quasi officiel de la "société civile" à défaut de relayer l'ensemble de ses préoccupations et de pouvoir la représenter dans toute sa richesse et sa diversité ? Répondre de manière définitive à toutes ces questions relève assurément de la gageure. Mais ne serait-il pas encore plus déraisonnable de les éluder ?
2002-05-12 14:05:01
« Une société montre son degré de civilisation dans sa capacité à se fixer des limites. » Cornélius Castoriadis - Philosophe et psychanalyste En novembre 1998, une conférence se réunit à Bangalore, sous l'égide de l'Organisation des Nations Unies pour le Développement Industriel (Unido). A l'issue de cette réunion, les participants adoptent un texte connu sous le nom de déclaration de Bangalore. Les grandes lignes : l'accès à l'information est une clé du développement; parmi les champs d'application prioritaires des nouvelles technologies doivent figurer l'agriculture, la santé, l'éducation ... Cet appel n'exclut pas un certain protectionnisme avec l'idée que les gouvernements doivent promouvoir le développement d'industries locales (hardware) et qu'ils doivent "protéger les produits indigènes des pratiques commerciales injustes". - Mathieu Braunstein - Télérama - 4 au 11 mai 2002. Ce document est un complément à l'article "De l'art et de la méthode" qui expliquait pourquoi, à mon avis, les brevets logiciels sont une atteinte à la liberté de création et donc à la liberté d'expression. En conclusion, j'énonçais le fait que le don numérique est une réalité. Pour compléter cette réflexion, j'ai décidé d'écrire ce texte qui essaye d'expliquer pourquoi certains développeurs distribuent systématiquement leur code source et donnent donc ce que d'autres vendent. Ce document ne couvre que le don numérique de logiciels. Notez que le don numérique peut également concerner la musique, les écrits, les films et toute oeuvre susceptible d'être numérisée et diffusée sur le réseau. La notion de don numérique se retrouve dans deux textes importants de la culture hacker : "A la conquête de la noosphère" de Eric S. Raymond et "L'économie du don high-tech" de Richard Barbrook. Ce dernier texte est une compilation du livre "Holly fools : a critique of the avant-garde in the age of the Net" (Verso, Londres, 1999) . Richard Barbrook adopte une approche politique et idéologique alors que Eric S. Raymond privilégie l'analyse anthropologique et sociologique. Les deux auteurs démontrent que le don numérique est une réalité à travers plusieurs exemples et font tous deux un parallèle avec certaines tribus polynésiennes où le don était devenu à la fois une forme d'expression sociale et une façon d'affirmer sa richesse, qu'elle soit matérielle ou morale. L'économie du don tribal cimentait la paix sociale chez des peuples guerriers où le conflit résultait parfois plus du péché d'orgueil que de besoins physiques. -L'altération de l'égo Dans son texte, Eric S. Raymond explique clairement certaines motivations sous-jacentes au don numérique. Sur Internet, le don est la seule forme de reconnaissance sociale. Les hackers donnent pour partager mais aussi pour satisfaire leur égo et valoriser leurs créations. A l'instar d'un peintre acceptant la critique, un développeur de logiciels ouverts se soumet au jeu des réputations en exposant ses oeuvres sur la toile. Par cette exposition, le développeur espère recevoir des encouragements, des compliments mais surtout des contributions. Le don numérique n'est pas qu'un don altruiste, comme tout don, il est aussi interactif, l'interactivité est juste augmentée par la nature de l'oeuvre logicielle. Les utilisateurs séduits peuvent se transformer en béta-testeurs, en traducteurs, en mécènes ou même en co-auteurs. A la fois artiste et scientifique, le développeur est donc en recherche permanente de collaborations. Lorsqu'il distribue son code source, il attend un retour de la part de ses pairs et espère asseoir sa réputation. Par ses contributions à des projets tiers, il cherche à étendre sa renommée et à accroître son sentiment d'appartenance à la communauté. Dans un monde virtuel, les contraintes physiques et matérielles sont par nature absentes, la seule pénurie existante est celle des compétences. Les tarifs horaires de certains développeurs ne font que confirmer un mécanisme économique pourtant accepté de tous : le talent est rare, donc cher. Un développeur talentueux peut résoudre un problème en quelques minutes quand d'autres n'y arriveront jamais. Comme des artistes capricieux, ils se réservent alors le droit de faire payer, voire de refuser une demande qu'ils jugent inintéressante, peu valorisante ou contraire à leur éthique personnelle. Parfois conscients de cette absence de mérite, ou peut-être aveuglés par un égo sur-dimensionné, certains développeurs ne conçoivent pas de vendre ce qui ne leur coûte pas. A ces sentiments diffus de culpabilité et de supériorité se superpose ce que certains appellent la déontologie. Les développeurs sont parfois des artistes, parfois des scientifiques mais ils restent des informaticiens, des techniciens de l'information, des gestionnaires de savoir. Ils se doivent donc d'être professionnels et responsables quand ils exercent leur activité pour des entreprises ou pour des administrations. Les administrateurs réseaux ont su percevoir bien avant les juristes que certains emails relevaient de la correspondance privée, certains d'entre eux se sont opposés à la mise en place de systèmes de surveillance au sein de leur propre société. La levée de boucliers contre les brevets logiciels et la promotion des logiciels ouverts ne sont peut être que l'expression d'une certaine conception de l'intérêt général au détriment d'intérêts particuliers. -Du marxisme au scientisme Dans son texte "L'économie du don high-tech", Richard Barbrook cherche à démontrer que le don numérique va permettre de réaliser le rêve des anarcho-communistes en permettant une collectivisation des moyens de production logiciels et en instaurant une économie du don côtoyant, ou plutôt s'imposant, à l'économie capitaliste contemporaine. Toutefois, si une grande partie du texte est parfaitement exact, Barbrook ne semble pas appliquer exactement la méthodologie marxiste dans la mesure où il ne relève pas plusieurs contradictions, ou du moins les éludent en quelques phrases rapides parfois même erronées. Comme l'explique très clairement, Henri Lefebvre, marxiste convaincu, professeur d'Université à Nanterre et auteur de nombreux ouvrages sur le sujet, la méthode marxiste utilise un mécanisme d'analyse appelée méthode dialectique qui consiste à analyser la réalité par l'utilisation systématique de l'opposition : le but est de retrouver l'unité de la réalité, c'est à dire son mouvement par la recherche de ses contradictions. Le marxiste doit s'attacher à rechercher le devenir de la réalité et non son état présent, et le tout en toute objectivité. Pourtant, Barbrook semble oublier un point fondamental, la valeur ajoutée d'un logiciel ne vient pas du logiciel mais de l'auteur ou plutôt des auteurs. Un développeur est un ingénieur plus qu'un ouvrier, un universitaire plus qu'un prolétaire et les logiciels ne sont pas des chaînes de montages mais des oeuvres artistiques et/ou scientifiques. Marx a appliqué la méthode dialectique en étudiant le travail manuel, pas le travail intellectuel et encore moins la démarche de l'artiste ou bien celle du chercheur. Chercher à démontrer que la matière et l'esprit relèvent de la même sphère est une analyse erronée qui n'est finalement pas si loin de certaines thèses pro-brevets : si la finalité est tout autre, l'analyse est similaire, les comparaisons identiques. Comme le dit très humblement, Linus Torvald, tout développeur cherche à se hisser sur l'épaule des géants, et la beauté, serait t-elle seulement fonctionnelle ou technique, reste subjective, la découverte, l'illumination ou le pas de géant, hélas, peu reproductibles. Cependant, Barbrook ne se trompe pas complètement car il parle d'anarcho-communistes, et pas de communistes, comme certains semblent le penser. Le don numérique est un acte pouvant être vu comme anarchiste car c'est bien un acte individuel fort et qui, contrairement au don tribal, peut être unilatéral, c'est à dire n'amenant pas systématiquement à contrepartie, ou du moins pas de la part de l'individu, de la lignée ou de la tribu recevant le don. Sur Internet, on prend à tous, on rend à tous et on donne à tout le monde. Le don numérique est un don qui ne s'incarne que comme un choix personnel du donneur, dans son copyright ou son copyleft, dans son nom dans le fichiers de contribution, ou comme résultat d'une recherche sur Google : ce n'est que l'expression de la volonté d'exister dans un monde anonyme, mouvant, insaisissable, plus idée que matière car enfin libéré des contraintes matérielles : le réseau est devenu spirituel, le logiciel fétiche, terme pourtant honni pour tout marxiste avoué. A prendre ici, toutefois, dans son sens religieux et non économique. -Homo Numericus : quand le primate s'éveille L'erreur de Barbrook, dans un but pourtant louable, est d'analyser le don numérique en adoptant une approche uniquement politique et économique en oubliant que la vision de l'anthropologue ou du médecin seraient sans doute utile. Le don numérique est un acte social résultant de mécanismes psychologiques, les neuro-biologistes, appellent cela un état de conscience, un état biologique impliquant connexions neuronales et échanges chimiques, une mise en condition de l'homme face aux stimuli de l'environnement mais résultant, aussi, de son interaction avec ses congénères. Athée convaincu, Jean-Pierre Changeux, neurobiologiste et auteur de deux ouvrages parfois controversés, voire taxés de scientistes, déclarait récemment qu'il pensait sincèrement que certains mécanismes du cerveau ne pouvait être étudiés, ou du moins compris, car relevant de ce qu'il aime appeler la mémoire collective, ou la culture, pour éviter tout mot ayant un sens moral. Le don numérique échappe à toute analyse économique, l'échange n'est pas quantifiable car spirituel, virtuel, et non matériel, l'un des rares dons dits purs avec la prière et la reproduction. L'analyse marxiste, tout comme la vision capitaliste, échouent car elles refusent de voir en l'homme autre chose qu'un objet, un produit, un élément causal. Si Henri Lefevbre précise, dans son livre "Le marxisme", qu' "il faut éviter d'employer, en économie politique, les méthodes qui permettent de découvrir les lois physiques ou chimiques", l'inverse semble tout aussi vrai et l'on pourrait ajouter que l'étude de la psyche échappe, par nature, à toute vision matérialiste. Si Jean-Pierre Changeux déclare que "l'homme vient de la matière", il ne nie pas l'esprit. De même, les comparaisons avec l'économie du don tribal relève de l'anachronisme, voire de la mystification. Tout comme Mauss fut mystifié par les maoris lorsqu'il crût voir une autonomie spirituelle dans les objets échangés lors des cérémonies de dons, les potlachs, Barbrook est mystifié par les hackers quand il voit dans le don numérique un acte uniquement politique et dans les logiciels, l'arme révolutionnaire, si longtemps attendue. Dans son ouvrage "L'énigme du don", Maurice Godelier, anthropologue et écrivain, explique comment Levi-Strauss avait perçu l'erreur de Mauss lorsque se dernier écrivait, dans "Essai sur le Don" : "On peut pousser plus loin l'analyse et prouver que dans les choses échangées au potlach, il y a une vertu qui force les dons à circuler, à être donnés et être rendus". Ce à quoi Levi-Strauss répondit : " Cette vertu - qui force les dons à circuler- existe t-elle objectivement, comme une propriété physique des biens échangés ? Évidemment non." Levi-Strauss affirme que Mauss s'est trompé car il n'a pas su percevoir le fait que, au delà de la chose échangée, c'est l'échange qui "constitue le phénomène primitif, et non les opérations discrètes en lesquelles la vie sociale les décompose." Mauss fut dès lors taxé d'analyser des sociétés tribales avec un regard d'Occidental, à une époque où le capitalisme était perçu comme la voie économique la plus naturelle, la plus réaliste. Toutefois, Maurice Godelier rappelle que Mauss avait su conserver le recul et l'humilité nécessaire aux scientifiques, et plus particulièrement à ceux qui étudient un sujet plutôt qu'un objet, une société plutôt qu'un système. Et de citer Mauss, au sujet de l'homme, cet "animal économique" : "[...] l'homme a longtemps été autre chose; il n'y a pas bien longtemps qu'il est une machine, compliquée d'une machine à calculer". Le psychologue Abraham Maslow a mis en évidence que l'homme, animal social et conscient, ne satisfait pas que de la résolution de ses besoins physiologiques, l'évolution de l'homme passe par le cérébral, par le psychologique et par l'humanité. Chétif, peu armé, mal protégé, l'homme a su trouver d'autres armes pour continuer sa lutte en tant que mammifère, il a développé l'état de conscience et a poussé la sociabilité à son paroxysme en inventant le langage, le mythe, l'économie, l'art, la science et le progrès social. Comme l'a dit Jean-Paul Sartre, il semble bien que, chez l'homme, "l'existence précède à l'essence" et, si l'homme est bien l'avenir de l'homme, c'est plus par son cerveau que par son sens moral. -Culture du profit, économie du don Dans son livre, "La fin du Travail" écrit en 1995, Jéremy Rifkin, économiste américain, démontre que la révolution numérique risque de porter au pouvoir, non pas le peuple mais ceux qu'il appelle "les manipulateurs d'abstractions". Reproduisant les schémas des révolutions agricoles et industrielles, la révolution numérique écarte peu à peu des millions de personnes de la sphère du travail. Les discours rassurants des politiques et des éditeurs ne sont qu'un leurre face à la réalité quotidienne. Tout comme le tracteur et la chaîne de montage, les logiciels sont des tueurs d'emploi, l'employé du tertiaire et le cadre moyen sont les premiers touchés. L'ordinateur automatise le travail intellectuel et les technologies logicielles simplifient radicalement la chaîne de décision. Rangement, classement, re-saisie, mise en forme sont autant d'activités désormais dévolues aux machines. Les outils d'aide à la décision, les systèmes-experts et les agents intelligents commencent à automatiser des processus de réflexion et d'analyse. Seuls face à leurs écrans, les logisticiens, les décideurs et les ingénieurs gèrent des entrepôts, des entreprises et des chaînes de montages délocalisées où le robot s'est trouvé un fidèle compagnon : le logiciel. Transmettre un ordre par email à 30 personnes ou passer une commande sur Internet sont d'autant d'actes quotidiens qui demandaient auparavant intervention humaine. Les logiciels accroissent la rentabilité et la productivité en éliminant les frontières spatiales et temporelles, ils restreignent progressivement l'espace productif de l'humain à la sphère de l'intellect et creusent la fracture sociale plus qu'ils ne la comblent. Les possédants ne vont pas partager pouvoir et capital avec le peuple mais avec les savants et les créateurs, désormais courtisés comme de jeunes demoiselles. Et alors que certains engraissent dans ces riches pâturages, d'autres préfèrent donner pour que tous puissent manger. Le don numérique est un mécanisme de régulation économique et social relevant, à la fois, de la conscience et de l'inconscient. Comme le précise un intervenant du film "Linux : the movie", les logiciels ouverts représentent le plus gros transfert technologique entre Nord et Sud de l'histoire de l'humanité. L'activité logicielle est une activité valorisante pouvant facilement être délocalisée, peu polluante et synonyme de forte valeur ajoutée. Si les infrastructures nécessaires sont déployées et financées par les pays riches, les pays émergents pourraient alors devenir des acteurs majeurs de l'économie numérique. Nul besoin de quitter son pays ou de tolérer un tourisme dégradant pour pouvoir développer son économie, l'arrivée de capitaux étrangers favorisera sûrement l'ensemble de la région et les pays voisins, peut-être sous-développés, pourront peu à peu rattraper leur retard. Le fait que de plus en plus de sociétés françaises fassent appel à des tchèques ou à des indiens pour développer et maintenir leurs logiciels semble une bonne chose pour les pays concernés. Certes, le salaire des développeurs français risque de chuter un peu et certaines entreprises essayent parfois d'exploiter ces développeurs "off-shore". Toutefois, la dynamique est positive car elle préserve les hommes et non les capitaux. Du don numérique découle la connaissance, la croissance et l'emploi. "La fin du travail" était un livre visionnaire qui lors de sa sortie déclencha de vives polémiques. Rifkin fut taxé de pessimiste, voire de chevalier de l'apocalypse. Pourtant Rifkin ne décrit pas la fin du monde mais seulement la fin du travail. Le progrès technologique a pour but d'émanciper l'homme des contraintes physiques. Ne plus se baisser pour ramasser le bois, laisser les tâches difficiles et ingrates aux machines, calculer en quelques secondes ce qui prenait des jours il y a quelques années. Dans sa conclusion, Rifkin expose que les hommes se trouvent désormais confrontés à leurs rêves, à eux de les transformer en réalité et pas en cauchemar pour des millions de semblables. La force de travail n'est pas une valeur sociale en tant elle même et elle ne l'a jamais été. Des métiers difficiles, fatigants et usants sont payés faiblement alors que d'autres permettent de gagner des millions grâce à une simple idée ou un tout petit clic. Le capital devient lui aussi virtuel, l'oisiveté, le consumérisme s'érigent en dogme : les valorisations boursières des entreprises ne représentent plus la réalité, mais seulement les fantasmes de quelques arrivistes, grisés par tant d'automatismes. -Donner pour évoluer De tous temps, les artistes et les scientifiques ont pu exercer un pouvoir à la fois sur le peuple et sur les politiques. Les prises de position, les pétitions, le refus de collaboration sont autant d'actes citoyens pris par ceux, qui par chance ou par hasard, ont eu accès au savoir, à la culture ou à la renommée. La révolution numérique les place de nouveau en médiateurs et de leurs comportements risque de découler un des deux scénarios entrevus par Rifkin : le chaos ou l'éthique. Le chaos sera le fruit de ceux qui pensent naïvement que la révolution numérique est une révolution du peuple, mais aussi de ceux qui envisagent la sphère des idées comme un espace marchand. Les premiers se trompent car nul ne peut nier que le numérique est un produit de luxe sur une planète où l'eau vient encore à manquer. Parler de liberté logicielle est parfois indécent dans un monde où règnent toujours esclavagisme et censure politique. Les seconds sont aveuglés par les enjeux économiques et les profits individuels. Les brevets logiciels amènent à une réflexion comparable à celle sur la brevabilité du vivant : si le monde n'est pas une marchandise, l'homme n'est pas une matière première. Autoriser les brevets logiciels condamnerait les pays émergents ou sous-développés à rester au bord des autoroutes numériques et accentueraient encore les inégalités et la fracture sociale. De même, certaines positions radicales sur la prétendue liberté logicielle relèvent de l'inconscience. Les hackers sont, pour la plupart, au sommet de la pyramide sociale telle que la définie Maslow. Un bon développeur américain pourrait faire vivre plusieurs familles afghanes pendant un mois avec 10% de son salaire. On donne ce que l'on veut. On donne aussi ce que l'on peut. La liberté, l'humanité, s'éprouve par le choix, non par l'obligation. Le don numérique doit rester un acte réfléchi et volontaire et ne doit pas devenir une contrainte légale ou morale. Le juriste, le législateur doivent se contenter d'offrir la possibilité aux auteurs de donner, tout en les protégeant, eux et leurs utilisateurs, contre un Marché virtuel, mais parfois tout-puissant. Toute idée de brevabilité logicielle doit être évacuée car synonyme de terrorisme intellectuel et de censure juridique. De même, les instances européennes et internationales doivent tout faire pour juguler "la fuite des cerveaux", en finançant les programmes de formation et d'assistance et en favorisant les transferts de compétences. Au delà des cerveaux, il y a des hommes, des familles, des peuples à nourrir. Comme toujours, l'équilibre entre intérêt général et libertés individuelles est difficile, de chaque côté guette l'extrémisme, le populisme ou l'intégrisme. La raison doit l'emporter sur l'utopie, la compréhension sur le profit : économie et culture du don ne doivent pas être s'exclure mutuellement. Si l'esprit se nourrit d'idées libres et volages, la production intellectuelle reste une production individuelle, un acte personnel et créatif. Nier l'originalité de la création logicielle revient à nier le peu d'humanité que les machines nous laissent. Le progrès social ne viendra ni des logiciels, ni du réseau, et encore moins de licences exclusives ou de brevets égoïstes. Les technologies de la communication et de la transmission sont faites par des hommes et pour des hommes. Comme la naissance, le potlach ou la quête, le don numérique est un don biologique, un réflexe animal, visant à se construire en tant qu'individu face à l'humanité et façonnant, par la même, l'humanité toute entière. Acte individuel ayant une portée collective, le don numérique témoigne de la prise de conscience que du partage résulte la cohésion et que de la cohésion résulte l'intégration. Donner pour recevoir, recevoir pour donner, donner pour soi-même et donner pour les autres : le don est peut-être un élément de ce que Jean-Pierre Guillemaut a appelé "le principe d'humanité". Dans son livre, l'écrivain essaye de comprendre ce qu'il reste à l'homme, confronté à sa propre conception de l'humanité et cherchant son chemin entre thérapie génique, industries pharmaceutiques et dérive eugénique. Tout comme lui, on pourrait conclure en citant Peter Kemp dans "L'Irremplaçable : une éthique de la technique" : "On traite l'homme selon l'idée qu'on s'en fait, de même qu'on se fait une idée de l'homme de la manière dont on le traite". -En toute subjectivité Si l'on n'y prête pas garde, par la faute d'inconscients, de quelques savants fous et de juristes avides, les sociétés trans-continentales pourraient bien devenir des entités contractuelles, autonomes, échappant à la sphère de l'intérêt général et de la légitimité publique, et ce, par le biais du réseau et de montages complexes, à la fois techniques, financiers et légaux. Plus intéressées par les cours de la Bourse que par l'avenir de l'homme, elles oublieront alors les sociétés humaines, qui, il y a bien longtemps, avaient su les créer, sûres de leurs raisons et d'une étrange morale. Actuellement, à part Dieu pour certains, ou bien l'Amour pour d'autres, les seules mystiques de l'homme restent le capital et la force de travail, les seules réalités auxquelles il se raccroche, pour ne pas évoluer, en bel esprit altruiste plutôt qu'en simple objet, en homme de conscience plutôt qu'en bête de somme. Victime de fétichisme, et d'une grande prétention, il en oublie parfois, qu'il est son propre maître, et non un pauvre esclave, attaché à l'argent, à sa technologie et à sa dialectique, qui, somme toute, ne sont que ses produits, ses anges et ses démons, dont il fixe le prix sans trop y réfléchir, sans vouloir y penser. Donnez. Donnez ce que vous voulez mais donnez. A tout le monde, à personne, aux présents, aux suivants. Comme disait Enrico : donnez, donnez, donnez. Juste pour le sourire, et la joie dans les yeux :-) ------------------------------------------ The Bangladore Declaration : Information technologies for developping countries Libres enfants du savoir numérique- Anthologie préparée par Oliver Blondeau et Florent Latrive- Editions l'Eclat - 2000 Le marxisme - Henri Lefebvre - Presses Universitaires de France - 1997 La fin du travail - Jéremy Rifkin - Editions La Découverte - 1996 - Deuxième tirage L'énigme du don - Maurice Godelier Editions Fayard - 1997 L'existensialisme est un humanisme - Jean-Paul Sartre - Editions Nagel - 1970 Motivation and Personality, 3rd Edition - Abraham Maslow - New York: Harper & Row, 1987 Le principe d'Humanité - Jean-Claude Guillebaud - Editions Seuil - 2001 ---------------------------------------- Lors de la rédaction, l'auteur a également lu, relu ou consulté Simputer.org : the benefits of IT can reach the common man L'objectif du projet Simputer est de proposer un ordinateur de poche (assistant personnel) à un prix bas pour qu'il puisse être utilisé partout dans le monde et notamment dans les pays les plus pauvres. Développé par des des chercheurs indiens, le Simputer (Simple Computer) utilise Linux comme systême d'exploitation et ses spécifications matérielles sont disponibles sous licence SGPL, qui s'inspire de la GPL. L'exploitation des spécifications à des fins commerciales est payant et le prix est différent suivant que le pays demandeur est considéré comme développé ou sous-développé. Le Simputer est l'exemple même du projets fidèle à l'esprit de la Déclaration de Bangalore.
2002-05-17 20:32:02
Bernard Berrou est documentaliste au Lycée St Marc. Grâce au système de publication automatisée Spip, il a mis en place un webzine très réussi au sein de cette communauté éducative. Il tire ici les premiers enseignements de son expérience. Lancé en janvier 2002, le [Webzine du lycée St-marc->http://www.st-marc.org "target="_blank] se voulait un support différent des traditionnels "sites vitrines" des établissements scolaires. Ces derniers sont des éléments nécessaires de la communication de l'établissement mais s'intègrent rarement dans une réflexion globale sur la gestion de l'information dans et hors de l'établissement. Le net est entré en fanfare dans le monde éducatif et dans les établissements scolaires. Une littérature abondante relayée par tous les médias vantait les mérites de ce nouveau support de communication. Le cybermonde était à nos portes, serions-nous assez fous pour la lui claquer au nez ? Le florilège des sites d'établissements scolaires et de services en lignes à destination de l'enseignement nous a montré la bonne réactivité du « Mammouth » face à ces technologies alors nouvelles. Dans le même temps se mettaient en place, à l'instigation des régions, les réseaux informatiques dans les établissements. Dans les deux cas, les « bidouilleurs locaux » étaient les premiers sur les rangs, faisant les frais de laborieux essais et de nombreuses heures bénévoles d'installation. Hommage leur soit rendu. Pour autant, la prise de recul sur ces expériences, permet de réaliser aujourd'hui que l'on a énormément privilégié la technique aux contenus, confondant l'objectif et son ombre. De nombreux sites d'établissement sont des vitrines rarement actualisées. Tandis que les intranets installés brutalement dans les établissements rencontrent l'hostilité ou l'indifférence d'un public très peu formé à ces pratiques. L'intérêt de ces outils (inter ou intranet) c'est de permettre l'échange, la collaboration, la mutualisation. La réalité, c'est que ces principes sont très éloignés, voire contradictoire, avec les modes de fonctionnement d'un établissement scolaire. (Guy Pouzard, Inspecteur Général., développe une très intéressante réflexion, à ce sujet : [ Les paradoxes du système scolaire en prise avec les TICE » ->http://www.pner.org/html/activduprog/ZeEtudes/Partie.asp?id=229&som=243&et "target="_blank]). Nombre d'établissements sont donc désormais empêtrés dans leur vitrine internet et leur réseau local. Parmi les nombreux facteurs qui sont souvent oubliés dans la mise en œuvre de cet appareillage, retenons notamment les notions de communauté et de système d'information. Un lycée n'est pas (encore ?) une entreprise, il met en scène différents acteurs souvent très individualistes et peu soucieux de la notion de projet global. Pour autant, il y a des choses qui se font, des informations qui circulent et des besoins de dire et d'échanger. L'arrivée massive des « Technologies de l'information et de la communication » a explosé le cadre local et démultiplié les moyens de communiquer. Ainsi, le gros souci, dans la réflexion que j'ai proposée lors de la mise en réseau du lycée, était donc de ne pas opposer les technologies et la classe traditionnelle. Il s'agissait de permettre une articulation et une complémentarité en proposant une structure simple d'usage et lisible. Le défi consistait également à intégrer ces outils à part entière dans le fonctionnement de l'établissement et non pas comme de simples appareils. En effet ce sont les contenus et leur usage pédagogique qui déterminent la valeur ajoutée par un réseau (local, intranet ou internet) et non pas la performance des outils. Schématiquement, je représente donc trois niveaux de représentation du temps et de l'espace au sein du Lycée St-Marc : Niveau 1 : L'espace "traditionnel" : Classique, la règle est : un enseignant = une classe = une salle La relation est présentielle, frontale et simultanée. Niveau 2 : "On abat les murs" : Ici on virtualise les espaces de travail à travers le réseau informatique local. Chacun dispose d'un espace personnel, d'espaces d'échange, d'un espace ressources. Chacun accède aux ressources indépendamment des emplois du temps et du lieu (dans la mesure des lieux équipés : potentiellement cela peut-être tout l'établissement) . Les ressources ne sont, néanmoins accessibles que depuis l'établissement Niveau 3 : "On sort des murs" : La communauté sur le net est la dernière étape de la dématérialisation, de la délocalisation et de la mise en commun organisée d'informations, c'est le [webzine->http://www.st-marc.org "target="_blank] C'est un support de communication, un espace de parole et d'échange (le webzine associe des forums aux articles). Cet espace organisé pour la communauté est accessible de partout sans contrainte de temps. Objectifs de ce type d'organisation : Inscrire cette représentation dans une démarche de projet, à un niveau complémentaire des équipements traditionnels. Une gestion rigoureuse du projet permet ensuite de faire l'équilibrage des moyens et des fins. -Prendre en compte la notion de communauté éducative (élèves + enseignants + personnel du lycée + parents + partenaires ), et envisager l'ensemble des acteurs plutôt que de favoriser des pôles spécifiques et spécialisés. -Répondre au besoin de cohérence, (exprimé de longue date), dans les équipements ; le souci étant l'homogénéité nécessaire aux échanges et au partage. -Fonder les achats et équipements sur une démarche de projet -Garantir la transparence sur les moyens disponibles et leur répartition -Garantir une lisibilité dans la mise en oeuvre, la distribution et le mode de fonctionnement des équipements réalisés par le lycée. -Responsabiliser chaque membre de la communauté face à cette organisation -Assurer une gestion globale des moyens (financiers, humains, matériels) -Garantir le maximum de partage des outils et des moyens -Se donner les outils pour une évaluation globale du système -La gestion des dépenses doit être transversale, (aux disciplines et pôles équipés), pour être maîtrisable et permettre une prospective -Prendre en compte l'exiguïté des locaux, les horaires très ramassés et le manque de disponibilité des enseignants. -Prendre en compte et préparer les évolutions en cours : -contenu de programmes très consommateurs d'outils informatiques (Math, SVT, Physique...) -tendance à la transversalité dans les programmes (SVT-Philo par exemple) -nombreuses réformes qui font appel au travail d'équipe, par projet : Classe à Projet artistique et culturel (Classe à PAC) ; B2i (Brevet informatique et internet) ; TPE ; Remise à niveau informatique en seconde ; modules en seconde ; PPCP en lycée professionnel... -développement des formes de travail collaboratif Et le webzine dans tout ça ? Envisager ainsi le réseau local et le webzine comme des éléments à part entière dans la gestion du temps et de l'espace du lycée est loin d'être acquis. Il semble nécessaire d'avancer graduellement et de laisser aux usagers le temps d'intégrer cette culture. Le webzine a été, cette année une expérience très positive. Il a été lancé, initialement, pour soutenir et accueillir les productions des élèves de terminale dans le cadre de l'éducation civique (voir article [Résistance(s)->http://www.st-marc.org/article.php3?id_article=76 "target="_blank]). Créé et administré par le documentaliste, il est devenu un bon relais de production et de valorisation de l'information (revue de presse, fils d'information, brève…). L'ergonomie et le (très simple) formulaire de dépôt d'article, ont ensuite séduit une enseignante de philosophie qui a commencé à y publier quelques fiches de synthèse. De fait il faut insister sur l'idée que ces projets et productions ont alimenté la pompe et servi de fil conducteur à l'animation du site sur la durée. Ils sont une condition "sine qua non" de la vie de ce média. Les élèves se sont très vite emparés des forums par la suite. Progressivement ils ont réalisé l'ouverture d'un tel système et j'ai vu arriver des articles plus personnels. Ce type de média est extrêmement difficile à évaluer. (Nous l'avons expérimenté auprès des classes de terminales essentiellement cette année). Mais il renvoie une autre image des élèves qui ont accepté d'échanger et de débattre publiquement. Les adultes, eux, sont toujours restés en retrait, lisant attentivement mais n'osant ou ne souhaitant pas intervenir. Les élèves n'ont pas manqué de le remarquer bien sûr. Ecrire n'est pas un acte facile ni anodin (cf. article de [Chantal Mirail->http://www.st-marc.org/article.php3?id_article=192 "target="_blank]). La publication dans un espace très ouvert rend l'exercice encore plus périlleux. Cela étant, pas de doute, les élèves se sont appropriés la chose, acceptant sans problème la modération exercée par le documentaliste. Le débat s'organise avec quelques contributeurs incontournables sur l'évolution de la ligne éditoriale. Lors d'une mise au point sur la vocation du webzine, j'avais invité tous les membres du lycée à réagir sur l'avenir à donner à ce produit. Le suspense est entier car l'équipe de direction ne s'est pas encore manifestée. Saurons nous trouver d'autres fils conducteurs intégrer ce média dans la représentation du lycée proposée plus haut ? S'agit-il d'une douce utopie ? Cette expérience a fait surgir de nombreuses questions et a considérablement remis en cause mes pratiques documentaires. Découvrant le potentiel de ce type de plate forme d'information, il me faut maintenant m'interroger sur la notion de filtre d'information défendue par Umberto Eco ([Auteurs et autorité->http://www.text-e.org/ "target="_blank]) et tenter de proposer des réponses et une organisation qui intègrent cette notion. Les enjeux de l'information sont très peu envisagés dans le lycée actuellement, il y a fort à parier que mon premier partenaire dans cette réflexion sera les élèves…et peut-être les lecteurs d'Homo-Numéricus ?
2000-00-00 00:00:00
Quatrième : Qui dirige Internet ? La question, accessoire il y a encore quelques années, prend aujourd'hui une dimension nouvelle. Au départ réseau de communication à usage militaire, puis utilisé par les scientifiques, Internet s'est depuis largement ouvert au grand public, suscitant des conflits d'intérêt croissants entre des acteurs toujours plus puissants. Dans ce livre original et documenté, Pierre Mounier montre que la jeune histoire du cyberespace ressemble à celle de la fondation d'une nouvelle nation : après le temps du partage, des pères fondateurs, vient celui de l'argent, des puissants et de la législation. L'égalité au sein d'une petite élite d'accord sur l'essentiel laisse progressivement la place à une foire d'empoigne : pionniers, marchands et « netizens » (citoyens) investissent l'arène où ils combattent avec leurs propres armes. En moins de dix ans, le cyberespace est devenu moderne : il est entré dans l'ère du pouvoir. Mais ce pouvoir n'est jamais absolu : diffus et insaisissable, il circule dans divers organismes techniques - ICANN, IETF, W3C - inconnus du grand public. Il faut le débusquer derrière des choix technologiques, des rapprochements anodins, des déclarations obscures qui convergent vers un même objectif : la domination d'un réseau conçu, à l'origine, pour être incontrôlable. Qui dirige Internet ? La réponse, affirme Pierre Mounier, n'est pas seulement institutionnelle, technique ou économique, elle est tout cela à la fois. Elle est, fondamentalement, politique. Table des matières : Introduction : chronique d'une colonisation électronique - I. Le temps des explorateurs - 1. Internet, entre technologie et idéologie - Technologie et représentations - Le Network Working Group : du réseau comme bien collectif - Les Request For Comments ou la naissance du travail collaboratif - Technologie et politique - 2. Usenet, une communauté égalitaire - Unix : un système à l'origine d'une communauté - Usenet : le réseau des utilisateurs d'Unix - Usenet : une culture politique - Une utopie - AOL sucks ! - Netiquette et modérateurs : à la naissance d'un droit coutumier - 3. La république des ingénieurs - Internet Res Publica - La technologie souveraine ou l'« affaire OSI » - Le consensus permanent - Le paradis perdu des bons sauvages - II. L'Eldorado - 4. Les trois guerres de Microsoft - Mosaic : le cheval de Troie du Web grand public - La guerre des navigateurs - La guerre des langages - La guerre du multimédia - La mère de toutes les guerres ? - 5. E-monopoly - La grande convergence - Un nouveau monde - Vivendi : une multinationale « à la française » ? - AOL everywhere - « Toute résistance est inutile » - La peur - 6. Une « victime collatérale » : l'internaute - Les mauvaises manières de Mr Gates - Le prix à la tête du client - Données personnelles, suprême Eldorado - Pour tout l'or du monde - III. Nouveaux citoyens d'un monde nouveau : les combats des netizens - 7. Un réseau libre pour une parole libre - L'EFF : défense et illustration d'une nouvelle citoyenneté - Les seins d'Estelle Halliday - L'affaire des « diligences appropriées » - La « grande » loi sur la société de l'information - L'impact du 11 septembre - 8. La révolution du Web indépendant - Écriture à plusieurs mains - Le Web répond à Pierre Bourdieu - 9. L'ICANN : une démocratie pour le réseau ? - Le cyberespace : objet politique non identifié - L'ICANN : entre régulation et gouvernance - Un électorat introuvable - Un gouvernement du net ? - De l'appropriation des moyens de communication - Conclusion - Table des encadrés. Extraits de presse : « Un livre indispensable, riche et lucide. Pour en finir avec la mystique de l'Internet. » TRANSFERT
2002-06-05 21:45:49
Le 29 mai dernier, le Parlement Européen a [entériné->http://www.01net.com/rdn?oid=185574&rub=1714] une proposition d'amendement à la directive européenne sur la protection des données personnelles, émanant du Conseil des Ministres, et visant à autoriser les États membres à conserver les données de connexions de leurs citoyens pour une durée excédant les besoins de facturation, généralement un an. Ce vote, effectué, comme de coutume, dans l'indifférence générale des opinions publiques, est la réponse apportée par l'Union européenne aux demandes sécuritaires des États-Unis après les attentats du 11 septembre. Après la [Loi sur la Sécurité Quotidienne->http://www.assemblee-nationale.fr/ta/ta0718-2.pdf] en France et des lois similaires adoptées dans d'autres pays européens, cette directive confirme et approfondit le mouvement général d'augmentation du degré de surveillance sur les communications électroniques entamé il y a quelques années. Même son de cloche de l'autre côté de l'Atlantique, où le projet de [réorganisation du FBI->http://www.usdoj.gov/ag/speeches/2002/53002factsheet.pdf] qui concentrera désormais ses activités sur la lutte anti-terroriste devrait avoir pour conséquence de permettre aux agents fédéraux de placer sur écoutes communications téléphoniques et communication électroniques émanant de personnes susceptibles de détenir des informations liées au terrorisme, sans avoir à y être autorisé par le mandat d'un juge. Il s'agit en fait d'une simple légalisation a posteriori de dispositifs de surveillance préventive généralisée qui avaient été mis en place au lendemain des attentats du 11 septembre, sur le modèle du dispositif [Carnivore->http://www.fbi.gov/hq/lab/carnivore/carnivore2.htm]. - Du pic à glace à l'ordinateur Mais la nouveauté du processus ne réside pas dans la simple notion de surveillance ; car le monde "hors ligne" connaît lui aussi une multiplication des actes législatifs inspirés par le sentiment d'insécurité, comme en témoigne le climat qui règne actuellement en France. La nouveauté de cette directive, des différentes lois qui l'ont précédées, et de celles qui se préparent, en Europe et aux États-Unis, réside dans l'utilisation des moyens technologiques mis en oeuvre pour prévenir, surveiller, empêcher et finalement punir les comportements criminels. Nos sociétés sont accoutumées depuis longtemps à considérer la plupart des outils qu'elles utilisent comme moralement et pénalement neutres : un pic à glace, un couteau de cuisine, un fusil de chasse, une automobile peuvent servir à tout un tas de choses, y compris à commettre un crime, mais leur utilisation reste libre car la responsabilité en incombe à leur propriétaire ou utilisateur. Seuls quelques outils, comme les fusils d'assaut, les explosifs et autres objets réjouissants sont considérés comme spécialement destinés à tuer, et comme tels, leur usage est réglementé. Pour le reste, même si l'on sait pertinemment que toutes sortes d'instruments peuvent se révéler extrêmement dangereux entre des mains malintentionnées, personne n'a (encore) eu l'idée de les affubler de dispositifs de surveillance particuliers ou les désactivant au cas où ils seraient utilisés à mauvais escient. Le principe qui a prévalu jusqu'ici, était celui de la responsabilité individuelle, principe sacré dans nos société occidentales, même s'il doit avoir pour conséquence une diminution de l'efficacité dans la prévention ou la répression du crime. L'évolution des pratiques institutionnelles et de la législation sur le sujet dessine une configuration où l'utilisation de technologies numériques semble devoir échapper à ce principe ; comme s'il s'agissait d'un autre monde, avec ses propres lois, ses propres règles. On pourra comparer, à titre d'exemple, la situation des communications où les gouvernements peuvent mettre en place les dispositifs de surveillance les plus intrusifs sans soulever l'émotion des populations concernées, et celle des transports individuels où la simple évocation d'un limitateur de vitesse dans les automobiles, ou d'une "boîte noire" dans ces mêmes véhicule suscite des levées de boucliers passionnelles. La démocratisation et l'utilisation grandissante de technologies numériques ouvre en fait les portes à tous les fantasmes absolus : fantasmes de liberté absolue d'un côté, fantasmes de surveillance absolue de l'autre. Le fantasme que Michel Foucault appelait "panoptique" il y a quelques décennies à propos des plans proposés au dix-huitième siècle par Jeremy Bentham pour une prison parfaite, a pourtant plus de chance d'être réalisé, dans la mesure où, dans un univers numérique, la dépendance de l'individu à la technologie est effectivement absolu. Il est dès lors possible de surveiller, au moyen d'appareils appropriés l'ensemble des communications sur un territoire donné, et même de les enregistrer et de les stocker pour une utilisation éventuelle future. -Camescopes "intelligents" Mais l'innovation en la matière ne se limite pas aux dispositifs de surveillance. L'industrie des médias internationaux est en train d'expérimenter d'un point de vue technique et législatif tout à la fois, la mise en oeuvre de dispositifs ne se contentant plus de surveiller les atteintes au droit de la propriété intellectuelle, mais aussi de les empêcher. Cela va du classique dispositif anti-piratage des [CD édités par Sony->http://fr.news.yahoo.com/020605/7/2m9bs.html], aux mouchards que l'industrie télévisuelle voudrait imposer à [Sonicblue->http://www.wired.com/news/politics/0,1283,52302,00.html], en passant par les différents [projets de loi->http://www.wired.com/news/politics/0,1283,51245,00.html] visant à contraindre les constructeurs de matériels à insérer des [puces désactivantes->http://www.homo-numericus.bonidoo.net/breve.php3?id_breve=262] dans les appareils d'enregistrement. Ainsi de ces camescopes qu'on nous promet, qui s'éteindraient automatiquement si l'on s'avisait de filmer une projection du dernier épisode de la Guerre des Etoiles avec. Ce sont là des tentatives exclusivement américaines bien entendu, étant donné que ce pays accorde une importance économique bien plus grande à la production culturelle que ce n'est le cas en France. Chez nous justement, c'est bien plutôt les questions d'accès à des contenus illicites qui ont fait l'objet de toutes les attentions. Ici encore, les différentes tentatives visant à imposer des [solutions de filtrage->http://www.homo-numericus.bonidoo.net/article.php3?id_article=34] aux fournisseurs d'accès procèdent du même raisonnement : c'est encore et toujours à la technologie qu'il est demandé non pas même de faire respecter la loi, mais tout simplement d'empêcher qu'elle soit enfreinte. -La sécurité absolue Ce serait une erreur que de qualifier cette évolution de "dérive policière", car l'activité policière se déploie normalement après et autour du crime, afin de permettre la mise en place du processus judiciaire de sanction, auquel elle est traditionnellement subordonnée. Ici, nous sommes à tout autre niveau : l'activité de surveillance est mise en place a priori, elle s'étend à tous les comportements, licites et illicites, et dans certains cas, elle vise à provoquer une intervention au moment même où l'infraction commence à être commise. Les très anciens mécanismes de régulation sociale que nous connaissons depuis longtemps ont été, en quelques années, mis au rebut pour laisser la place à une situation nouvelle pour nous ; pour nous seulement, et non pour les pays qui connaissent des régimes autoritaires ou totalitaires, avec leur cortège de polices secrètes surveillant l'ensemble des faits et gestes d'une population. Des puces-mouchards, des puces-garde-fou, des puces-désactivantes, notre environnement se modifie au gré de l'introduction toujours plus importantes des technologies numériques dans notre vie quotidienne. Nous basculons peu à peu dans une société où les limites fixées par la loi, et celles que permettent les technologies coïncident exactement. Une société où la responsabilité individuelle perd progressivement de son sens, c'est-à-dire où, d'une part, les citoyens sont totalement transparents aux autorités, et où, d'autre part leur comportement est techniquement bridé selon les termes de la loi. Et il y a fort à parier que ce qui est accepté aujourd'hui dans le domaine très particulier des technologies numériques, parce qu'il est encore perçu comme un domaine particulier, sera peu à peu accepté dans tous les autres domaines de la vie courante, par capillarité. Car c'est une situation très confortable, qui rappelle l'enfance et le sentiment de sécurité absolue qui l'accompagne généralement. Au prix d'une part de notre liberté ; un prix que nous sommes apparemment prêts à payer.
2002-06-11 22:13:18
Le 28 mai dernier, Franz Molenda et Emmanuelle Chouteau, les deux webmestres de l'association [Défense-consommateur.org->http://www.defense-consommateur.org] ont été [condamnés->http://www.defense-consommateur.org/jugement/jugement1.htm] par le Tribunal de Grande Instance de Lyon pour denigrement, diffamation et injures publiques à l'encontre du VPCiste Père-Noël.fr qui distribue toutes sortes de produits par Internet. L'objet du délit avait été constitué par des messages postés sur le forum de discussion non modéré du site animé par les deux responsables de l'association, messages dont ils n'étaient d'ailleurs pas à l'origine -Une autre affaire Altern ? Les deux accusés ont été condamnés, entre autres, à payer la somme de 80000 € à Père-Noël.fr, en vertu des articles 1382 et 1383 du Code Civil et de la loi de 1881 sur la liberté de la presse qui prévoit une responsabilité en cascade permettant de désigner comme auteurs principaux des délits prévues le directeur de la publication ou l'éditeur. La décision du tribunal a provoqué une émotion considérable parmi les responsables français de sites Web, dans la mesure où la plupart des sites contiennent aujourd'hui des forums. Il semblait à peu près clair pour tout le monde jusqu'au jugement, que la responsabilité des webmestres en cette matière était régie par la loi du 1er août 2000 sur la liberté de communication, exonérant les intermédiaires techniques de toute responsabilité sur les contenus. Cette disposition avait été adoptée peu après ce qu'on a appelé [l'"affaire Altern"->http://www.iris.sgdg.org/actions/altern/] qui a vu la condamnation de l'hébergeur indépendant Valentin Lacambre à cause du contenu affiché sur l'une des milliers de pages personnelles qu'il hébergeait. Il n'en est rien, a considéré le juge : à partir du moment où il s'agit d'un site éditorial, les responsables ne peuvent être considérés comme des simples intermédiaires techniques ne pouvant avoir connaissance de l'ensemble des informations diffusées sur leurs serveurs, comme c'était le cas pour Valentin Lacambre. Le fait qu'ils aient d'ailleurs personnellement répondu à certains des messages jugés diffamatoires, a été retenu par le juge comme élément de preuve, affaiblissant considérablement la portée du caractère non modéré des forums de discussion mis en place par Défense-consommateur.org. - Code Civil or not Code Civil ? Ce jugement pose un certain nombre de questions, parmi lesquelles celles portant sur le statut légal des exploitants de forums est la plus importante. Trois textes de loi sont susceptibles de s'appliquer à leur responsabilité : la [loi du 1er août 2000->http://www.legifrance.gouv.fr/citoyen/jorf_nor.ow?numjo=MCCX9800149L] portant sur la responsabilité des hébergeurs, la [loi de 1982->http://www.legifrance.gouv.fr/texteconsolide/PCEAE.htm] sur la communication audio-visuelle, et la [loi de 1881->http://www.legifrance.gouv.fr/citoyen/texte03.ow?heure2=111714169251&lenum=0] sur la liberté de la presse. Dans les trois cas, leur responsabilité est très différente : la loi du 1er août 2000 exonère les hébergeurs d'une responsabilité concernant le contenu des pages qu'ils hébergent, pour autant que, sur décision d'un juge, ils en rendent l'accès impossible dans les plus brefs délais. La loi de 1881 rend les directeurs de publication responsables des contenus diffusés par l'intermédiaire de leur organe de presse. La loi de 1982 enfin qui adapte la responsabilité en cascade pour les infractions de presse prévues par la loi de 1881 aux moyens de communication audiovisuelle, les exonère de toute responsabilité pour autant qu'il n'y ait pas eu fixation des contenus incriminés avant diffusion : cette disposition désigne évidemment les conditions de diffusion en direct d'émissions de radio ou de télévision. Au delà des dispositions spécifiques à ces trois textes de loi, en apparaît un, bien plus ancien et respectable, qui semble avoir joué le premier rôle dans cette affaire : rien moins que le Code Civil et ses [articles 1382 et 1383-> http://www.legifrance.gouv.fr/citoyen/code03.ow?heure2=111715276081&h0=CCIVILL0.rcv&h1=4&h3=113] qui obligent à réparation quiconque commet un dommage à autrui, y compris par négligence ou imprudence, cités dans les attendus du jugement ; ceux précisément qui furent évoqués dans l'affaire Altern. Selon quels articles de loi les deux responsables de Défense-consommateur.org furent-ils jugés ? Les articles du Code Civil ou ceux de la loi de 1881 ? Les deux a dit le juge qui les évoque en même temps dans ses attendus. C'est là que, selon Lionel Thoumyre, juriste et animateur du site [Juriscom.net->http://www.juriscom.net], le jugement manifeste une profonde ambigüité : "Il existe en effet une jurisprudence émanant de la Cour de Cassation (Cour de cassation, ass. plén., 12 juillet 2000), selon laquelle les délits de presse prévus par la loi pénale spécifique de 1881, ne peuvent être réparés sur fondement de la responsabilité civile". Or, en évoquant à la fois le Code Civil et la loi de 1881, le juge ne dit pas en vertu de quoi il a rendu sa décision : "le juge a en même temps évoqué le dénigrement, qui peut être couvert par le Code Civil, l'injure et la diffamation qui tombent sous le coup de la loi de 1881, sans précision supplémentaire", poursuit Lionel Thoumyre. La précision est pourtant importante, surtout pour les intéressés, car les montants à verser ne sont pas les mêmes : condamnés à verser 80000 € au titre du préjudice sur le chiffre d'affaire de Père-Noël.fr (Code Civil), ils ne sont redevables que de 80000 F d'amende au maximum (soit exactemement 6,55 fois moins) au titre de l'article 32 de la loi de 1881. Pour l'animateur de Juriscom.net, l'appel interjeté par les accusés pourrait au moins aboutir à une révision des sanctions financières. -Spéculons Mais là n'est pas le fin mot de l'histoire, car le Forum des Droits sur l'Internet a publié un [intéressant commentaire->http://www.foruminternet.org/actualites/lire.phtml?id=329] au jugement sur son site Internet : il est possible, selon l'article du Forum, que la responsabilité des exploitants de forums modérés a posteriori, et encore plus non modérés, ne relèvent pas uniquement de la loi de 1881 sur la presse, mais aussi de celle de 1982 sur le communication audiovisuelle. Son article [93-3->http://www.foruminternet.org/documents/lois/lire.phtml?id=11#93-3] en particulier stipule que la responsabilité du directeur de publication ne peut être engagée s'il n'y a pas eu fixation du contenu incriminé avant diffusion ; en français courant, on appelle cela le "direct". Or, c'est exactement le cas des forums non modérés ou modérés a posteriori, puisque le responsable de site ne peut lire les messages postés avant publication. Pire encore : quid des énormes sites, du type Respublica, qui hébergent des centaines de forums ? N'est-il pas possible de considérer dans ce cas qu'ils relèvent de la responsabilité des hébergeurs, et donc de la loi du 1er août 2000 ? Personne n'en sait rien et on discute beaucoup en ce moment dans les organismes concernés par le droit de l'Internet. Deux choses sont certaines en revanche et l'affaire Défense-consommateur les illustre largement: 1. Nous avons encore besoin d'une grande loi sur Internet, qui fixe les responsabilités de chacun de manière clair et équilibré. Démembrée, dépecée, repoussée, la "grande" [Loi sur la Société de l'Information->http://www.iris.sgdg.org/actions/lsi/] qu'on nous promet depuis cinq ans n'existe toujours pas et le projet de loi déposé à l'Assemblée juste avant la fin de la précédente session parlementaire n'a plus beaucoup de sens aujourd'hui. 2. Nous manquons d'une initiative d'assistance juridique gratuite aux webmestres et internautes, sur le modèle du site [Chillingeffect->http://www.chillingeffects.org/] mis en place aux Etats-Unis par l'Electronic Frontier Foundation. On ne peut en effet demander à tout participant à un forum de discussion, à tout webmestre d'une page personnelle de connaître par coeur les multiples textes de loi enchevêtrés qui s'appliquent à son activité. Placé dans une situation de confusion absolue, Internet souffre en France d'un handicap considérable, qui ne doit pas être moins pris au sérieux que les autres : l'incertitude juridique. En attendant, les internautes les plus actifs ont déjà pris le parti d'exprimer leur mécontentement le 20 juin prochain. A l'appel de l'association [ODEBI->http://www.odebi.org/] qui regroupe les associations d'usagers de l'ADSL et du câble, ils [fermeront->http://www.odebi.org/inscription.html] ce jour-là les forums de discussion dont ils ont la responsabilité, en signe de protestation contre une mesure qu'ils estiment injuste.
2002-06-18 22:38:43
Trop, c'est trop ! Lorsqu'un certain nombre d'enseignants ont reçu dans leur boîte à lettres un prospectus émanant de Microsoft les incitant à "gagner du temps et de l'argent" en souscrivant un abonnement forfaitaire de mise à jour des logiciels installés dans leur établissement, leur sang n'a fait qu'un tour. Utilisateurs et promoteurs des logiciels libres dans leur établissement respectifs, ils se rencontrent régulièrement sur la liste de discussion de l'AFUL "Linux et logiciels libres dans l'éducation". L'un d'eux, Alexis Kauffmann, le webmestre du site [Framasoft->http://www.framasoft.net] qui propose un annuaire original de logiciels libres, a alors l'idée de lancer le 18 juin un appel à ses collègues pour "libérer les logiciels" utilisés à l'école. Et ça tombe bien car, des logiciels phare du monde libre arrivent au même moment à maturité : OpenOffice, une suite bureautique comparable à Office de Microsoft, Mozilla, un navigateur Web-client mail-lecteur de news-éditeur html, et The Gimp, un puissant logiciel de retouche d'image, fournissent dorénavant une alternative crédible aux logiciels édités par Microsoft pour mener à bien la quasi-totalité des tâches bureautiques effectuées dans les établissements. D'où l'idée de profiter de l'offensive de Microsoft sur les écoles pour faire connaître ces alternatives, open-source, libres et surtout gratuites à leurs collègues. Le monde de l'éducation connaît en France, une situation pour le moins schizophrène : avec, d'un côté une administration centrale qui promeut officiellement l'utilisation de logiciels libres, et de l'autre des enseignants formés sur les logiciels Microsoft, quand ils le sont, par ailleurs laissés à eux-mêmes et ne connaissant pas les alternatives possibles aux logiciels propriétaires ; sauf une poignée de passionnés qui se battent dans leur coin, sans beaucoup de soutien ni d'écho. Du coup, le rapport de force est par trop déséquilibré en faveur des logiciels propriétaires qui disposent d'une puissance de feu marketing inégalée. L'inertie n'a plus alors qu'à jouer son rôle. Et dans ce contexte, l'école constitue un lieu stratégique, comme l'on bien compris les éditeurs de logiciels. Former les jeunes à l'informatique en utilisant tel ou tel logiciel, c'est s'assurer par la suite une clientèle captive, une fois devenue adulte, qui pensera Word plutôt que traitement de texte, Internet Explorer plutôt que navigateur Web. Les acteurs du monde du libre ont pu en faire l'expérience récemment, à l'occasion de l'initiative prise par le Conseil Général des Landes de doter chaque élève de 3ème d'un ordinateur portable. Équipés de logiciels propriétaires, ces ordinateurs furent au centre d'un intense polémique sur le site [Linuxfr.org->http://linuxfr.org/2002/06/05/8539,0,1,0,0.html] au cours de laquelle la plupart des intervenants, linuxiens convaincus, se sont rendus compte de l'absence de leurs logiciels favoris dans le secteur de l'éducation. Soutenue par l'[Association Française pour le Logiciel Libre->http://www.aful.org/presse/cp-educ.html], l'initiative du 18 juin est originale. Tentant de sortir de l'alternative du tout ou rien : Windows et des logiciels propriétaires d'un côté, ou bien Linux et des logiciels libres de l'autre, elle veut surtout montrer aux enseignants que les logiciels libres peuvent être utilisés sur la base du système d'exploitation Windows qu'ils utilisent quotidiennement. "La stratégie, affirme Alexis Kauffmann, consiste à faire bouger les choses de l'intérieur, en utilisant le système d'exploitation de Microsoft pour faire découvrir aux gens les logiciels libres". La campagne se présente sous la forme d'une [lettre ouverte aux professeurs->http://www.framasoft.net/lettreauxprofs.html] : "Cher collègue, peut-on y lire, en cette fin d'année scolaire, nous sommes nombreux à avoir reçu dans nos casiers une brochure publicitaire non sollicitée de la société Microsoft. Sur la couverture, cette simple phrase : "Vous faites tout pour économiser du temps et de l'argent... ...voici une opportunité pour en gagner !" Nous ne ferons pas de commentaires ici sur la manière de faire ni sur le contenu de l'offre, mais il est assez symptomatique que cette société aborde l'école en lui parlant avant tout d'argent. Dans ce contexte, il nous paraît urgent d'informer plus encore la communauté éducative que de réelles et crédibles alternatives existent parmi la dynamique catégorie des logiciels libres. Ces derniers, qui se préoccupent beaucoup moins d'argent que de liberté, participent au développement d'une informatique ouverte et pluraliste. Et nous ne pouvions rester insensibles au fait que, de part leur mode original de production et de distribution, ils abordent l'école en lui parlant plutôt de mutualisation, de travail collaboratif, d'intelligence partagée et de transmission réciproque des savoirs." Le collectif poursuit en invitant tout un chacun à imprimer et afficher en salle des professeurs un placard intitulé ["Libérons les logiciels"->http://www.framasoft.net/librecole.pdf] qui reprend les mêmes éléments. Selon l'AFUL, l'initiative aurait reçu le soutien de syndicats d'enseignants et de parents d'élèves. De quoi faire réfléchir les professeurs en cette fin d'année scolaire, période traditionnellement chargée en réunions pédagogiques.
2002-06-19 00:26:09
Reproduction interdite
Cet article fut publié à l'origine
dans le [San Francisco Bay Guardian->http://www.sfbg.com] sous le
titre : [Broadband to the
People->http://www.sfbg.com/36/37/cover_wireless.html]. Merci à
Annalee Newitz, de nous avoir aimablement autorisés à en publier
une traduction, réalisée par nos soins, pour Homo Numericus
Tout a commencé avec une boîte de Ravioli. Jim Meehan, un ingénieur réseau de San Francisco a lu sur Slashdot, un site attirant des centaines de passionnés d'informatique, comment construire une antenne maison pour son ordinateur. Au coeur du procédé : une vulgaire boîte de conserve : "ils recommandaient d'utiliser une boîte de boeuf en sauce, mais les ravioli étaient moins cher", avoue-t-il. Après quelques essais, Meehan a découvert que son antenne était tout sauf ordinaire : sa vulgaire boîte de ravioli, combinée avec le savoir-faire d'une centaine d'allumés de l'informatique pouvait réduire considérablement le coût d'une connexion Internet pour n'importe qui à San Francisco. Dans certains cas, l'accès pouvait même être gratuit. L'antenne de Meehan n'est pas faite pour écouter la radio ; elle sert à se connecter à Internet. En utilisant la norme 802.11b, une fréquence radio qui ne demande pas de licence d'utilisation, cette antenne permet à un ordinateur de se connecter à Internet, ou à n'importe quel type de réseau, à peu près de la même manière qu'un téléphone portable se connecte au réseau téléphonique. Et comme 802.11b est libre d'utilisation, Meehan n'a pas eu à payer de licence à la Commission Fédérale des Communications avant d'aller se promener sur Baker Beach, de brancher son antenne à un ordinateur portable, et de la pointer vers celle qu'il a installée sur le toit de sa maison, lui permettant de surfer sur Internet à trois kilomètres de chez lui. Plus tard, il ira au sommet de la colline de San Bruno, sept kilomètres plus loin et répétera l'expérience. Ca marche ! Et ce n'est pas une bonne nouvelle pour des sociétés comme AT&T. Parce que Meehan n'est pas le seul à pouvoir surfer sur le net avec une antenne en boîte de conserve : en fait, quiconque dispose d'une vue directe sur sa maison peut pointer dessus un de ces périphériques à deux francs six sous et surfer gratuitement en partageant sa connexion. Si cette pratique se répand - et Meehan ne souhaite que cela - qui voudrait payer un service Internet relativement cher à une société comme AT&T ? C'est exactement ce que At&T ne veut pas que vous vous demandiez et c'est pourquoi elle, ainsi que d'autre sociétés similaires ont pris des mesures pour empêcher des Meehan de mettre en place des accès publics à Internet via réseaux sans fil. Et comme, en vertu de l'accord passé entre AT&T et la municipalité de San Francisco, la société sera bientôt propriétaire de l'ensemble du réseau de câbles en fibre optique qui offre un accès Internet haut débit dans la ville, ils est probable que la politique de développement d'AT&T condamne à terme les communautés d'adeptes du Wi-Fi qui y éclosent. A moins que, sur intervention de la municipalité, ce soit justement les réseaux sans fils, communautaires et citoyens qui condamnent le monopole d'AT&T. Lorsqu'il a relaté son expérience sur Slashdot, Meehan a commencé à recevoir des emails d'autres personne ayant expérimenté les réseaux en 802.11b, autrement dit avec du Wi-Fi. Beaucoup d'entre eux avaient de grandes antennes et de puissants "points d'accès", l'appareil qui permet de transformer une connexion Internet câblée en son équivalent sans fil. "Je suis à South of Market", peut-on lire sur l'un d'eux, je vois ta maison et deux de mes amis ont des points d'accès aussi". Et que se passerait-il si cette communauté dispersée d'allumés se rassemblait avec ses antennes et ses points d'accès pour créer un immense réseau sans fil, de la dimension d'une ville ? Monsieur-tout-le-monde pourrait surfer du coin de la rue ou de la terrasse d'un café ; les écoles qui ne peuvent se payer de plan de câblage pour une connexion haut débit pourrait fournir un accès peu coûteux dans toutes leurs salles de classe ; tout comme les associations ; les bibliothèques pourraient offrir un accès haut débit à bas prix dans les quartiers défavorisés. Pour Meehan, l'idée semble être un projet technologique vraiment intéressant ; pour tous les autres, cela ressemble à une forme de justice sociale. Pour conduire San Francisco dans l'âge du sans fil, Meehan a lancé une liste de diffusion appelée San Francisco Wireless Broadband (SFWBB) le mois dernier, rassemblant des gens qui veulent mettre sur pied un réseau communautaire sans fil. L'un d'entre eux est déjà en train de dessiner une carte topographique en ligne qui leur permette de repérer les collines et les bâtiments élevés qui coupent le signal radio. Et Jamie Zawinski, le propriétaire du DNA Lounge, a enrôlé l'antenne de son toit pour la cause, à condition que SFWBB trouve un moyen d'empêcher les utilisateurs d'aspirer toute sa bande passante. Mais SFWBB ne représente que le petit bout de la lorgnette. Les communautés sans fil comme le Bay Area Wireless Uszr Group (BAWUG) et S.F. Wireless ont développé des projets semblables dans les deux dernières années. Les membres de S.F. Wireless ont aidé les résidents du quartier d'Inner Sunset a mettre en place ce qu'ils appellent des "hot spots", des petites surfaces permettant un accès sans fil autour de leurs maisons ou lieux de travail. Si vous raccordez une antenne à votre ordinateur portable et vous baladez entre la 9ème avenue et Irving, vous pourrez capter des dizaines de réseaux sans fil ouverts au public, y compris le mien. Surf and Sip, une boîte de San Francisco, a aussi installé des hots sopts dans les cafés à travers le pays, permettant aux clients d'accéder au réseau contre paiement d'une petite somme. A New York, une communauté sans fil a mis en place plusieurs hot spots gratuits dans les parcs. Et à Seattle, des groupes semblables sont en train d'imaginer un réseau s'étendant sur tout la ville. Selon une étude réalisée par le groupe Cahners In-Stat, les Américains ont dépensé 2,4 milliards de dollars cette année pour installer du Wi-Fi. Pourquoi San Francisco, une des villes les plus en pointe en informatique dans le monde ne profiterait-elle pas d'une technologie dont tant de gens jouissent déjà ? Les barons voleurs du haut débit Bien que le boom de la nouvelle économie ait été accompagné de récits sans fin sur comment Internet serait un nouvel outil pour la démocratie, rassemblant tout le monde dans des hôtels de ville électroniques, la réalité est que la connexion coûte de l'argent. Le coût des ordinateurs a considérablement baissé, mais pour avoir une connexion Internet correcte par téléphone, vous devrez sans doute payer environ 25 $ par mois pour des services comme Earthlink ou AOL. Ce qui était autrefois un Internet libre est devenu du business. Nielsen Netratings estime qu'il y a 165 745 689 connectés aux Etats-Unis. Multipliez ce nombre par 25 $ par mois, et vous vous retrouvez avec une industrie qui pèse 50 milliards de dollars par an, rien que pour les services d'accès. Aujourd'hui, l'accès par téléphone est progressivement remplacé par le haut débit, qui coûte encore plus cher. Il y a une raison simple pour expliquer que les gens choisissent le haut débit : les modems téléphoniques ne sont tout simplement pas assez rapides pour vous permettre de télécharger des chansons, regarder des images ou des films en ligne. Quand on parle de haut débit, on désigne des services comme ceux qu'offrent le câble, l'ADSL ou les lignes T1. Alors qu'un modem plafonne à 56000 bits de données par seconde, une ligne haut débit atteint presque un million de bits par seconde, soit vingt fois plus. Sur un modem à 56k par exemple, il faut trois heures pour télécharger une seule chanson de Metallica. Par un accès haut débit, cela prend moins de dix minutes. Par ailleurs, les accès haut débit passent par des câbles similaires à ceux qui sont connectés à la télévision ; ils sont donc particulièrement utiles pour tous ceux qui ne veulent pas avoir à débrancher leur téléphone à chaque fois qu'ils sont en ligne. Selon Nielsen Netratings, il y a actuellement 1,1 millions d'utilisateurs du haut débit dans la baie de San Francisco. C'est un nombre impressionnant pour une seule région, laquelle est placée au quatrième rang des Etats-Unis pour l'utilisation de ces technologies - et les utilisateurs paient entre 50 et 100 $ chaque mois à leur fournisseur d'accès. Ces coûts n'incluent pas les frais d'installation, qui peuvent aller jusqu'à 300 $. Il est clair que pour l'industrie du haut débit, comme AT&T ou Verizon, c'est un marché de plusieurs milliards de dollars. Et les baron voleurs du haut débit en veulent toujours plus. Un des moyen les plus simples pour attirer toujours plus de clients consiste à être le seul fournisseur d'accès de la ville ayant accès à un réseau de lignes à haut débit. Le type de lignes le plus répandu est en fibres optiques. Fait de centaines de fils de verre, un câble en fibre optique peut transporter des données numériques à une vitesse époustouflante. La fibre optique est aussi multi-fonctionnelle : le même câble peut vous apporter des programmes télévisés, des données Internet et des appels téléphoniques en même temps. Il n'est donc pas surprenant que des sociétés comme AT&T qui veulent dominer le marché des communications, s'intéressent de très près à la fibre optique (les compagnies ADSL de leur côté, utilisent les lignes téléphoniques existantes). Si les fournisseurs d'accès à haut débit peuvent acheter des réseaux à fibre optique, ils peuvent contrôler le matériel qui vous apporte absolument tout : depuis Six feets under sur HBO jusqu'aux appels téléphoniques de votre petit(e) ami(e). A San Francisco, c'est exactement ce que les consommateurs sont en train de vivre. AT&T a un contrat de franchise avec la ville qui lui assure un contrôle total sur le réseau de fibre optique de la ville - tout ce qu'AT&T a à faire, c'est de poser les câbles. Pour comprendre ce que cela représente, vous n'avez qu'à imaginer que les câbles sont des tuyaux. Ce que San Francisco dit, c'est que si AT&T pose les tuyaux, il a aussi le droit de contrôler tout ce qui passe dans les tuyaux. Donc, à chaque fois que vous tirer la chasse, vous payer AT&T pour avoir le privilège d'utiliser ses tuyaux pour siphonner votre merde jusqu'à la station d'épuration. Et même si chacun n'utilise qu'une petite partie de l'espace disponible dans les "tuyaux" à haut débit - c'est-à-dire la bande passante disponible - AT&T ne veut pas que vous partagiez cet espace avec quiconque n'a pas payé AT&T. Les gens comme Meehan qui appartiennent à des communautés sans fil veulent partager les tuyaux. Et c'est ce qui emmerde AT&T. Bien que les câbles en fibre optique ont une bande passante suffisante pour alimenter des communautés sans fil assez grandes sans dégrader la qualité de service, la compagnie a des règles très strictes dans son contrat d'utilisation qui interdit aux clients de monter des réseaux tels que ceux que Meehan a en tête. Et si la compagnie contrôle l'ensemble des câbles à haut débit de la ville - et que la ville accepte cette interdiction de partager la bande passante -, le rêve de Meehan sera beaucoup plus difficile à réaliser. Les communautés sans fil ne disent pas que les gens ne doivent pas payer les sociétés qui leur donnent accès au haut débit, et elles n'essaient pas de revendre leur accès à d'autres personnes. Elles veulent juste partager un peu de la bande passante pour laquelle elles ont payé ; de la même manière que vous pouvez donner un verre d'eau à votre voisin, sortant des tuyaux pour lesquels vous avez payé un droit d'accès, ou laisser un ami utiliser vos toilettes, sans payer à chaque fois qu'il tire la chasse. Les malheurs de la franchise Il y a un problème de connexion entre les communautés d'utilisateurs sans fil et la ville de San Francisco. Malgré les efforts de Tim Pozar, un des fondateurs du BAWUG, qui a quelques idées excellentes sur la manière dont la ville pourrait bénéficier de ses propres réseaux sans fil, c'est comme si la Commission des Télécommunications de la ville et des groupes comme le SFWBB vivaient sur des planètes différentes. L'existence de communautés sans fil pourrait sérieusement remettre en cause le contrat avec AT&T, une remise en cause qui tombe au bon moment. Car le Procureur Général de la ville et le Département des technologies de l'Information et des Télécommunications (DTIS) sont en train de mener une enquête pour savoir si le contrat d'exclusivité de plusieurs millions de dollars entre San Francisco et AT&T devrait être renégocié, étant donné les décisions suspectes prises par la compagnie ces derniers mois. Mais la discussion sur l'interdiction faite aux utilisateurs de partager la bande passante n'est même pas à l'ordre du jour de la municipalité. C'est en 1999 que San Francisco a passé un contrat avec AT&T : le géant fournirait à la ville un nouveau réseau en fibre optique, et en retour AT&T serait le principal fournisseur de télévision par câble de la ville, de même que d'accès Internet à haut débit. Mais AT&T a déjà pris un an et demi de retard sur son plan de câblage. Pour empirer la situation, la filiale d'AT&T, AT&T Broadband a annoncé qu'elle entamait un processus de fusion avec son concurrent Comcast, ce qui signifie que la franchise serait tout à coup détenue par une autre société. Et il est écrit dans le contrat de la ville que l'accord ne peut être transféré. Le porte-parole d'AT&T Andrew Johnson dit que l'accord avec Comcast n'affectera pas la contrat avec San Francisco. Il argumente que de toute manière, le contrat est détenu par Television Signal Corporation qui est à son tour détenue par AT&T et que TSC est simplement une partie de la dot qu'AT&T apportera dans le contrat de mariage avec Comcast. "Le contrat d'exclusivité ne demande pas que la municipalité approuve le changement de contrôle", ajoute Johnson. Les responsables de plusieurs services de la ville ne sont pas si sûrs que cette interprétation tienne la route. Le procureur délégué de la ville, Julia Friedlander, affirme pour sa part que le contrat avec Comcast est en fait un transfert de propriété. "C'est une question très disputée", conclue-t-elle. Pour rendre les choses encore plus compliquées, la FCC a rendu en mars dernier une décision très controversée. Selon Denise Brady, directeur délégué du DTIS, "la FCC a classé les modems-câble comme des systèmes d'information, et non comme des services du câble ou de télécommunications. Cela entraîne une grande confusion sur la question de savoir quelles régulations et quelles lois vont s'appliquer [à l'accès Internet à haut débit]. Car si les modems-câble sont des services d'informations, ils ne sont plus couverts par notre accord d'exclusivité avec AT&T". En fait, la décision de la FCC a échappé à plusieurs procédures la remettant en cause au niveau de l'Etat. Brady déplore qu'elle pourrait signifier la fin d'une régulation locale et fédérale de l'industrie de l'accès Internet à haut débit. Ce qui pourrait très bien laisser la ville sans possibilité légale de remettre en cause des décision prises par les entreprises sur l'utilisation de cet accès. Les allumés du sans fil à la rescousse Pourtant, si on peut empêcher les entreprises monopolistiques de contrôler l'accès à hait débit, les bénéfices potentiels peuvent être énormes. Pozar dirige une organisation à but non lucratif appelée Bay Area Regional Wireless Network qu'il a financé de sa propre poche et de celle de quelques amis. Ingénieur de profession, Pozar est un activiste de longue date ; il a lancé des stations de radio communautaires et des services locaux d'accès à Internet. Maintenant, il veut apporter les réseaux sans fil aux citoyens de la baie de San Francisco et aux services d'urgence qui les servent. En utilisant des antennes puissantes et un équipement expérimental de sa propre conception, il se propose de créer une "épine dorsale" sans fil qui délivrerait un signal de colline en colline puis irriguerait les villes qui se trouvent à leurs pieds. "C'est parce que j'ai travaillé tellement longtemps dans le secteur de la diffusion audio-visuelle, dit-il. Du coup, j'ai plein d'amis qui ont accès au sommet des collines". Pour l'instant, l'expérience a l'air de marcher. Le groupe de Pozar a déjà installé une connexion sans fil entre Hayward et Sign Hill. Avec un réglage millimétré et un fournisseur d'accès pour partenaire, la connexion pourrait fournir une couverture aux populations habitant alentour. De manière plus intéressante encore, Pozar veut fournir à la ville du haut débit sans fil pour les services d'urgence. En ce moment, il est en discussion avec le comté de San Mateo pour offrir ses services aux pompiers et à la police. Cela leur serait immensément profitable car pour l'instant, les services d'urgence n'ont pas la possibilité de télécharger, lorsqu'ils sont sur le terrain, des images ou des cartes numériques. Avec le système sans fil de Pozar, les pompiers pourraient télécharger des images aériennes en temps réel de l'incendie qu'ils sont en train de combattre. Ce qui leur permettrait d'adapter leur stratégie pour une meilleure efficacité. La police pourrait télécharger les photos de suspects ou d'autre types d'informations dont ils ont besoin sur le champ." Nous voulons travailler au plus proche des services d'urgence et connaître leurs besoins précis pour pouvoir expérimenter et mettre en place le meilleur système sans fil possible pour eux", conclut Pozar. Pozar a d'autres idées encore plus révolutionnaires sur ce qu'il pourrait faire pour la ville de San Francisco. Il veut créer un réseau sans fil de San Francisco, une sorte de mini-Internet qui ne servirait que pour les résidents de la ville. "Il ne s'agit pas de connecter chacun à Internet, mais tout le monde ensemble pour former une communauté", dit-il. En utilisant le sans fil, les habitants pourraient partager des ressources comme des imprimantes ou de l'espace-disque. Ils pourraient aussi utiliser le réseau pour passer des appels téléphoniques locaux. "Le réseau vous permettrait de contourner les compagnies locales de téléphone", ajoute-t-il. Les gens pourraient aussi avoir leur site Web sur le réseau et mettre en place des circuits d'échanges locaux de fichiers comme Napster, de sorte à partager leurs nouveaux morceaux de musique avec quiconque souhaite les télécharger dans la ville. Vous pourriez avoir accès gratuitement au réseau de San Francisco. Mais pour aller sur Internet, j'imagine que vous devriez payer des frais de participation conjointement à d'autres personnes pour bénéficier d'un accès Internet à haut débit". Si San Francsico travaillait avec les communautés d'adeptes du sans fil pour mettre en place un tel réseau, ce serait le premier de ce type à l'échelle d'une ville. Et ce ne serait pas une évolution tellement étonnante, dans la mesure où San Francsico est la cité la plus branchée du pays, la plus technophile. Mais aussi longtemps que la ville n'est pas capable de réguler l'Internet à haut débit, il est peu probable que la vision de Pozar puisse se réaliser. Car si la franchise accordée à AT&T comprend l'accès à Internet, la municipalité doit renégocier cet accord pour que les utilisateurs du haut débit puissent le brancher sur des communautés sans fil. Si la décision de la FCC tient le coup et que l'Internet à haut débit est dérégulé, alors ce sera au législateur de s'opposer à la FCC pour que les villes puissent fournir à leur concitoyens et à leurs services d'urgence le réseau à haut débit et bas coût dont ils ont besoin et qu'ils méritent. Déjà, à Seattle, le fournisseur d'accès Speakeasy autorise ses clients à utiliser des réseaux sans fil. La philosophie de Speakeasy est que les clients doivent être autorisés à faire ce qu'ils veulent du service pour lequel ils paient. "Nous ne sommes pas là pour faire la police", dit Mike Apgar, le directeur de la société. "Nous voulons que nos clients explorent ce qu'ils peuvent faire avec du haut débit, et nous n'avons jamais eu de problème avec les utilisateurs des réseaux sans fil. Il est vrai que certains utilisent beaucoup de bande passante, mais cela fait partie de notre business model de le leur permettre". Entre-temps, des communautés comme Seattle Wireless ou New York Wireless, ou encore Sonoma County's NoCat s'activent à mettre en place des accès publics aux réseaux sans fil dans leur région. Peu importe ce que fait AT&T, l'élan pris par le sans fil communautaire ne s'arrêtera pas. Peut-être que la grande force de ces groupes -ce que n'a pas AT&T- c'est leur enracinement dans des communautés. "Je ne cherche pas à faire de l'argent", dit Pozar. "Nous n'avons pas de but lucratif. Tout ce que je veux, c'est faire du bon boulot. Cela vient de mon travail avec les radios communautaires. A l'époque, je lançais des radios pour créer un monde meilleur grâce à une communication plus démocratique. Et c'est ce que j'essaie de faire maintenant".
2002-07-11 09:40:10
Deux heures auront suffi pour que disparaissent trois millions de volumes stockés dans l'entrepôt des Belles Lettres, fin mai, du côté de Gasny. L'ampleur de ce chiffre le rend abstrait pour la majorité d'entre nous, qui pouvons imaginer cent ou mille livres, mais pas plusieurs millions. Il cache surtout les noms des nombreux éditeurs indépendants distribués par les Belles Lettres et dont les stocks, en tout ou en partie, étaient entreposés là. Tristram, Fata Morgana, L'Encyclopédie des Nuisances, La Sarrazine, Nizet, le Serpent de mer, La Fabrique, Le Passeur, Le Temps qu'il fait... impossible ici de les citer tous, ils sont plus de soixante. L'événement est d'autant plus exécrable que ces éditeurs-là ont, pour la plupart, développé au fil du temps des catalogues exigeants, publiant des auteurs rares et des titres parfois confidentiels dans les domaines de la poésie, du roman ou de l'essai. Beaucoup risquent de ne pas survivre à cet accident : leurs finances réduites leur interdisent de réimprimer à l'envi les exemplaires détruits. Des catalogues entiers menacent de disparaître ; certains titres seront indisponibles, au mieux, durant plusieurs années, au pire définitivement. L'incendie de Gasny engendre une triple perte. Celle des livres comme objets, celle des livres comme œuvres, celle des livres comme moyen de subsistance. Comment sauver ces incarnations du livre ? Quelques-uns des éditeurs menacés, au moins ceux qui disposent d'un site web, appellent les lecteurs à l'aide et inventent des souscriptions. L'association Helikon, qui réunit des éditeurs, libraires et auteurs, cherche à réunir des fonds pour « couvrir au moins la réédition d'un titre par éditeur »[[Plans de sauvetage pour les éditions des Belles Lettres, Libération, 2 juillet 2002]]. Le Centre national du livre prépare des subventions non remboursables, etc. L'urgence, pour tous, est de réamorcer le cycle de production des ouvrages évaporés. Si ces initiatives sont honorables ; nous les pensons insuffisantes. Nous sommes convaincus qu'il est essentiel de soutenir l'édition papier par l'édition numérique. Quoique longtemps jouées comme concurrentes, ces deux formes de diffusion des œuvres ont vocation à se compléter. Des expériences actuelles montrent, à différentes échelles, que la mise à disposition gracieuse au format numérique d'un livre par ailleurs disponible en version papier non seulement ne gêne pas les ventes mais au mieux les améliore. Le 17 mars 2000, Michel Valensi, directeur et fondateur des éditions de l'éclat, publiait sur son site [le petit traité plié en dix->http://www.lyber-eclat.net/lyber/lybertxt.html] sur le lyber. Dans ce texte-manifeste, il établit le cadre théorique d'une véritable complémentarité entre les livres au format numérique et les livres de bon papier. Pour cela, il définit le livre numérique, ou lyber, en quelques traits caractéristiques : « disponibilité gratuite sur le Net du texte dans son intégralité ; invitation à celui qui le lit, ou le télécharge, à en acheter un exemplaire pour lui ou pour ses ami(e)s ; possibilité de signaler l'adresse du libraire le plus proche du domicile du lecteur où ce lyber risque d'être disponible. » L'éditeur ne se contente pas de théorie. Son petit traité fait partie des textes réunis dans l'anthologie Libres enfants du savoir numérique, premier lyber publié, lui aussi en mars 2000, par les éditions de l'éclat. Dix-huit mois plus tard, Michel Valensi analyse son expérience durant un colloque se tenant à Montréal. À ceux qui affirment a priori que la diffusion gratuite d'exemplaires numériques ferait courir un danger létal à la vente des livres de bon papier, il oppose : « Autre problème : le bénéfice de l'éditeur et la rentabilité nécessaire des structures éditoriales. Sur cette question, de simples faits. La mise en ligne de textes dans leur intégralité et gratuitement sur le Net n'a en rien entamé les ventes de ces mêmes textes sous forme de livre. Mieux : il est arrivé que certains ouvrages dont les ventes pouvaient stagner depuis plusieurs mois, soient parvenus à un rythme de vente supérieur et plus régulier depuis leur mise en ligne. Quelques livres dont les ventes restent faibles sont faiblement consultés. Je ne veux pas établir de relation de cause à effet entre ces phénomènes, mais je constate au moins qu'il n'y a pas de perte pour l'éditeur, si ce n'est cette fameuse perte d'une vente potentielle. Il ne s'agit que d'une expérience limitée à un catalogue de 170 titres et dont une vingtaine sont actuellement disponibles sous la forme de lyber. Nos statistiques nous permettent de constater que les ouvrages les mieux vendus en librairie sont également les plus consultés en ligne, qu'il s'agisse d'ouvrages concernant plus directement les enjeux du Net, comme La résistance électronique du Critical Art Ensemble ou la TAZ d'Hakim Bey, ou d'ouvrages plus classiques comme De la Dignité de l'Homme de Pic de la Mirandole. » Aujourd'hui, l'éclat poursuit son travail d'éditeur. On dénombre sur son site, [http://www.lyber-eclat.net->http://www.lyber-eclat.net], une petite trentaine de lybers sur un total de près de deux cents ouvrages. Surtout, le lyber commence à gagner d'autres éditeurs à sa cause, par exemple Agone qui a adopté ce mode de diffusion pour sa revue rebaptisée lyberagone. De l'autre côté de l'Atlantique, c'est le 11 octobre 2000 que la [Baen Free Library->http://www.baen.com/library] apparut sur le web. Enfant improbable d'un auteur de science-fiction, Eric Flint, et de son éditeur, Baen Books, la Baen Free Library a été conçue en réaction aux innombrables propositions de verrouillage des livres électroniques et de flicage de leurs lecteurs - toujours suspects de piratage -, des propositions assimilées à « des menottes et des coups de poings américains » par Eric Flint. Celui-ci donne deux raisons pour aller à l'encontre des tenants de la manière forte. La première est une question de principe nourrie par l'expérience : toute tentative de résoudre le problème du piratage par des interdits et un contrôle accentué du marché ne peut qu'échouer. La seconde réinjecte une dose de bon sens dans le système : ce qui est vrai pour les distributions promotionnelles d'un livre (services de presse et autres) l'est aussi pour les exemplaires donnés sous forme numérique : cela contribue à la promotion du livre et encourage les ventes. Simultanément, Eric Flint met en place un dispositif critique de la Baen Free Library sous le nom de Prime Palaver, une lettre d'information électronique apériodique qui se nourrit aussi bien de ses réflexions que des commentaires des visiteurs et des lecteurs. [Prime Palaver #6->http://www.baen.com/library], paru le 15 avril 2002, fait le bilan d'un an et demi d'activité de la Free Library et de ses conséquences pour Baen Books. Comme Eric Flint l'écrit, « le propos de cet essai est de démontrer [que le projet de la Free Library] était fondé, et de le démontrer par des FAITS ». Il poursuit : « Laissez-moi commencer par une question. Quelqu'un peut-il prouver de manière tangible que mettre des textes en ligne gratuitement, légalement ou par piratage, a réellement porté un préjudice financier à un auteur ? Toute l'argumentation en faveur de l'encryptage repose très précisément sur cette SUPPOSITION. Une supposition qui n'a jamais été ni documentée ni prouvée et qui, au contraire, a été mise en doute à de très nombreuses reprises. » Suit une longue démonstration, chiffres à l'appui, d'où il ressort que chaque fois qu'un ouvrage de chez Baen Books est ajouté à la Free Library, les conséquences sont soit sans aucun impact sur les ventes, soit positives avec augmentation des ventes et diminution du pourcentage d'invendus. Ces deux pionniers, l'éclat et Baen, ne sont pas les seuls à jouer la complémentarité entre numérique et analogique, mais ils sont exemplaires. C'est en partie inspirés par leur expérience que nous lançons aujourd'hui ce triple appel. Aux éditeurs : acceptez de mettre à disposition sur le réseau internet l'ensemble des ouvrages qui constituent votre catalogue, ou au moins une partie significative de celui-ci. Faites-le gratuitement. Fournissez des textes complets, et non pas des extraits, dans un format ouvert et lisible par tout ordinateur (html, texte brut...). Accompagnez chaque titre d'un appel à souscription, ou d'un bon de commande, ou d'une liste de vos libraires distributeurs, ou des trois. C'est le meilleur moyen de toucher rapidement un vaste public sans s'engager dans les frais d'une réimpression massive. Il se trouvera des acheteurs, ceux qui ne lisent pas un roman à l'écran (personne ne le fait, c'est trop pénible), ceux qui n'impriment pas deux cents pages chez eux (personne ne le fait, c'est trop long, trop bruyant, trop coûteux), ceux qui commandent après avoir pris connaissance, tous ceux-là adeptes du point 4 du petit traité, « pouvoir essayer à sa guise un produit avant de l'acheter est une bonne chose ». C'est le meilleur moyen de donner à ces œuvres une chance de survie hors des bibliothèques, la chance de continuer à être lus. Aux auteurs : la mise en ligne de vos œuvres équivaut juridiquement à une republication pour laquelle vous pouvez renégocier vos droits, et attendre une nouvelle rémunération. Une republication que vous pouvez aussi refuser, si vous pensez que le mode de diffusion proposé n'est pas le bon. Dans les circonstances actuelles, reste à voir où est votre intérêt, et décider s'il vous importe plus de vous arc-bouter sur vos droits ou d'être lus. Sachant que la réimpression rapide de vos œuvres est le seul moyen de renouer avec cette source de revenus. Sachant que ces éditeurs aujourd'hui menacés ont besoin de votre coopération d'auteurs. Aux lecteurs, les connectés les premiers : ces éditeurs ont un besoin urgent qu'on achète leurs livres avant même qu'ils soient imprimés. Si éditeurs et auteurs s'accordent, vous aurez l'occasion de prendre connaissance de corpus entiers en ligne ; à vous d'y prendre plaisir, et tout naturellement d'acheter après avoir feuilleté comme vous achetez après avoir feuilleté en librairie. Nous savons que cet appel va à l'encontre des présupposés actuels en matière d'édition. L'enjeu n'est pas dans des rabâchages comme « Internet, ça ne marche pas, impossible d'y gagner de l'argent ; le numérique, c'est la plus grande menace du droit d'auteur ». Les livres objets ont leur prolongement en tant qu'œuvre sur le réseau internet, qui garantit leur survie au bénéfice de tous. L'évolution des mentalités quant au rapport entre édition papier et édition électronique finira bien par avoir lieu, que cet appel contribue à l'encourager.
2002-06-29 09:46:36
Les société d'enregistrement de noms de domaine peuvent-elles être soumises au même régime de responsabilité que les hébergeurs de sites web ? C'est ce que pourrait laisser penser l'ordonnance du 31 mai 2002 émanant du Tribunal de Grande Instance de Paris ordonnant à la société Gandi à la fois de suspendre la résolution du nom de domaine "miditext.com" pointant vers un site contenant des contenus illicites, et de lui remettre les dernières données de connexion afférentes à ce nom de domaine. L'ordonnance, relatée par la presse spécialisée comme une innovation juridique importante fixant pour la première fois la responsabilité des "registrars" en matière de contenu illicite a soulevé une certaine émotion dans nombre de forums de discussion, listes de diffusion et sites associatifs, émotion que le principal intéressé, la société Gandi, ne semble d'ailleurs pas partager, comme il ressort de l'entretien que son président a accordé au magazine [Vnunet->http://www.vnunet.fr/actu/article.htm?numero=9790&date=2002-06-13]. Et de fait, à y regarder de plus près, il n'est pas si sûr que l'ordonnance du TGI de Paris constitue une si grande innovation ou qu'elle change quoi que ce soit à la responsabilité des sociétés de ce type. Tentative d'interprétation. -Miditext.com : des contenus illicites autorsant une saisie-contrefaçon Proposant aux internautes la libre consultation de plusieurs centaines de textes de chansons et de partitions musicales, les contenus mis en ligne par Miditext.com tombent sous le coup des articles du Code de la Propriété Intellectuelle au titre de la reproduction illicite d'oeuvres protégées. C'est à ce titre que la chambre syndicale des éditeurs de musique (CSDEM) a fait constater par huissier le caractère illicite du site et s'est présenté devant le Tribunal de Grande Instance de Paris afin d'en obtenir la suspension. Cette procédure est possible au vu de l'article 332-1 du Code de la Propriété Intellectuelle : " Les commissaires de police et, dans les lieux où il n'y a pas de commissaire de police, les juges d'instance, sont tenus, à la demande de tout auteur d'une oeuvre protégée par le livre Ier, de ses ayants droit ou de ses ayants cause, de saisir les exemplaires constituant une reproduction illicite de cette oeuvre. Si la saisie doit avoir pour effet de retarder ou de suspendre des représentations ou des exécutions publiques en cours ou déjà annoncées, une autorisation spéciale doit être obtenue du président du tribunal de grande instance, par ordonnance rendue sur requête" Cette "ordonnance rendue sur requête" est une mesure conservatoire obtenue au terme d'une procédure non contradictoire ; elle n'implique pas une mise en cause pour la société qui fait l'objet de l'ordonnance. Celle-ci est simplement tenue d'obéir aux injonctions du juge qui la rédige. -Le juge ordonne, mais à qui ? Habituellement, ce genre d'ordonnance en "saisie-contrefaçon" vise les acteurs les plus impliqués dans la diffusion de contenus illicites : éditeurs, webmestres et à défaut, hébergeurs. Dans le cas de Miditext.com, le juge se trouvait face à une situation classique pour ce genre de site : le webmestre est inconnu - on connaît seulement le nom du propriétaire du nom de domaine -, les serveurs hébergeant le site sont aux Etats-Unis, hors de la juridiction française. Restait un acteur beaucoup plus éloigné du processus d'édition à proprement parler, mais qui joue un rôle important pour l'accessibilité au site : le registrar qui opère la résolution de nom de domaine ; en l'occurence une société française : Gandi S.A. C'est vers elle que le juge s'est en définitive tourné pour "suspendre" la diffusion des contenus incriminés, en mettant en place une redirection à partir du nom de domaine vers le site de l'Agence de Protection des Programmes en vertu du même Code de la Propriété Intellectuelle et des articles 493 et 812 du Nouveau Code de Procédure Civile. Il fallait enfin s'assurer, pour un procès en indemnisation ultérieur, de l'identité des responsables du site. Et cela, c'est la loi relative à la liberté de communication du 30 septembre 1986, amendée le 1er août 2000 qui le permet. Mais cette loi est aussi à la source de toutes les confusions, en particulier l'article 43-8, invoqué par l'ordonnance. -Cherchez l'intrus Après avoir invoqué le Nouveau Code de Procédure Civile (NCPC) et le Code de la Propriété Intellectuelle (CPI), le juge Alain Girardet qui a rédigé l'ordonnance s'appuie maintenant sur les articles 43-8 et 43-9 de la loi de 1986 sur la liberté de communication, amendée le 1er août 2000, à l'issue d'un débat mémorable. Que disent-ils ? L'article 43-9 précise que " Les prestataires mentionnés aux articles 43-7 et 43-8 sont tenus de détenir et de conserver les données de nature à permettre l'identification de toute personne ayant contribué à la création d'un contenu des services dont elles sont prestataires. Ils sont également tenus de fournir aux personnes qui éditent un service de communication en ligne autre que de correspondance privée des moyens techniques permettant à celles-ci de satisfaire aux conditions d'identification prévues à l'article 43-10. Les autorités judiciaires peuvent requérir communication auprès des prestataires mentionnés aux articles 43-7 et 43-8 des données mentionnées au premier alinéa. Les dispositions des articles 226-17, 226-21 et 226-22 du code pénal sont applicables au traitement de ces données.." Bien que le décret d'application de l'article 43-9 ne soit pas encore publié, c'est à ce titre que le juge a requis dans son ordonnance que la société Gandi lui communique "l'adresse IP utilisée par la personne ayant procédé à la réservation du nom de domaine www.miditext.com ainsi que l'adresse IP de la personne ayant procédé à la dernière modification du 6 septembre 2001 et le mot de passe associé à l'identifiant "TA51-GANDI" attribué lors de l'achat du nom de domaine;". Comme l'article 43-8 est évoqué en même temps que le 43-9, on pourrait penser que c'est en vertu de cet article que Gandi est concerné par ces mesures. Mais l'article 43-8 ne concerne que " Les personnes physiques ou morales qui assurent, à titre gratuit ou onéreux, le stockage direct et permanent pour mise à disposition du public de signaux, d'écrits, d'images, de sons ou de messages de toute nature accessibles par ces services." Ce n'est assurément pas le cas d'une société d'enregistrement de nom de domaine, comme plusieurs [articles de presse->http://news.zdnet.fr/story/0,,t118-s2112121,00.html] le font remarquer. A l'extrême limite, la catégorie de prestataires définie dans l'article immédiatement précédent - le 43-7 - lui conviendrait mieux, bien que cet article concerne en fait les fournisseurs d'accès, et non les registrars . Que s'est-il passé lors de la rédaction de ce texte ? Pourquoi l'article 43-8 s'est-il glissé comme un intrus au milieu des articles de loi cités ? Mystère...mais cet intrus est au centre d'un bel embrouillamini dans les interprétations qui ont été données par la suite. L'article 43-8 prévoit en effet que : " Les personnes physiques ou morales qui assurent, à titre gratuit ou onéreux, le stockage direct et permanent pour mise à disposition du public de signaux, d'écrits, d'images, de sons ou de messages de toute nature accessibles par ces services, ne sont pénalement ou civilement responsables du fait du contenu de ces services que : - si, ayant été saisies par une autorité judiciaire, elles n'ont pas agi promptement pour empêcher l'accès à ce contenu" D'où l'idée selon laquelle l'injonction de suspendre la résolution (et donc l'accès) du nom de domaine miditext.com s'appuyait sur l'article 43-8 qui concerne les hébergeurs, alors qu'en réalité, elle n'a pas besoin de cet article de loi, mais plus simplement du CPI et du NCPC qu'elle évoque par ailleurs. La loi de 1986 amendée ne trouve donc pas sa place ici, puisqu'elle ne peut désigner que les fournisseurs d'accès ou les hébergeurs, et en aucun cas les registrars, ou alors au prix de contorsions juridiques pour le moins dangereuses. -Tout ça pour ça Toute cette affaire demande à rappeler fermement que les sociétés d'enregistrement de noms de domaine ne sont pas des hébergeurs de contenus, et comme telles, ne peuvent être responsables des contenus vers lesquels pointent leurs serveurs de résolution (DNS), dont elles n'ont d'ailleurs pas la totale maîtrise. Les rapports que ces sociétés entretiennent avec la justice sont bien plus souvent liées à des questions de "cyber-squatting" sur des noms de marques déposées, qu'à des affaires du type Miditext.com. Il n'en reste pas moins qu'un juge peut leur ordonner, dans le cadre du droit commun, de suspendre la résolution de certains noms de domaine afin d'empêcher ou retarder la mise à disposition du public de contenus illicites. "Retarder" est bien le mot, car plusieurs observateurs ont bientôt remarqué que le nom de domaine est très accessoire dans l'acte de publication par le web. Il est en principe toujours possible, comme c'était semble-t-il le cas pour Miditext, d'accéder au serveur en tapant son adresse IP, en se passant donc du nom de domaine. Sauf que la plupart des solutions d'hébergement recourent à du "virtual hosting", c'est-à-dire l'hébergement de plusieurs sites Web sur une même machine. C'est alors le nom de domaine qui permet de retrouver le bon site parmi tous ceux qui se partagent les mêmes ressources matérielles. Mais il n'est pas besoin d'aller chercher si loin. Le webmestre du site en question, après que Gandi ait suspendu la résolution de miditext.com, a évidemment déposé dans les 48 heures miditext.net auprès d'un registrar -Directi- basé à...Bombay, ce qui prouve qu'il a de la suite dans les idées. Merci à Kaïs et Meryem Marzouki, à Corinne Bariel pour leurs informations et éclaircissements. Cet article est une co-publication [IRIS->http://www.iris.sgdg.org] / [homo-numericus.net->http://www.homo-numericus.net]
2002-07-13 14:17:09
Le 4 juillet dernier, l'ISOC-France organisait les premiers [Etats Généraux européens du nommage sur Internet->http://www.domainname2002.org] à la fois pour permettre aux principaux acteurs de cette question - administrations, entreprises privées, utilisateurs, juristes - de se rencontrer et pour tenter d'organiser un utile contre-poids européen à la domination américaine en la matière. -L'ICANN : un chantier permanent Cette réunion se déroulait dans un contexte très tendu, quelques jours après la [réunion de l'ICANN à Bucarest->http://www.icann.org/bucharest] au cours de laquelle un projet de réforme contesté de l'organisme de gestion des noms de domaine sur Internet a été adopté. Ce projet, mis au point par [l'ICANN Evolution and Reform Committee->http://www.icann.org/committees/evol-reform/links.htm], repose sur une réorganisation du système de désignation des directeurs de l'ICANN, dont une bonne partie ne seront désormais plus élus par les utilisateurs d'Internet, mais par un Comité de nomination interne à l'organisme. Contrairement à ce qui avait été proposé tantôt, les Etats ne prendront finalement pas une part plus active, puisque regroupés, comme c'est le cas actuellement, dans un Gouvernement Advisory Committee, aucun de leur représentant ne disposera d'un droit de vote au conseil d'administration. Ils pourront simplement désigner un délégué au comité de nomination. La grande nouveauté de ce plan de réforme repose donc à la fois sur l'élimination des directeurs At-large, mais aussi sur une représentation beaucoup plus importante des gestionnaires de noms de domaine nationaux (ccTLD). Regroupés au sein d'une organisation propre (CNSO), ils éliront deux directeurs au sein du conseil d'administration de l'ICANN, au même titre que le DNSO (renommé pour l'occasion GNSO) ou l'ASO. Cette évolution est en fait le résultat de mois de guérilla intense de la part des registries de ccTLD contre l'ICANN accusé d'inefficacité, alors qu'une bonne part de son budget est alimenté par eux. Certains d'entre eux allaient même jusqu'à menacer de ne plus payer leur cote-part, ce qui fut certainement un argument de poids dans les réflexion du comité de réforme. -Deux grands perdants Ce sont donc les deux grands perdants du projet de réforme qui firent entendre leurs voix le 4 juillet à Paris. L'Union Européenne d'une part, a clairement fait part de sa volonté d'avoir son mot à dire dans le système de nommage sur Internet. Le problème est qu'elle n'a présenté aucun véritable plan d'action pour le faire. D'un côté, Sidse Aegidius, qui représentait le Ministère Danois des Sciences et Technologies a brossé à grands traits les objectifs de la Présidence de l'Union pour les six mois à venir sans véritablement évoquer la question des noms de domaine - excepté la création d'une "Task Force" chargée de suivre l'évolution de l'ICANN, tandis que Richard Delmas, pour la Commission Européenne s'est proposé de "guider" l'évolution de l'ICANN, de "remettre à plat" le fonctionnement de la gestion du nommage, sans dire comment. En fait, c'est bien plus sur la mise en place du nom de domaine .eu que l'Europe semble active. Comme si, ayant perdu tout espoir d'être entendue au niveau de l'ICANN, elle se repliait sur son chez soi, une sorte d'Internet européen loin de la domination du Département du Commerce américain. Celui-ci, qui commence d'ailleurs à sentir le vent du boulet de canon, s'est fendu d'une déclaration très conciliante lors des Etats Généraux du 4 juillet, indiquant vouloir associer les gouvernements nationaux à la gestion des noms de domaine ; déclaration contradictoire, on s'en doute, avec le plan de réforme proposé par l'ICANN. Dans la mesure où cet organisme est pour une bonne part sous la tutelle du DoC, on risque donc de voir quelques changements de cap inattendus dans les semaines à venir. L'autre grand perdant de l'affaire, ce sont les utilisateurs. Et là, la situation est plus que désespérée. Lorsqu'on parle des utilisateurs, il ne faut plus penser "internautes", totalement absents de toutes ces discussions, mais "entreprises utilisatrices", représentées le 4 juillet par le [CIGREF->http://www.cigref.fr/cigref02/fr/accueil.nsf/pimageportail], qui est le club informatique des grandes entreprises françaises. Celui-ci, par la voix de Sébastien Bachollet, co-organisateur de l'événement, prend étrangement pour un club aussi respectable, des allures de sans-culotte en réclamant une représentation pour le peuple de l'Internet au sein de l'ICANN. Plus encore, il appelle à la mise en place d'une [coordination européenne des utilisateurs->http://www.cigref.fr/CIGREF02/FR/actu.nsf/(ViewWebActuPub)/7708DB17EDCA2DB5C1256BAB002CA3A7] susceptible de faire entendre sa voix aussi bien auprès des instances de nommage que des structures administratives et politiques européennes. Mais le CIGREF joue avec les mots car "utilisateurs" ne peut désigner ici, et avec le même sens, les entreprises utilisatrices et les utilisateurs individuels, dont les intérêts sont, sur le point précis des noms de domaine, souvent radicalement contradictoires. On a pu en faire l'expérience avec l'exposé de José Monteiro, président du groupe "marques" au sein du [MEDEF->http://www.medef.fr]. Car c'est sur l'assimilation entre les noms de domaine et les marques commerciales que se jouent la plupart des conflits touchant au nommage sur Internet. Et ce d'autant plus que plusieurs instances d'arbitrage se font concurrence : les procédures guidées par l'ICANN d'une part, au travers de ses [UDRP->http://www.icann.org/udrp/], donne largement l'avantage aux propriétaires de marques, et ce d'autant plus que [l'Organisation Mondiale de la Propriété Intellectuelle->http://arbiter.wipo.int/domains/] y joue un rôle prépondérant. Pour ce qui est des procédures judiciaires d'autre part, les situations sont très variables selon les pays : les tribunaux français par exemple, comme l'a rappelé avec dépit J. Monteiro, n'accordent pas aux détenteurs de marques la propriété sur les noms de domaine approchant ou composés à partir du nom de marque, contrairement aux Etats-Unis. -Déséquilibres structurels Si l'on aborde maintenant la question du marché d'enregistrement des noms de domaine, la situation est là encore très déséquilibrée : le géant Verisign qui fait office à la fois de gestionnaire d'enregistrement pour les .com et de registrar pour les gTLD en général écrase en effet l'ensemble du marché, ayant su profiter de son ancien monopole sur l'enregistrement de noms de domaine. Ce "Microsoft du nom de domaine", très décrié le 4 juilllet, a encore assurément de beaux jours devant lui, non pas tant d'ailleurs sur ce marché stricto sensu qui tend à se réduire comme une peau de chagrin depuis l'éclatement de la bulle Internet, mais sur celui des services ajoutés, tels l'authentification et la sécurisation de données, sur lequel il recentre ses activités depuis peu. Toutes ces discussions restent pour l'instant en suspens. Elles sont suspendues notamment à l'avenir de l'ICANN tel qu'il sera décidé par les Etats-Unis, puisque le contrat qui lie l'organisme de gestion des noms de domaine à ses instances de tutelle doit être renouvelé à la fin du mois de septembre. Un mois plus tard, l'ICANN tiendra à Shangai sa prochaine réunion, déjà promise à moult remous. Les Etats Généraux du 4 juillet l'auront cependant montré pleinement : ce n'est sans doute pas du côté européen que viendra la révolution attendue.
2002-09-05 21:18:34
Vous achetez des CD ou DVD vierges, des cassettes audio ou vidéo? Vous payez une taxe. Vous achetez un baladeur numérique, une chaîne Hi-fi dotée d'un disque dur, vous possédez un décodeur numérique pour capter le satellite? Depuis le 4 juillet dernier, vous payez une taxe. Dans un proche avenir, vous achèterez un ordinateur, un lecteur Zip, un magnétoscope numérique? Vous paierez sans doute une autre taxe. Patiemment et minutieusement, la Commission L.311-5, plus connue sous le nom de Commission Brun-Buisson, étend progressivement à l'ensemble des appareils numériques, la portée de la taxe rémunérant la copie privée, créée par la Loi Lang de 1985 sur les cassettes vierges pour compenser le manque à gagner des éditeurs et auteurs de musique dû à l'apparition dans le grand public de supports d'écoute réenregistrables. -L'UFC monte au créneau Le 4 juillet dernier, cette commission, composée de représentants des sociétés d'auteurs, d'éditeurs et d'associations de consommateurs a adopté à l'unanimité moins une voix le principe de l'extension de la rémunération pour copie privée aux balladeurs et chaînes numériques, taxés entre 8 et 20 euros selon leur capacité d'enregistrement, et aux décodeurs numériques pour 10 ou 15 euros par unité. Ce n'est pas peu dire que cette décision a suscité de nombreuses réactions négatives. Alors que les représentants des fabricants et importateurs de matériels, qui devront acquitter la taxe, ont boycotté les travaux de la commission, l'association UFC-Que Choisir a décidé pour sa part de voter contre la résolution finale. Les [motifs de son opposition->http://www.quechoisir.org/Posi_copie_0807.html] sont clairs: «un client de TPS acquitte un abonnement mensuel pour avoir un droit de visionner des programmes 24H/24H et 7J/7J. Dans la pratique, il ne peut pas profiter à plein de son abonnement. Fort de ce constat, TPS lui propose alors pour environ 6 € par mois, un outil qui lui permet de mieux profiter de son abonnement : un décodeur numérique. Ainsi, il peut décaler un programme diffusé en semaine, le week-end par exemple. Le consommateur doit-il payer une troisième fois pour visionner une œuvre pour laquelle il a déjà payé deux fois des droits d'auteurs ? », s'interroge le communiqué rageur que l'association a fait paraître au lendemain du vote. -Jusqu'où iront-ils ? Et il est vrai que l'extension infinie de cette disposition de la Loi Lang à de nouveaux appareils a de quoi laisser rêveur, alors même que les dernières évolutions du secteur remettent en cause le principe même de la rémunération pour copie privée : -La taxe sur les CD vierges : acquise et peu contestée maintenant, elle n'en continue pas moins à poser problème : d'abord parce que les CD-R ne servent pas uniquement à enregistrer des fichiers audio ou vidéo, mais sont souvent utilisés pour effectuer des copies de sauvegarde de documents importants. Il est vrai cependant que la plupart de ces supports d'enregistrement sont utilisés pour fixer des fichiers musicaux. Le problème est que la plupart du temps, la copie de ces fichiers musicaux se fait en toute illégalité : il s'agit de donner à un ami, un collègue de travail, un cousin éloigné la copie d'un disque qu'il s'évitera ainsi d'acheter. Cette pratique, illégale au titre de l'article 335-4 du Code de la Propriété Intellectuelle, ne correspond pas à ce qu'on appelle « copie privée », laquelle ne doit pas sortir du cercle familial. Et dès lors, contrairement à ce que croit la plupart des consommateurs, la taxe prélevée sur les CD vierges ne rémunère pas cette pratique, mais uniquement la copie privée, à l'intérieur du cercle familial (lorsqu'on grave un CD pour le laisser dans sa voiture ou dans sa résidence secondaire, pratique pour le moins marginale, avouons-le). Mais pour évaluer l'ampleur du préjudice causé par la copie privée, la Commission Brun-Buisson s'est en grande partie basée sur le nombre total de CD vendus annuellement...et qui servent à tout autre chose qu'à ce pour quoi ils sont taxés. Le résultat est que la taxe en question répare un préjudice causé par une pratique illégale ; c'est tout simplement une taxe sur la fraude ! -La distribution par Internet de titres musicaux : on sait que cette évolution, décidée par les grands distributeurs est encore balbutiante, mais promise à un grand avenir. Déjà, certains portails proposent aux internautes de constituer leur propre compilation en ligne et de télécharger les titres un à un pour les graver chez eux. On oublie juste de faire remarquer que dans ce cas, le consommateur paie une taxe pour copie privée qui n'a pas lieu d'être, puisqu'il n'y a pas de copie d'un CD existant. Rappelons en effet que cette taxe est censée compenser un achat qui aurait dû être effectué en l'absence de moyen de copie (légale). Ce n'est pas le cas ici ; et cela l'est encore moins dans le cas des balladeurs MP3 qui, par définition, ne lisent pas les CD ! Si je télécharge plusieurs morceaux de musique sur [Pressplay->http://www.pressplay.com], que je les fait transiter par mon disque dur pour les installer sur mon balladeur numérique, je paie une fois et peut-être bientôt deux fois (si la Commission décide d'étendre la taxation aux disques durs d'ordinateurs comme elle semble le vouloir) une taxe que je ne devrais pas, en droit, acquitter. -Pire encore, les [systèmes anti-copie->http://www.homo-numericus.bonidoo.net/breve.php3?id_breve=53] mise en place par certains distributeurs de disques comme Sony depuis l'année dernière, rendent caduque le principe même de la rémunération pour copie privée. Car ces systèmes ne font évidemment pas la différence entre copie privée et piratage. Si ce mouvement s'amplifie, il y a donc de fortes chances pour que les utilisateurs paient sur leurs appareils et supports numériques une taxe rémunérant un droit dont ils ne pourront même pas faire usage. Situation pour le moins étrange et qui permet aux éditeurs de gagner sur tous les tableaux : ils peuvent vendre leurs disques, lutter contre le piratage, empêcher la copie privée, et toucher une deuxième fois de l'argent sans qu'ils n'aient subi aucun préjudice. L'utilisateur de son côté paie son disque enregistré, puis une taxe sur son disque vierge, une autre sur son balladeur numérique, et bientôt peut-être encore une sur son PC, sans qu'il puisse faire quoique ce soit. -Haro sur le gâteau! Les sommes en jeu ne sont pas négligeables. Pour l'UFC Que Choisir, elles représenteront sans doute pour l'année prochaine près de 150 millions d'euros, un milliard de francs. On comprend que les appétits soient singulièrement aiguisés sur cette affaire. D'autant que beaucoup de monde vit sur cette manne financière. Le Code de la Propriété Intellectuelle prévoit en effet que la rémunération pour copie privée est perçue par l'intermédiaire de sociétés privées, nommées Sociétés de Perception et de Répartition des Droits (SPRD), composées de représentants des ayants-droits, essentiellement éditeurs, auteurs et artistes-interprètes. Mais quand on regarde d'un peu plus près ces sociétés, on se rend compte que l'argent récolté passe à travers un nombre considérable de filtres avant d'arriver finalement aux ayants-droits. Ainsi, actuellement, la redevance est collectée par deux sociétés, la [SORECOP->http://www.sacem.fr/gestioncoll/associees/sorecop.html] et Copie France qui font passer les sommes à une multitude de sociétés corporatives, comme [l'ADAMI->http://www.adami.org] qui représente les artistes-interprètes, la [SACEM->http://www.sacem.org] qui représente les auteurs ou la [SCPP->http://www.scpp.fr] qui représente les producteurs. Chaque niveau prélève évidemment sa dîme sur les sommes perçues avant de les passer à ses collègues. Pire encore, dans le cas de l'adaptation audio-visuelle d'une oeuvre littéraire, un récit de fiction par exemple, les droits à rémunération pour copie privée sont perçus par la SORECOP ou COPIE FRANCE qui les verse à la SACD, qui les reverse à la SCELF (Société civile des éditeurs de langue française), qui les verse aux éditeurs, lesquels en reverse la moitié aux auteurs. Un parcours qui permettra à chacun de se servir, laissant bien maigre la part des auteurs pour lesquels pourtant, cette somme est censée être collectée. 150 millions, ce n'est pas rien. Et nombreux sont ceux qui voudraient bénéficier d'une part d'un gâteau si alléchant. Voyons voir, sur un CD, on peut mettre des mp3, des fichiers vidéo, mais aussi des fichiers texte. Et qui dit texte, dit évidemment livre ! Avec les scanners et les logiciels d'OCR, tout le monde, c'est bien connu, enregistre sur son disque dur le dernier Sollers pour pouvoir le lire tranquillement sur son portable dans sa voiture (dans les embouteillages) ou dans sa résidence secondaire de Normandie. Il y a préjudice ! Que ne rémunère-t-on les auteurs et éditeurs pour ce grave manque à gagner ! Rassurez-vous, bonnes gens, c'est déjà fait. La [SOFIA->http://www.la-sofia.org] (Société Française des Intérêts des Auteurs de l'Ecrit) a en effet obtenu d'une part de participer aux travaux de la Commission Buisson-Brun, et d'autre part de bénéficier du statut de SRPD. Elle est actuellement en train de négocier d'arrache-pied avec les autres SRPD la quote-part qui lui sera dévolue, somme qu'elle pourra reverser aux auteurs, à condition bien sûr, que ceux-ci aient adhéré pour quelques trente euros annuels. Nul doute que dans un proche avenir, les représentants des auteurs de recettes de cuisine, des horoscopes ou encore des blagues salaces estiment qu'eux aussi, doivent être indemnisés du préjudice subi. Les dérives actuelles d'un système qui finit par rappeler fâcheusement les publicains de la République Romaine, appellent un certain nombre de questions : Si l'on tient absolument à maintenir le principe d'une redevance pour la copie privée, pourquoi sa perception et sa répartition ne serait-elle pas gérée par les services fiscaux de l'Etat, permettant une gestion plus rigoureuse, moins opaque et moins soumise aux dérives que l'on connaît parfois dans le système actuel ? Pourquoi ne pas réévaluer de manière indépendante le préjudice réel causé par la copie privée, hors piratage, certainement très inférieur aux 150 millions d'euros annoncés ? D'autant que ce montant est déterminé par le nombre d'appareils et supports vendus soumis à taxation, et non par une évaluation du préjudice subi, qui déterminerait une enveloppe globale annuelle. Pourquoi ne pas interdire la commercialisation de CD dotés de dispositifs anti-copie en France, dans la mesure où ces dispositifs sont contraires à un droit reconnu de l'utilisateur, droit pour lequel il paie de surcroît une redevance? Quoi qu'il en soit, la rémunération de la copie privée dans le contexte numérique est manifestement déséquilibrée au détriment des consommateurs. Et ce déséquilibre risque encore de s'accentuer dans les années à venir, sans que personne n'y songe. Une situation qui demande à être redressée de toute urgence.
2002-09-21 22:58:52
Internet ou le sixième continent : le cyberespace a beau être un espace virtuel, il ne s'en trouve pas moins, comme tout territoire, au centre de conflits majeurs entre des acteurs qui mettent en oeuvre à son sujet des stratégies de prise de contrôle qui ne sont pas sans ressemblance avec ce qui se déroule dans l'espace physique. C'est le pari de Solveig Godeluck, journaliste spécialisée en nouvelles technologies de le démontrer dans le livre qu'elle publie sous un titre évocateur : La Géopolitique d'Internet. La grande majorité des ouvrages sur l'histoire ou les problématiques relatives à Internet s'appuient sur une approche unilatérale : strictement économique la plupart du temps, mais aussi politique, ou sociologique selon la formation de celui qui l'écrit. Dans son ouvrage, Solveig Godeluck tente de dépasser la partialité de ces points de vue, en s'appuyant sur une discipline relativement large - faut-il parler de méta-discipline ? - qui s'appuie sur la plupart d'entre elles pour dégager les enjeux de pouvoir liés au contrôle territorial. Dans ces conditions, et étant donné la nature particulière du « territoire » Internet, l'application de la géopolitique à un espace qui peut apparaître comme purement métaphorique de prime abord, soulève un certain nombre de questions. -L'hypothèse géopolitique Un des grands mérites du livre de Solveig Godeluck est de valider son postulat : oui, Internet est au centre d'enjeux « géopolitiques » ; et ce pour plusieurs raisons : d'abord, parce que sous l'espace virtuel, on ne peut ignorer la réalité physique des infrastructures qui le font exister. Le développement des réseaux, leur configuration, la nature et la nationalité des opérateurs économiques qui supportent les frais d'investissement, celles des fournisseurs de matériels, tout cela ne peut être ignoré ; et ce d'autant moins que la structuration physique des réseaux et leur répartition sur la surface de la planète trouvent leur miroir exact dans la structuration et la répartition des flux de données qui signalent les usages. Ensuite, il existe bien une « géopolitique » d'Internet dans la mesure où les acteurs qui s'affrontent dans l'arène sont les mêmes que ceux que l'on retrouve dans nombre de conflits de même nature ailleurs : acteurs étatiques d'une part, mais aussi économiques, et enfin les habitants eux-mêmes de ce territoire, non pas simplement les usagers, mais surtout les plus actifs d'entre eux, qui se considèrent comme les citoyens d'un nouveau monde. Dernier argument en faveur d'une géopolitique d'Internet, la notion de « technopouvoir » proposée par le sociologue américain Tim Jordan, permet de mettre en évidence la dimension idéologique et culturelle des plus importantes des décisions prises à propos d'Internet. -Emergence d'un technopouvoir Le technopouvoir, c'est très exactement l'outil qui permet aux valeurs sociales de prendre corps, de s'incarner dans la vie quotidienne par le biais de la technologie. On sait à quel point son maniement est difficile car il ne se résume pas à dire que la technologie est idéologique. Mais c'est une des qualités de Solveig Godeluck que de savoir l'utiliser pour montrer les enjeux politiques et sociaux qui se cachent derrière les débats en apparence très techniques qui agitent les acteurs d'Internet. : la gestion du DNS, les débats sur les standards du réseau, les technologies de cryptage et de gestion des informations personnelles, ou encore les dispositifs anti-copie. Ces questions opposent férocement marchands et « colons » du réseau, puisque c'est par ce terme que l'auteur désigne les utilisateurs les plus actifs du réseau, ceux qui refusent d'être réduits au rang de simples usagers de réseaux privés, mais se pensent en citoyens d'un monde numérique, dotés de droits qu'ils se proposent de défendre. -Le retour des nations Mais les enjeux géopolitiques d'Internet ne sont pas entièrement déterritorialisés, on l'a dit. Leur compréhension passe aussi par l'analyse des stratégies que mettent en oeuvre les Etats-nations : les serveurs et les réseaux existent bien quelque part. Comme tels ils sont susceptibles d'être soumis au pouvoir réglementaire des Etats souverains sur les territoires qui les hébergent. Contrairement à ce qu'on a dit, les lois nationales s'appliquent sur Internet, mais, et c'est toute la différence avec un contexte traditionnel, elles s'appliquent quelquefois au-delà du territoire national. D'où la recrudescence de conflits entre ensembles géopolitiques qui savent que s'ils veulent avoir une chance de faire respecter leur loi sur leur territoire, ils doivent chercher à l'imposer au-delà, pour les questions qui touchent à Internet tout du moins. Les conflits qui opposent l'Union européenne et les Etats-Unis sur la sécurité, la confidentialité des données, le droit d'expression, le droit d'auteur ou la brevabilité logicielle partent tous de là. Et dans cet espèce de lutte d'influence entre les deux sous-continents, les attentats du 11 septembre en déclenchant ce que S. Godeluck appelle « la panique cybercrime » a fortement déséquilibré le rapport de forces. Ce point commence à être relativement connu. Ce qui l'est moins, c'est la situation dans d'autres pays, notamment non-occidentaux, et en particulier la Chine où les taux d'utilisation du nouveau medium connaissent une croissance ahurissante. En s'appuyant sur les données publiées conjointement par RSF et feu le magazine Transfert dans un rapport explosif intitulé Les Ennemis d'Internet, Solveig Godeluck décrit avec finesse le fonctionnement du véritable Big Brother que le gouvernement chinois a su mettre en place sur son réseau, avec l'aide évidemment des entreprises occidentales. A tous les doux rêveurs et les idéalistes, le « panoptique chinois » comme l'appelle l'auteur, rappellera utilement qu'Internet n'est pas une technologie libertaire per se, mais qu'elle peut être transformée en redoutable machine à surveiller les dissidents. -La cause perdue des netizens En expliquant les enjeux géopolitiques qui se cachent derrière les arides discussions techniques qui concernent Internet, Solveig Godeluck fait oeuvre utile : elle montre que ces discussions doivent sortir du cénacle restreint de spécialistes où elles sont maintenant confinées. Les décisions des « régulateurs » ou plus simplement du législateur ne pourront être équilibrées que si elles sont éclairées par des débats publics où participent les citoyens. Force est de constater que ce n'est pas le cas aujourd'hui. Et la journaliste d'exhorter les « colons » à sortir de leur univers tout-numérique pour agir dans la Cité. Comment ? Peut-être en créant un parti politique, un « e-parti », dont l'objectif serait d'établir une passerelle entre les débats du monde en-ligne, que ne connaissent que ceux qui sont en ligne, et le débat politique classique qui ignore superbement ces questions. On peut être sceptique sur la pertinence d'une telle suggestion. On ne peut l'être sur le constat à partir duquel elle se construit : l'inefficacité totale des actions de résistance entreprises par les colons d'Internet contre les menaces qui pèsent sur leur espace vital. Et l'enjeu de ce combat n'est pas mince rappelle Solveig Godeluck : car les débats qui concerne Internet ne font que préfigurer ceux que nous connaîtrons tous demain. La Géopolitique d'Internet, publié par les Editions La Découverte est accompagné d'un [site spécifique->http://www.lageopolitiquedinternet.com]
2002-09-23 15:13:11
Reproduction interdite
Cet article est paru le 23 septembre
2002 sur la liste
[BIBLIO-FR->http://www.info.unicaen.fr/bnum/biblio-fr/]. Merci à
Hervé Le Crosnier de nous avoir autorisés à le reproduire ici.
Dans un [article paru le 9 septembre 2002 dans Libération->http://www.liberation.fr/page.php?Article=51845], Nidam ABDI nous incite à repenser le droit d'auteur à l'heure numérique. Louable intention, mais piètres propositions. L'axe général de l'article est le refus des taxes sur les outils de copie numérique privée, taxes décidées en juillet par la commission Brun-Buisson, dans le fil des taxes antérieures sur la copie analogique : taxe sur les photocopieurs et les produits de copie qui permet l'existence du CNL (Centre national des Lettres) ; taxe sur les cassettes audio et vidéo utilisées pour les activités de formation de la profession, .... En clair, l'article incite à refuser l'intermédiation socialisée entre les gestionnaires de droits de copie et les individus souhaitant disposer d'une copie privée, sans que ne soit précisée de solution pour y échapper... n'était-ce un extrait fabuleux d'un juriste qui nous assène que "la rémunération pour copie privée ne devrait pas en principe permettre sans la volonté des auteurs la représentation d'une oeuvre dans un cadre privé". On est absourdi. L'ensemble de cet article fait l'impasse sur la nature du Droit d'Auteur, et sur le statut particulier des oeuvres littéraires et artistiques qu'il vise à protéger. Dès lors, considérant les oeuvres comme des biens marchands traditionnels, "repenser le droit d'auteur" se limite à trouver les solutions techniques pour garantir le paiement à l'acte de lecture. L'appel du pied aux "réflexions" menées aux Etats-Unis sous l'égide de Michael Eisner, patron de Disney, qui souhaite rendre obligatoire les dispositifs anti-copie dans les outils numériques (ordinateurs, mais aussi télévisions numériques, PDA, ...) ne fait que renforcer l'idée que sous la confusion des projets se cache une orientation claire, visant à accroître la marchandisation de la culture. Une orientation opposée aux intérêts globaux de la société. Depuis le premier "Statut d'Anne", en 1710, le droit d'auteur est conçu comme un droit d'équilibre entre les intérêts de la société ("encourager les hommes éclairés à composer et écrire des livres utiles" disait le Statut d'Anne) et ceux des auteurs. Ces derniers disposent du monopole d'exploitation de leurs oeuvres, qui ne peuvent être éditées ou représentées sans leur consentement. Un consentement en général, mais ce n'est pas toujours le cas comme le montrent certains mouvements comme celui actuel des "logiciels libres", échangé contre rémunération. Cette logique de l'équilibre se traduit évidemment dans toute une série de mesures permettant d'assurer la lecture socialisée : existence d'un "domaine public" dans lequel les oeuvres sont placées quelques dizaines d'années après le décès de l'auteur pour garantir leur libre reproduction, constituant ainsi un patrimoine global ; existence d'un droit lié au premier achat, qui permet le prêt ou le don de livres ; droit de citation, de caricature ; et enfin droit de la copie privée. Ces dernières années, ces droits sont remis en cause sous la pression des grandes entreprises et lobbies qui possèdent des "catalogues de droits", et qui prétendent agir au nom des auteurs. Le public crédule croit défendre Flaubert ou le chanteur inconnu, mais se retrouve enrôlé dans la tentative de financiariser la culture menée par Microsoft, Elsevier, Vivendi-Universal et consorts. C'est cette logique libérale qui est dominante dans de nombreuses tentatives actuelles de repenser le droit d'auteur. Dans les principaux projets actuels, il s'agit en réalité de limiter les droits de la société dans son ensemble, les droits du lecteur, les droits du public, au risque de l'accroissement des inégalités d'accès à la culture (voir le débat sur le prêt en bibliothèque, ou la volonté de faire payer les copies dans les écoles) et au risque de l'appauvrissement culturel et scientifique à moyen terme. Mais les calculs économiques des gros actionnaires de la culture pour lesquels les "droits" se confondent avec des portefeuilles de "droits de tirage" (copyright) ne vont pas assez loin pour envisager une société ayant perdu cet équilibre. Equilibre qui a su depuis trois siècles faire exploser la connaissance et élever le niveau culturel global, aidant en cela l'élargissement de la démocratie. Il faut le dire bien fort : la diffusion culturelle est un phénomène social, et ce n'est pas en raison de nouveautés techniques qu'il faut raisonner, mais bien en fonction du devenir souhaitable de ce caractère social de la lecture. Nous entendons ici la "lecture" au sens large d'accès aux oeuvres (lire, mais aussi écouter, assister à un spectacle, voir un film ou une vidéo,...). Oui, la technique change et permet une plus grande fluidité dans la circulation des oeuvres: copie à l'identique à l'ére numérique, nouveaux formats échangeables sur le réseau, interconnexion planétaire,... et démocratisation des accès aux appareils de lecture par la baisse des prix des appareils et leur mise à disposition dans des lieux publics (écoles, bibliothèques,...). Cependant les mêmes techniques de la numérisation et du réseau permettent aussi un suivi plus précis des usages qui sont faits des oeuvres et des pratiques culturelles des personnes, ce qui n'est pas sans danger pour les libertés individuelles. La technique est un janus bifrons, et l'invoquer comme raison essentielle d'une modification sociale est un tour de passe-passe qui consiste à jeter un voile sur la réalité économique et de pouvoir des changements proposés. Que veut-on faire quand on souhaite "repenser le droit d'auteur" ? Favoriser la diffusion culturelle en trouvant des modes nouveaux et diversifiés de financement de la création, ou bien transformer les biens culturels en marchandises dont le paiement serait lié à chaque acte de lecture, suivant le modèle du péage ? Dans la phase précédente, qui a couru durant le 20ème siècle, la rémunération des auteurs se faisait au moment de l'industrialisation de l'oeuvre (impression d'un livre associé au "contrat d'édition", pressage du disque, ...). C'est un modèle qui permet des usages inédits des oeuvres, une circulation de la culture, la constitution de "groupes de lecteurs". C'est ce modèle qui permet par exemple à des groupes d'adolescents d'échanger leurs musiques préférées, pour le plus grand bien "général" de l'industrie de la musique. Celui qui apporte les oeuvres originales qui sont copiées dans son groupe gagne une dimension de prescripteur de musique. Il veut donc être imité par les autres membres du groupe qui apportent à leur tour des oeuvres nouvelles. Ce phénomène fait croître la consommation culturelle en général, et évite, autant que faire se peut, de limiter les achats aux musiques considérées comme "essentielles" à un moment donné dans le groupe d'adolescents. Oui, les adolescents se valorisent par le travail créatif des autres, des auteurs qu'ils arborent comme enseigne. Et alors !!! N'est-ce pas le rôle de l'oeuvre culturelle de favoriser la reconnaissance mutuelle et l'échange social ? N'est-ce pas pour cette raison même que les biens culturels ont un statut différent, un statut garanti par les règles du droit d'auteur qui favorise l'utilisation des oeuvres dans le cadre privé. Certes, quand le cercle privé s'étend à la planète en réseau et que le phénomène de copie n'est plus limité par la capacité à connaitre "intuite personnae" un possesseur d'une oeuvre souhaitée, des problèmes nouveaux se posent. Qu'il faut traiter. Mais avant tout traiter sans remettre en cause l'activité de lecture socialisée qui est si essentielle à la formation culturelle, gage d'usages ultérieurs qui se traduiront à leur tour par l'achat d'oeuvres dans les années à venir. La culture se nourrit de ses propres pratiques même si à première vue celles-ci phagocytent les oeuvres existantes. Cela a toujours été, cela doit continuer pour l'expansion et la démocratisation de la connaissance. Pourquoi s'inquiéter des tentatives libérales de "repenser le droit d'auteur" ? Parce que l'autre aspect du janus bifrons des évolutions techniques est un ensemble de moyens de suivi des usages qui permet de mettre au pas ces usages, de stigmatiser les lecteurs et finalement d'instituer une société de contrôle culturel. Certes nous n'en sommes qu'au balbutiements. Les cédés anti-copie qui ne peuvent ête lus sur des ordinateurs sont encore instables, au point que des majors du disques comme BMG et Universal Music font actuellement marche arrière. Mais la dynamique économique générale va vers un paiement au moment de l'usage, à chaque usage, et pour des usages précis et limités, décrits à l'avance par le producteur culturel. Le tout emballé dans un fichier XML et stocké dans les nouvelles bases de données de certification qui constitueront le futur méga-pouvoir de l'industrie culturelle, ou plutôt de l'industrie de l'entertainement. Or il y a un danger véritable à prévoir, organiser et suivre les usages des oeuvres culturelles. Le danger de limiter l'innovation, de réduire la capacité des oeuvres à souder les groupes humains autour de pratiques sociales de connaissance et de plaisir culturel. Car c'est le deuxième statut de l'oeuvre littéraire et artistique qui est oublié dans la vulgate actuelle sur le droit d'auteur : l'objectif de la culture est de tisser les individus dans des réseaux de pratiques communes. C'est cette externalité positive fabuleuse de l'oeuvre d'art qui la rend si indispensable aux sociétés démocratiques. Oui, il est nécessaire de "repenser le droit d'auteur", mais en fonction de projets sociaux et culturels, et non sous le masque de la technique. Et pour cela, il convient de sortir la lecture socialisée de l'impensé. C'est la lecture socialisée, qui par delà les pratiques individuelles conduit à des fonctionnement de groupe : dans les institutions sociales (écoles, bibliothèques), mais aussi dans les réseaux sociaux des individus. Il y a en ce domaine des pistes à explorer qui sont fort loin du tintammare auquel les méga-compagnies de gestionnaires de biens culturels se livrent. Dans ce débat, qu'il faut convoquer sur la place publique, qu'il faut "re-politiser", il convient de se demander quelle place peut occuper la société civile ? En complément des droits politiques, des droits sociaux et économiques, quel est l'enjeu d'un droit à l'information, à la connaissance et à la culture ? Et dans ce cadre, comment le régime d'équilibre spécifique des Droits d'auteurs peut subsister, c'est-à-dire comment assurer la rémunération équitable des auteurs et de tout l'environnement qui permet la production et dffusion culturelle (l'industrie culturelle, l'éducation, l'édition, les bibliothèques,...) sans léser le bien public global qu'est la connaissance ? Hervé Le Crosnier Caen, le 16 septembre 2002
2002-10-12 23:23:11
Chacun comprend que les réseaux de transmission de données publics (Internet, Minitel, Rita, Transpac, SITA, Swift, etc.) soient devenus fondamentaux à notre mode vie actuel. Chacun peut comprendre que sans eux, notre économie, nos relations humaines, nos emplois, notre vie culturelle, notre santé, notre enseignement, notre information, notre défense, notre futur seraient rapidement et très gravement compromis. Chacun peut ainsi mesurer que leur contrôle et leur protection soit devenus des objectifs stratégiques, que leur maîtrise relève de la souveraineté nationale, que leur développement soit nécessaire au développement durable, et que la paix mondiale puisse dépendre tant de la réduction de la fracture numérique que des équilibres et de la concertation trouvée dans leur gestion internationale. Le 11 septembre 2001 Après le 11 septembre la Maison Blanche a demandé un rapport sur l'état et la sécurité de ces réseaux. Ce rapport est paru le 15 septembre dernier. Il est très clair : ces réseaux dominés par la technologie Internet (TCP/IP) sont une passoire où l'insécurité se développe à une vitesse que l'on pourrait qualifier de foudroyante. Cette insécurité entraîne la prise de contrôle potentielle des systèmes informatiques (piratage), leur destruction (virus) ou leur saturation (DoS). Elle met gravement en péril l'infrastructure locale, régionale, nationale et globale des Etats Unis dans les domaines les plus divers, allant des transports, aux systèmes bancaires, à la défense nationale, la protection des biens et des personnes, la formation et la santé. A la clé il y a des milliers, voire des millions de vies en jeu, potentiellement dans la minute : une menace de niveau nucléaire, sans possibilité de parade puisque le système électrique, les média, les urgences médicales, la navigation aérienne, etc. en dépendent. Il cite des exemples de situations réelles accidentelles, criminelles ou terroristes réellement advenues, et montre que leur succès ou leur conjonction catastrophique ne sont manifestement qu'une question de temps. Cette présentation se fait toutefois encore, selon une vision fondée sur une logique et une réflexion anglo-saxonne des réseaux, exacerbée par le souci actuel de protection du "homeland" nord-américain, où le territoire national inviolable est le centre du monde, protégé par un glacis où se passe la confrontation. Cette doctrine traditionnelle simple est maintenant confrontée à la violation territoriale du 11 Septembre et au caractère virtuel du "champ de bataille" : il n'y a plus de sanctuaire. Le "core" de leurs systèmes informatiques est en prise directe avec l'agresseur (comme un château fort qui n'aurait pas de douves). Ils leur reste donc à prendre la pleine mesure de la globalité de la menace (un e-terroriste n'accédera pas nécessairement Internet à partir de Chicago, comme un pirate de l'air doit le faire). Ceci aura des implications de politique étrangère importantes que mesure manifestement l'auteur du rapport. Il semble qu'il se réserve les deux mois à venir pour se faire imposer par l'opinion démocratique (à travers une série de meetings dans les grandes villes), le besoin d'une défense globale contre un danger global. L'Iraq tombe (?) à point nommé comme exemple de risque distant; il sert à point nommé d'exemple pour une méthodologie de prévention globale. La sécurité de l'Internet Cette évaluation est exacte, mais pour bien l'analyser il faut comprendre que l'Internet n'est pas un réseau structuré comme le téléphone, Transpac ou Swift, avec sa propre sécurité propre. Internet est un club ouvert à tout ordinateur s'interconnectant librement. Il est géré sous la forme de deux annuaires : les numéros des machines (adresses IP) et les noms des applications qu'ils hébergent (DNS, le système des noms de domaines). Il est d'ailleurs défini comme tel par la loi des Etats-Unis (code des Communications - 47 USC 230 (f) (1) "le réseau informatique international des réseaux tant fédéraux que non fédéraux interopérables sous commutation de paquets". Ceci a la particularité de placer l'ensemble de l'Internet - aux yeux de la législation américaine - sous la juridiction du Congrès. Sa seule sécurité provient de la manière dont sont gérés ces deux annuaires, en particulier le DNS qui permet une gestion ou un blocage dynamique (non absolu) des accès. La protection des marques commerciales dans le nommage Internet, la sécurité et la stabilité du réseau et la rentabilité commerciales des entreprises clé qui le co-gèrent, font de ce DNS le cœur des préoccupations du gouvernement nord-américain. Elles sont administrées par une société non-commerciale sans membre de droit californien : l'ICANN. Les gouvernements étrangers y ont un droit de conseil à travers le GAC (Conseil Consultatif des Gouvernements). Son rôle est en fait, à travers le maillage de contrats complexes auxquels se refusent la plus part des opérateurs nationaux et tous les Européens, est de faire rentrer dans les faits la doctrine codifiée plus haut. L'importance du nommage, des langues locales, et de ses retombées économiques, culturelles et sociales, le blocage résultant d'innovations techniques et sociétales comme la sur-influence stratégique ainsi obtenue par la Etats-Unis par la dominance de l'ICANN sur ce DNS, créent des tensions grandissantes. Ces tensions ne pourraient que s'accroître si comme le laisse entendre le DNS et les protocoles d'accès devraient être revus dans le seul cadre du projet nord-américain. Il y a trois orientations possibles pour la sécurité du DNS : la centralisation actuelle qui est la plus vulnérable mais la plus avantageuse pour les Etats-Unis; le cloisonnement qui réduit les risques globaux mais augmente les contraintes et qui laisse chaque partition vulnérable; la duplication parallèle avec contrôle mutuel qui réduit les risques au maximum sans contrainte pour les utilisateurs, mais permet au contraire la fourniture d'avantages sélectifs aux utilisateurs. Il est important que cette troisième voie se mette en place peu à peu car elle permettra, de façon naturelle et sans heurts, un rééquilibrage de la gouvernance du DNS et de l'Internet, dans la concertation; sauf si elle était organisée sous la seule direction de l'ICANN. Le plan de la Maison Blanche et nous Le plan de la Maison Blanche que propose Richard Clarke est simple : prendre les moyens nécessaires pour sécuriser les Etats-Unis et ses ordinateurs, et de le faire. C'est la formule "un problème est fait pour être résolu" appliquée au premier degré. La manière proposée est certainement adéquate : une coordination fédérale d'un effort des forces économiques directement menacées, ou pouvant tirer un large profit de la réponse développée. L'on travaillera à défendre sa peau, celle de sa famille et des siens, à préserver leur mode de vie, et on paiera et l'on fera gagner l'argent qu'il faudra pour y parvenir. Ce plan n'est ni altruiste ni généreux. Ce n'est pas un plan Marshall d'après guerre: c'est un plan de défense des Etats-Unis. Le réseau est mondial. Nous (étrangers) sommes cités que comme des source d'idées à ne pas négliger; une menace potentielle par notre désorganisation. L'Union Internationale des Télécommunication (IUT) est citée, mais l'on comprend qu'elle est d'abord un moyen pour nous coordonner, comme l'est (avec le partage d'aucun pouvoir sur le DNS) le comité consultatif gouvernemental de l'ICANN : le GAC. Nos ressources, nos chercheurs sont certes intéressants au sein des équipes de R&D de l'Internet, mais nos Etats ne sont pas les partenaires du travail à entreprendre. Nos intérêts ne sont pas considérés : ceux des Etats-Unis à travers le monde sont listés (il n'y en a pas en Afrique), ce sont eux l'"international". Nous ne sommes pas dans l'arche de Noé. Nous nous trouvons donc à une croisée des chemins. 1. ou nous laissons faire, et la technologie Internet sera totalement revue, professionnalisée, sécurisée par des laboratoires de recherches nord-américains sous contrats, exploitant la coopération de nos propres chercheurs à travers les structures techniques de l'ISOC. Des licences s'appliqueront de plus en plus, pour des raisons officiellement sécuritaires puis seulement commerciales. Le leit-motiv du parapluie commun s'appliquera "nous nous protégeons, nous pouvons aussi vous protéger, mais selon nos solutions. Après tout le Net c'est nous qui l'avons développé". Ceci conduira à un réseau à deux vitesses : "Nord" dépendant fortement des USA, "Sud" en GPL peu compatible et ouvert; avec tous les déséquilibres, les vindictes et les instabilités qui en résulteront et ne profiteront à personne. Le "digital divide" deviendra le "digital gap". 2. ou nous disons, et surtout nous faisons en sorte, que cette révision - qui est nécessaire - soit universelle. Cela signifie qu'elle soit non seulement engagée avec nous, mais encore qu'elle soit ouverte à tous. Certes pour que la dominance nord-américaine ne nous place pas en dépendance, mais parce que c'est dans une concertation responsable que l'on trouvera les meilleures stabilité, sécurité et l'innovation. Souvenons-nous que c'est Louis Pouzin et l'INRIA qui ont apporté les zones de l'Internet, le protocole qui le fiabilise, voire un budget à un moment critique initial. Souvenons-nous que nous avons créé le nommage ensemble (Europe et Etats-Unis), que Transpac et le Minitel sont français, le Videotext européen, que 'ISO résulte des travaux de l'IUT. Souvenons surtout ... ... qu'à réseau global, il faut nécessairement un effort de développement global. Nous ne désirons être ni des ennemis, ni des troupes auxiliaires; ni des clients achetant leur sécurité. Nous désirons être les partenaires d'un e-OTAN dont la mission sera, selon l'heureuse formule de G.W. Bush, de défendre, de préserver et d'étendre la paix. Mais une paix définie en commun, comme le lui réclamait le Maire d'Hiroshima. Une paix reposant sur l'expérience et les apports de chacun. Pour cela nous devons mener trois types d'actions. Une action gouvernementale, un effort technique et une action au sein de la gouvernance de l'Internet. L'action gouvernementale est engagée par les positions au sein du GAC, par les relations bilatérales, par l'Union Internationale des Télécommunications. Elle a déjà amené des résultats, mais nous sommes là dans les principes généraux et le moyen/long terme, une fois l'Internet reconstruit par les Etats-Unis, SAIC, Verisign, Microsoft, AT&T, IBM et WorldCom, comment le gérerons nous. Il importe que nous soyons comptés parmi ces ténors de l'Internet au sein de la gouvernance. L'effort technique est difficile à gérer pour notre planification européenne. L'infrastructure de l'Internet est légère, dominée par des sociétés nord-américaines ou Microsoft. Un déploiement industriel et télécom direct est nécessaire mais lourd à mener dans le contexte technique actuel. Par contre nous avons sans aucun doute un très fort potentiel dans les retombées industrielles d'applications nouvelles du réseau, qui seraient à notre initiative et permises par une action profonde au sein de la gouvernance, en particulier dans le domaine de l'Internet de proximité et du téléurbanisme (Webs de France), des communautés entrepreneuriales, des web services, des outils de développement durable, des portails personnels (uPorlatl, de l'Education Nationale) etc. C'est jouer là vers le PC virtuel, le système d'exploitation réseau, etc. nous plaçants directement en concurrence favorable avec Microsoft. Pour soutenir cette action politique, pour aider un effort industriel concerté, il nous faut participer à l'effort de la gouvernance "à la Internet", et même le conduire dans les domaines où nous sommes plus aptes à le faire. Pour cela il faut un projet acceptable, au cœur du système, qui soit compréhensible, réaliste et concret pour des gens qui se sentent en guerre, et qui se lancent dans un véritable projet "Manhattan II" ou "Apollo II". Nous avons pour cela 15 jours. 15 jours, car les Etats-Unis on engagé très vite après le 11 septembre l'action de réflexion et de préparation concernant leur structure de riposte, et parce qu'ils ont pris plus que nous la mesure d'une situation dangereuse qui se dégrade rapidement. Richard Clarke (M. CyberSécurité du "Homeland" et de la Maison Blanche) sait qu'il aura le soutien de chacun à ce sujet. Chacun peut en effet mesurer le taux des attaques que subit son propre PC dès qu'il se connecte, et soutiendra celui quiconque luttera contre cette augmentation non seulement de la menace mais aussi de l'agression. Il convient de noter que même s'il y avait là une part de dramatisation, cette dramatisation serait, pour nous, une composante de la situation qu'il nous faut prendre en compte. Le processus de redéploiement de la gouvernance de l'Internet est pratiquement terminé : - Il passe par l'ICANN (organisme chargé par le gouvernement américain de privatiser/gérer sa participation dans l'Internet). La reconstruction de l'ICANN (opposée par la plus part des étrangers) sera bouclée le 27 octobre, lors de sa réunion de Shanghai. La transition sera achevée d'ici la fin de l'année (pour une bonne concertation). Son rôle est de gérer le "core" du réseau, le château-fort du "homeland" américain : le DNS et ses aspects sociétaux. - Il passe par la finalisation du rapport CyberSpace Security de Richard Clarke, évoqué plus haut, qui se fera sans doute avant la fin de l'année. La Maison Blanche animera une reprise en main totale de l'internet, conformément à la loi, sous le contrôle du Congrès. La priorité est à la sécurisation des protocoles d'accès et par là de l'architecture des systèmes. - Il passe par la stabilisation par "MicroSign" (accord Microsoft/VersiSign, le gestionnaire des ".com/.net") autour des noms de domaines "internationalisés", visant grâce à une complexité technique artificielle à la prise en main du DNS en langues étrangères et donc de cette URL (la ligne de commande internet que chacun clique) qui devient peu à peu la "télécommande de notre quotidien". - Il passe sans doute par la financement stable et important des structures de la dominance par le transfert de la gestion ".org" à l'ISOC (18 millions de dollars annuel). L'ISOC réunit les grands partenaires de l'Internet - principalement nord-américains - hors de tout contrôle des utilisateurs qui ne sont plus membre depuis cette année de ses chapitres nationaux.. Ceci créera des "avantages acquis pour les Etats-Unis" qui seront sans doute irréversibles avant longtemps. Les conséquences si nous ne le faisons pas Si nous laissons le débat au plan politique et les projets industriels se conduire seuls et ne participons pas de façon significative au tissus de la gouvernance ICANN/l'IETF/IAB, rien ne changera beaucoup dans notre vie de tous les jours. Nous serons seulement sous un contrôle pratique accru, des Etats-Unis (y compris en terme de sécurité : la protection du "Homeland" est la priorité). L'accès à l'information sera de moins en moins partagé, sans doute sous péréquation sociale mondiale. Nous seront de plus en plus soumis à un profiling sécuritaire et commercial basé sur des données privées dont nous ne seront plus maîtres. Notre formation, notre santé, dépendra de plus en plus de solutions et de coûts que nous ne contrôlerons pas. Nous irons de plus en plus travailler dans les laboratoires américains. Nos lois et nos usages, notre politique étrangère, puis domestique, influencé par le moyen de leurs application pratiques devront peu à peu se conformer aux décisions du Congrès. Bien des innovations techniques et sociales originales de la France (Minitel) et de l'Europe (subsidiarité) seront reléguées pour des décennies, jusqu'à être réinventées et sans doute proposées "sous licence". Il y aura des difficultés accrues pour l'exception culturelle, la langue, la culture, … Les schéma de notre vie locale, associative, familiale fortement dépendant des applications en réseau seront influencés : il y a deux ans 60% du trafic Web allait dans le monde vers 110 sites, cette année vers 16 seulement. Educause délivrera nos diplômes de référence comme le fait en partie MS. Les irritations personnelles, politiques et religieuses iront s'accroissant. Wall Street sera un peu plus le centre du monde, et sans doute son centre de catastrophe - le 11/9 a montré ce qu'il en est ou ce qu'il peut en être. Cela continuera simplement une tendance que nous aimerions corriger et même améliorer dans l'intérêt commun par nos apports européens et la prise en compte des apports d'autres cultures. Pouvons-nous le faire ? Oui. C'est est simple, car il ne s'agit pas de s'opposer à un effort technique majeur et nécessaire, mais d'y coopérer pour qu'il puisse - tout à fait naturellement - s'équilibrer. Cette réponse viendra nécessairement car il n'est pas possible que toute la planète dépende même dans le moyen terme d'une pensée technique, légale, sociale, culturelle unique. Cette réaction est d'ailleurs souhaitée par nos amis américains. Mais aujourd'hui, ils sont confrontés à problème grave et urgent, qu'ils s'évaluent les seuls à avoir évalué, à vouloir, et donc à pouvoir traiter correctement. La question pour nous est le coût, la rapidité et la difficulté à faire reconnaître cette participation et de ce qui se passera (ou ne se passera pas) avant qu'elle soit reconnue. Au cours d'un récent échange rapide avec un responsable européen nous les avons évalués. - avant le 20 octobre 2002 : gratuit, immédiat, de soi. - avant le 31 décembre 2002 : cher, une ou plusieurs années, à négocier - après : très cher; une dizaine d'années, à conquérir. Il faut donc des projets centraux à l'Internet, engagés de longue date, pouvant être annoncés d'ici au 20 septembre et en pleine opérations d'ici la fin de l'année. Il en existe un. Il s'apelle "dot-root". Il est prêt. Il vise un impact fondamental sur l'Internet. Avec un peu d'aide il sera pleinement opérationnel et documenté le 15 septembre. la proposition dot-root Le fonctionnement ordinaire de l'Internet repose sur le système de gestion de l'annuaire des noms de domaine (DNS) qui fournit la correspondance entre les noms de domaine et le numéro des ordinateurs où ils sont hébergés. Le cœur du DNS est constitué de 13 serveurs, fournis et opérés à titre bénévole, pour diffuser le premier niveau de cet annuaire : les numéros des serveurs offrant les annuaires des suffixes (".com", ".net" etc..). Le document ICP-3 documente la doctrine de l'ICANN concernant la gestion de ce système. Il montre que l'expérimentation par la communauté des utilisateurs est de la nature même de l'Internet et prévoit qu'elle pourra conduire à une gestion plurielle du système racine. "dot-root" répond à cette préoccupation. Il consiste en l'organisation bénévole au sein de la communauté des utilisateurs Internet d'un ensemble d'au trois systèmes de serveurs racine opéré totalement en parallèle, pour l'étude, le développement, la validations, le déploiement et l'analyse en vraie grandeur de projets expérimentaux concernant le DNS, de ses extensions et de ses implications sociétales. Cette plate-forme est à la disposition des chercheurs et directeurs de projets de développement, des centres de formation et des services de télécommunication, des centres d'études sociétales publiques et privées, des gouvernements et des organismes internationaux, et des opérateurs Internet et des Etats en cas de situation exceptionnelles. Intérêts de la proposition dot-root Il n'existait pas de plate-forme de test en grandeur réel du DNS. Les évolutions de charge, les préoccupations nouvelles (sécurité, support du téléphone, adresses IPv6, noms de domaines multilingues, annuaires; services étendus) réclame un tel outil et fond de la proposition dot-root un outil certainement utile. La gestion concertée de systèmes de serveurs racine en parallèle est une nécessité : dot-root l'organise dans un contexte international ouvert - y compris aux pays en développement. Cet un atout pour la Communauté Internet Globale, au lieu d'un projet purement nord-américain sans doute à l'étude. Des gestionnaires de serveurs des cinq continents on signifié leur intérêt. Cette proposition est fondée sur l'expérience acquise par trois opérateurs de root expérimentaux européens qui ont déjà une pratique et des outils d'opérations communes. Les premiers "drafts" IETF son en cours de préparation. La gestion concertée de la plate-forme et sa séparation des projets de développement laisse les chercheurs totalement libres et permet une discussion des projets totalement indépendante, propre à l'éclosion de l'innovation. La constitution d'un comité de pilotage pour l'orientation de la recherche et d'un comité consultatif ouvert à tous les professionnels reconnus des réseaux devraient donner au projet une image de sérieux. La première nécessité de "dot-root" est la gestion d'un fichier international des TLDs à jour. Le but est de permettre aux gestionnaires de TLD de le gérer expérimentalement en concertation. Si ce simple projet réussit et se stabilise, l'Internet aura changé de nature. Jamais, peut-être, "autant n'a dépendu d'un aussi petit budget" (Churchill). Annexe Description de dot-root Pré-opérations au 15 octobre 2002 Le système dot-root comprend : - un moniteur autonome des systèmes root AIS programmes rodés depuis plus d'un an. Il rend compte de la situation des serveurs des différents clusters. - 3 groupes de serveurs racines parallèles gérés séparément par leur administrateurs, selon les règles propres à chaque groupe de gestionnaires de serveurs racine bénévoles. - un de ces système sert de référence et ne supporte que le ficher racine de l'ICANN (il est le premier système de secours pour les opérations réelles) ORSN 4 machines en ligne - les autres systèmes doivent supporter les données du fichier racine de l'ICANN. Boroon 3 machines en ligne CINICS 2 machines en ligne une machine en préparation Ils peuvent supporter des espaces de nommage expérimentaux (exTLD). Ces espaces de nommage : - sont organisés de manière non lucrative - ne sont pas destinés à perdurer hors du cadre de dot-root - sauf selon les règles établies par la communauté Internet. - sont soumis aux conditions d'enregistrement d'une charte d'expérimentation - n'offrirent aucune garantie de qualité de service - voient l'enregistrement de nom de domaine par le Secrétariat de dot-root Les espaces en cours d'installation sont : - .uni projets DNS et sociétaux universitaires - .telco projets de test d'opérateurs télécoms - .large projets de test par la communauté @large - .wfr projet sociétal Webs de France - un site commun d'administration et de documentation sous http://dot-root.com - une gestion collégiale des projets entre les gestionnaires des serveurs de nom bénévoles. Les projets sont discuté sur la liste générale de dot-root ou sur les listes des espaces de nommage expérimentaux. Ils sont ensuite revus par les membres d'un comité consultatif qui cherche à aider leur cadrage. Ils sont enfin adoptés par le collège des membres après avoir obtenu le support des membres techniquement nécessaires. - les projets et leurs résultats sont documentés auprès de l'IETF ou des organismes ad-hoc (WIPO, WTO, etc..) - le secrétariat, la gestion des sites et des listes de discussion, l'organisation de rencontres de travail, la gestion des enregistrements dans les espaces de nommage de test sont assurés par des organisations appointées par le conseil des administrateurs des systèmes racine. - un comité de pilotage de 12 membres est sélectionné par les membres, les administrateurs et le comité consultatif à raison d'un tiers chacun : son rôle est d'animer la communauté Internet dans son utilisation du système dot-root et l'évolution du DNS. Objectifs d'ici la fin 2002 - stabilisation du site dot-root en Anglais - listes de diffusion en place - stabilisation des systèmes d'administration des groupes de serveurs racine - test du monitoring - implémentation des système de collecte des données - implémentation du système de collecte de cotisations pour le Secrétariat - installation des premiers ULD de test - addition de serveurs sur Boroon et Cinics - documentation IETF du système - sélection du comité de pilotage - invitations initiales au comité consultatif - présentations d'information du système - mise en place des ULD universitaires et télécom - collecte de des premiers projets et présentation au comité consultatif - information des ccTLDs et test de collecte des données - recheche de financement sous forme de sponsoring et mission de conseil - promotion des ULD pour y trouver un financement annexe stable - mise en place de e-zine news@dot-root - inventaire de l'état du système pour la fin de l'année - préparation d'une réunion internationale dot-root pour février 2003
2002-11-24 12:06:17
Un parcours citoyen et un bombolong
Réseau Citoyen
est une lointaine conséquence de l'organisation du parcours citoyen
d'Ixelles qui eut lieu en juillet 2000.
Suite à l'ouverture de
sa maison aux visiteurs désireux de débattre des questions de
l'informatique, des nouvelles technologies de l'information et de la
communication (NTIC), Marie Anne croisa Ivan et Jean-Charles. En
discutant, ils en vinrent à vouloir déployer des réseaux
informatiques en brousse dans le cadre de projets de coopération
durable. De cette discussion naquit
[Bombolong->http://bombolong.aisbl.org/index.php?BienVenue].
Bombolong est aujourd'hui une association belge désireuse de
promouvoir l'utilisation en Afrique de réseaux sans fil à partir du
recyclage de matériels informatiques déclassés en Occident. Et
pourquoi pas en Occident même ?
[RéseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
est une émanation de cette volonté de relier les gens entre eux. Le
bombolong des Joola est « un tambour fait d'un tronc d'arbre creusé
par une mince fente et servant à la transmission de messages de
village en village et à rythmer des danses de réjouissance »,
selon la définition qu'en donne Ousmane Sow Huchard dans son Aperçu
de la musique sénégalaise. Depuis, par l'intermédiaire de
RéseauCitoyen, Bruxelles est devenu un lieu collaboratif
d'expérimentation sur les technologies de réseaux sans fil
([WiFi->http://www.reseaucitoyen.be/index.php?WiFi], wireless) et
ces expériences tendent à prouver qu'il est aujourd'hui possible de
mettre en place des outils de communication informatiques (très)
performants à (très) faible coût. -Wikiwikiweb
Le site
internet [http://reseaucitoyen.be->http://reseaucitoyen.be/]
permet de suivre l'état d'avancement de ces expériences et d'y
participer. C'est un site un peu particulier car il s'agit d'un
[wiki->http://www.reseaucitoyen.be/index.php?WikiWikiWeb]. Cela
signifie que tout le monde peut contribuer facilement à sa
publication (il ne faut pas connaître l'HTML). Il est donc
rapidement devenu notre encyclopédie de savoir partagé. S'y
retrouver n'est pas évident car il est vaste (en août 2002, le wiki
était constitué de 470 pages reliés par 2415 liens), il change
tous les jours (de nouvelles pages, des modifications, des ajouts,
preuves de la dynamique actuelle de
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen])
et il est autogéré.
L'historique se trouve sur
[http://reseaucitoyen.be/indexphp?RecentChanges->http://reseaucitoyen.be/index.php?RecentChanges]
et l'index des pages
[http://reseaucitoyen.be/index.php?PageList->http://reseaucitoyen.be/index.php?PageList].
-Imaginez une ville
Imaginez alors une ville où les
habitants peuvent communiquer grâce à un réseau libre d'accès,
sans obligation de contrôle et de gestion par un organe
centralisateur, sans restriction géographique ni zone d'exclusion,
sans frais d'usage (mis à part l'électricité), sans abonnement...
Or le coût pour rejoindre un tel réseau est comparable à celui
d'un GSM milieu de gamme (150~350 euros).
Pour y arriver, des
individus déploient spontanément chez eux un PC (souvent récupéré
dans les poubelles de grosses entreprises) équipé d'une carte
[WiFi->http://www.reseaucitoyen.be/index.php?WiFi] a laquelle on
raccorde éventuellement une antenne
[HomeMade->http://www.reseaucitoyen.be/index.php?HomeMade]
(bricolée maison). Avec ce type d'équipement,
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
a réalisé des connexions entre des ordinateurs distants d'une
vingtaine de kilomètres. Une ou plusieurs cartes ethernet classiques
peuvent alors assurer une interconnexion entre les parties filaires
et sans fil. L'utilisation d'un système d'exploitation libre et
gratuit ([Debian
GNU/Linux->http://www.reseaucitoyen.be/index.php?LiNux]) permet
d'atteindre ces objectifs de liberté de diverses manières.
Chacun
de ces PC devient alors un "noeud" (node) du réseau en
gestation. Tant que le réseau n'est pas connexe, il n'est pas...
Pourtant il faut passer par là. Au début, les noeuds sont éloignés
les uns des autres et ils ne se voient pas (c'est une contrainte
technologique, les antennes doivent "se voir") et donc ne
communiquent pas. Puis, au fur et à mesure que de nouveaux noeuds
s'allument, les premières connexions intermittentes surviennent.
Ensuite la première connexion "permanente" s'établit.
Suivie d'une autre, dans un autre quartier de la ville. Puis d'une
autre, et d'une autre encore et d'un "brin" à plusieurs...
Des segments qui peu à peu fusionnent en une pelote autogérée.
Techniquement, le routage (acheminement des données jusqu'à
destination le plus rapidement possible) des paquets d'information
(au sens TCP/IP) se fait grâce à l'utilisation du protocole
[AODV->http://reseaucitoyen.be/index.php?aodv]. C'est un protocole
de routage conçu pour des réseaux sans fil multi-hop en mode
ad-hoc. Multi-hop signifie que les paquets transitent par des
routeurs intermédiaires avant d'atteindre leur destination. Ad-Hoc
indique que le réseau est exclusivement composé de routeurs égaux
entre-eux. Une particularité de tels réseaux est la possible
réutilisation du même spectre simultanément en deux zones du
réseau pour transmettre de l'information différente.
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
est en train de prouver que ce rêve peut être une réalité.
Copyleft : cette oeuvre est libre, vous pouvez la redistribuer
et/ou la modifier selon les termes de la Licence Art Libre. Vous
trouverez un exemplaire de cette licence sur le site
[CopyLeft->http://www.reseaucitoyen.be/index.php?CopyLeft]
Attitude [http://www.artlibre.org/->http://www.artlibre.org/]
ainsi que sur d'autres sites. -La troisième vague
L'enfance
d'un tel réseau passe nécessairement par une phase où les
participants sont principalement des techniciens (Early Adopters). La
seconde vague inclura les copains des premiers ;-) , l'un ou l'autre
'utilisateur avancé', des curieux en quête de savoir, certains
acteurs du renouvellement de la pensée sociale et économique,...
La seconde vague est en marche et le réseau s'étend
lentement, mais sûrement.
La troisième vague inclura
peut-être les pouvoirs publics et les décideurs quand ils auront
pris conscience de l'intérêt économique et social de permettre un
accès de masse aux technologies de l'information et de la
communication. -Le plus difficile
Le plus difficile est
de convaincre le public de penser et d'agir par lui-même. En effet,
la particularité d'un tel réseau est qu'il n'y a, stricto sensu,
pas d'opérateur, donc pas de centralisation (dans les couches
réseau), donc pas de cellules, donc pas de point d'accès (Access
Point).
Chaque élément technique ajouté au réseau accroît
sa couverture, sa bande passante utile, son accessibilité, sa
réalité, sa pérennité,... pour cela chaque appareillage, et donc
chaque participant, joue le même rôle. Comme il s'agit d'un réseau
de citoyens, l'appareillage est un ordinateur quelconque (du pda au
mainframe) équipé à la norme 802.11b (wifi), chaque appareillage
étant l'égal ("peer") des autres. La topologie ne peut
donc qu'être "peer-to-peer" (liaison poste à poste par
opposition au modèle client-serveur; dans ce type de réseau les
ordinateurs sont connectés les uns aux autres sans passer par un
serveur central), comme au début de l'internet.
Chaque
participant devrait faire tourner le protocole
[AODV->http://reseaucitoyen.be/index.php?aodv] sur sa machine et
c'est en fait la seule chose à faire au niveau logiciel pour
participer à
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen].
L'utilisation de Linux facilite néanmoins grandement cette
implémentation et le passage au monde du logiciel libre est donc
conseillé. De ce fait, chaque personne voulant apporter de nouvelles
fonctionnalités au réseau (http, mail, jabber, irc, ftp,...) peut
le faire très aisément et sans coût de connexion. -Motivation et
participation
Les motivations sont diverses et les
niveaux de participation sont variés car chaque individu décide de
son implication en fonction de ses buts, de ses compétences, de son
temps libre, de ses envies...
C'est donc la carte de la
combinaison motivation/compétences/participation/responsabilité qui
est jouée et nous voyons le réseau évoluer comme un cristal:
d'abord lentement et hasardeusement autour de quelques germes,
ensuite rapidement en déployant une structure composite qui se
solidifie. De nouvelles compétences et motivations viennent
compléter celles des techniciens. Ce sont des pédagogues, des
graphistes, des documentalistes, des acheteurs... De nouvelles pistes
de recherche sont envisagées telles que les sources alternatives
d'électricité (autonomie), les possibilités de
construire/d'assembler en petites séries (réduction des coûts),
une meilleure communication vers l'extérieur (accès plus clair à
l'information, contenus moins techniques),... -Des résultats
Les
résultats obtenus en peu de temps grâce à la démarche
collaborative de
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
parlent d'eux-mêmes:
Comme cité plus haut, des participants
au
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
ont déjà réalisé une connexion de 18 km avec des antennes
[HomeMade->http://www.reseaucitoyen.be/index.php?HomeMade] (boîte
de conserve, cornet tetrapack, guide d'ondes). Les taux de transferts
obtenus ont été de 1,5 à 4 fois supérieurs à l'ADSL, le tout
dans le respect des normes européennes et belges. Le record du monde
de distance est aujourd'hui détenu par des espagnols avec une
connexion de 70,5 km obtenue sans amplification et avec des antennes
commerciales.
Lorsque
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
couvrira suffisamment toute la ville, nous n'utiliserons plus que les
antennes incorporées dans le châssis des cartes
[WiFi->http://www.reseaucitoyen.be/index.php?WiFi]. A ce moment,
chaque hop (saut) sera court (de l'ordre de quelques
dizaines/centaines de mètres). De cette façon, nous espérons
pouvoir réutiliser le spectre simultanément en plusieurs endroits
de la ville sans que différentes "cellules" n'interfèrent.
-Avec cette technologie...
Avec cette technologie,
Bombolong peut connecter en un réseau local à large bande (4 Mbps
soit 4 fois plus que l'adsl) les différents hôpitaux d'un district
hospitalier de brousse. Ceci permettrait, avec un peu de matériel,
de transmettre les images d'un dossier ou d'un patient d'un point du
district à celui où se trouve la personne qualifiée et peut-être
ainsi économiser de longs, coûteux et difficiles déplacements,
tant pour les patients que pour les praticiens.
Avec cette
technologie, on peut relier entre-eux les bâtiments d'un campus, ou
d'une école, là où précédemment les coûts de câblage étaient
prohibitifs. Il suffit en effet, d'un routeur
[WiFi->http://www.reseaucitoyen.be/index.php?WiFi] de part et
d'autre, d'un lien pour relier entre-eux deux bâtiments. Ce sont
souvent les tranchées ainsi evitées qui détermineront le choix de
la technologie sans-fil.
Lorsque ReseauCitoyen couvrira
fortement toute la ville, nous n'utiliserons plus que les antennes
incorporées dans le châssis des cartes WiFi. A ce moment, chaque
hop sera court (de l'ordre de quelques dizaines/centaines de mètres).
De cette façon, nous espérons pouvoir réutiliser le spectre
simultanément en plusieurs endroits de la ville sans que différentes
"cellules" n'interfèrent.
Avec cette technologie, et
le savoir-faire que
[ReseauCitoyen->http://www.reseaucitoyen.be/index.php?ReseauCitoyen]
tente modestement (mais plutôt efficacement) de développer et de
partager, on peut réduire dès aujourd'hui cette fameuse fracture
numérique à l'aide de coûts d'implantation et d'utilisation
dérisoires et donner ainsi accès à des outils d'apprentissage et
d'échange d'information à de nombreux oubliés de ces fameuses
NTIC. Notice concernant l'utilisation de ce texte et des images
présentes sur ce site.
Ce texte est publié sous licence
[OpenContent->http://www.opencontent.org/opl.shtml].
LOGO :
Copyright © 2002 www.reseaucitoyen.be et Jean-Sébastien
Rousseau-Piot Copyleft : cette oeuvre est libre, vous pouvez la
redistribuer et/ou la modifier selon les termes de la Licence Art
Libre. Vous trouverez un exemplaire de cette licence sur le site
[CopyLeft->http://www.reseaucitoyen.be/index.php?CopyLeft]
Attitude [http://www.artlibre.org/->http://www.artlibre.org/]
ainsi que sur d'autres sites.
Ce logo est donc clairement sous
[CopyLeft->http://www.reseaucitoyen.be/index.php?CopyLeft] et peut
donc être publié dans un journal pour autant que les mentions
reprises ici en italique y figurent
Signataires
[JeanCharlesdeLongueville->http://www.reseaucitoyen.be/index.php?JeanCharlesdeLongueville]
EJ
Christophe Billen
[Jean-Sébastien
Rousseau-Piot->http://www.reseaucitoyen.be/index.php?JeanSeb]
[NicolasVillatte->http://www.reseaucitoyen.be/index.php?NicolasVillatte]
[KimDeBiber->http://www.reseaucitoyen.be/index.php?KimDeBiber]
[IvanMarkoff->http://www.reseaucitoyen.be/index.php?IvanMarkoff]
2002-10-18 11:12:23
Jean-Philippe Pastor dirige Phonereader, une société de distribution de contenus sur des "smartphones", engins hybrides entre le portable et l'agenda électronique utilisant la norme GPRS. Venu du monde de l'édition traditionnelle, il nous livre ici une interview réalisée par Fabrice Chrétien, où il fait le point sur la grande redistribution des cartes qu'entraîne la numérisation du texte dans la chaîne de production et de distribution. Où en-est selon vous le livre électronique ? Sur l'objet en lui-même, je n'en sais rien. Mais la question de la machine est-elle déterminante ? C'est une affaire de constructeur, voire d'opérateur ; certainement pas d'éditeur : une maison d'édition numérique est nécessairement multi-support. C'est évidemment le contenu qui compte, pas le contenant. Tous les fichiers doivent être accessibles sur différents supports au même moment : des ordinateurs portables, des tablettes numériques, des e-books ou des assistants personnels et maintenant des « smartphones ». Le grand changement en cours est que ces appareils sont désormais constamment connectés. Ils intègrent tous des modems téléphoniques haut-débit et ils n'ont pas fini d'évoluer ! En conséquence, ils appartiennent au monde des mobiles multimedia qui n'ont plus besoin d'être « rechargés » en information par un recours systématique au PC. Les machines sont entièrement autonomes, accédant à l'information directement en ligne par des réseaux sans fil, ce qui change considérablement la donne. Qu'est-ce que cela change d'être toujours en ligne plutôt que d'avoir accès à un fichier préalablement téléchargé ? Le changement d'environnement est total. D'abord pour le lecteur qui évolue dans un système ouvert et qui est maintenant capable de lier un texte à n'importe quelle base de données en dynamique sans être cloisonné à l'intérieur d'un seul et même format de lecture. D'autre part en amont, l'éditeur est totalement rassuré du point de vue des droits. Il n'a plus peur du piratage : dans la mesure où tous les fichiers sont installés dans les serveurs en téléconsultation et non plus téléchargés dans les terminaux des utilisateurs, le copyright est désormais contrôlé. A la différence du web, l'éditeur numérique sur support mobile sait en temps réel qui est connecté et qui ne l'est pas. L'abonné est repéré grâce à l'utilisation qu'il fait de sa carte sim telecom comme avec son téléphone portable. Enfin la facturation est considérablement simplifiée. Sans conteste, nous sommes passés en quelques mois du modèle de l'Internet fixe où le gratuit prédomine à celui de la téléphonie mobile où le forfait est la règle. Les modèles économiques liés au développement du livre numérique ne semblent pourtant pas très au point... Aujourd'hui le numérique sort à peine de l'âge de Bouvard et Pécuchet dont l'ambition initiale était de copier/coller toutes les connaissances sur des supports dématérialisés. On pensait naïvement pouvoir revendre sur le réseau ces fichiers-lies moyennant un prix de téléchargement comme s'il s'agissait d'un ouvrage physique en librairie. Cette façon de voir n'a aucun avenir. Mais alors que proposer à la place ? Peu à peu, l'éditeur numérique comprend que l'échange économique se situe plutôt au niveau de l'accès aux services. Ce que l'on met en avant dans la chaîne de la valeur aujourd'hui, c'est le droit d'accès plutôt que le « contenu-produit ». L'édition numérique fonctionne en réseau et les échanges marchands commercialisent des droits d'entrée à un certain nombre d'applications éditoriales durables dans le temps. L'objectif des éditeurs n'est donc plus de vendre un livre comme un produit fini que l'on destine à un acheteur-lecteur (avec lequel les relations se concentrent sur l'acte d'acquisition pour ne plus jamais le revoir), mais de l'intéresser à des services qui doivent le satisfaire le plus longtemps possible. En conséquence, le lecteur n'est plus un acheteur, mais un abonné à des applications multiples : prestations de personnalisation en ligne, location de fichiers à consulter sur le serveur sans obligation de téléchargement, hypertextualité des oeuvres liées à des bases de données au choix (dictionnaires, encyclopédie, lexiques...), synchronisation des données pour son propre support mobile, messagerie intracommunautaire etc. C'est donc la capacité à rester connecté avec ses abonnés qui détermine la richesse économique de l'éditeur. Ce n'est plus l'accumulation d'un fonds éditorial pléthorique destiné à terme à une clientèle anonyme. Ce n'est donc pas la capacité à remplir les librairies par ses dernières nouveautés qui détermine la compétence d'un éditeur. Des services d'accord, mais que deviennent les contenus dans ce nouveau schéma ? Côté contenu, ce qui compte, c'est le temps... le temps de construire de vaste machines textuelles multimedia ; c'est-à-dire des plate-formes où chaque abonné peut ensuite venir personnaliser ses demandes en ayant soin de peaufiner son profil. Pour ce faire, il faut intégrer sur des serveurs spécifiques tous les contenus fournis par les éditeurs. Les serveurs traduisent automatiquement les fichiers en une version homogène XML. Cette uniformisation dans le langage permet ensuite de faire agir des dizaines d'applications spécifiques travaillant sur une base propre (ce qui serait impossible si les contenus n'étaient pas tous codés de la même façon). L'uniformisation du langage permet notamment de servir au client connecté la feuille de style correspondant à la nature de son terminal - et donc de profiter pleinement des fonctionnalités que son appareil met à sa disposition. Aussi voit-on nettement qu'il est de plus en plus difficile de séparer les aspects techniques des aspects « contenus ». Pour s'en tenir au travail d'intégrateur en lui-même, il n'est plus possible de séparer le travail éditorial d'un côté et le travail d'intégration numérique de l'autre. C'est un seul et même projet capable d'être exploité sur n'importe quel support pourvu qu'il soit mobile et connecté... Mais où se trouve votre travail éditorial sur les textes ? Sur le balisage des contenus. Le travail d'indexation, de hiérarchisation de l'information est de loin le travail le plus important pour un intégrateur de contenus sur l'Internet mobile. Il y a au niveau du code source des textes présentés sur écran tout un travail rhétorique d'écriture en amont. Jusqu'à présent, les formats comme le format Adobe PDF ou Microsoft Reader fonctionnaient en circuit fermé. De nouveaux formats résolument ouverts sur le réseau permettant au lecteur de créer son propre environnement en termes de services sont désormais développés. Ce n'est donc pas qu'un travail de présentation des contenus sur écran... Le travail textuel dans le numérique n'est pas qu'un art de l'écran. C'est avant tout un art de la programmation textuelle et de l'indexation. Mise en rapport des données, algorithmes et calculs sémantiques en sont les principaux fondements. En ce qui concerne l'approche littéraire - qui est seulement une activité parmi celles traitant plus spécifiquement du pratique et du professionnel ( de la même manière qu'il existe dans l'édition classique des secteurs du même nom), l'auteur d'un texte numérique n'intervient plus directement sur un matériau visible par le lecteur au moment où il le découvre sur écran. Il agit sur un matériau qui lui est propre : le code source à l'origine du texte qui s'actualise constamment en fonction du programme mis en place. Il écrit par conséquent en effectuant en amont un travail de modélisation des textes, réévalué en fonction des incessantes actualisations qui surviennent à l'écran. En quoi consiste précisément ce travail de modélisation ? Il s'agit de coder dans une norme unifiée sur les serveurs l'arborescence des documents, en distinguant préalablement leur forme logique par rapport aux services et leur contenu « cognitif » propre. Cette distinction n'est évidemment pas apparente à l'écran. Mais elle est essentielle afin de transposer un même document multimédia sur différents supports et pour différentes formes éditoriales. Toute cette littérature électronique peut néanmoins faire douter de la qualité du travail d'écriture... Oui certes, le fait d'être en ligne donne l'impression de textes éphémères, qui ne peuvent pas être repris, re-travaillés, etc. En réalité, c'est l'inverse qui se passe. C'est uniquement lorsqu'on s'en tient au niveau du texte visible sur écran que se produisent les effets tant décriés de l'immédiateté, du temps réel et de la simplification à outrance dans l'information produite. C'est à ce niveau très apparent du rapport au texte et à l'information qu'on a faussement l'impression que l'effort de médiation, du travail symbolique opéré sur le contenu a totalement disparu. Qu'en bref l'effort de réflexion est absent. On croit faussement que le flux est préféré à la forme, que les textes en ligne se donnent pour la vie du texte elle-même plutôt que pour la représentation du sens qu'il doit promouvoir. On a peur que le média s'affirme aux dépens du médiateur. Or le défi est dans la capacité à offrir une offre de qualité par la finesse de sa préparation, dans le back-office. Tout l'intérêt du travail d'un intégrateur réside dans le compromis qu'il faut bien mesurer entre le travail de spécification des objets balisés (jusqu'où aller dans l'indexation et la pertinence des descriptions codées..) et le traitement automatique qu'on entend offrir au lecteur à partir de ce balisage. A vous entendre il semble que nous assistions à une modification de l'écriture et de ses codes dans l'utilisation que nous faisons des nouvelles technologies ? C'est évident. Et de toute façon, nous devons nous prémunir contre une simple reproduction numérique de ce qui existe chez les éditeurs « papier ». Pendant un temps, les éditeurs numériques ont fait revivre la fiction éditoriale d'un livre maintenu dans son intégralité sous forme d'un ensemble de fichiers numériques Adobe ou Microsoft. Or nous sommes dans l'obligation de rompre avec la forme matérielle traditionnelle du livre. Nous ne pouvons plus espérer reconstruire la notion juridique d'une œuvre intellectuelle à la manière du sacro-saint copyright d'antan. Nous oublions que notre tradition d'écriture n'a rien d'immémorial. Elle a constamment évolué, y compris même dans les dernières décennies. Avons-nous par exemple oublié la révolution qu'a provoqué l'apparition du livre de poche il y a seulement cinquante ans? Dans les années qui viennent, nous allons nous habituer à des expériences d'écriture qui ne répondent plus à la forme « livre » mais organisent des corpus de textes électroniques sans support papier, présentant des signatures qui ne sont même plus selon les cas des « opus » ou des œuvres finies. Elles ne sont même plus délimitables dans leur temps de réalisation et sont sans cesse reprises par leurs auteurs. Ce sont des processus textuels ouverts sur les réseaux mondiaux et offerts à l'accès du lecteur devenu par moment coauteur. Ce sont des écritures en ligne que nous rejoignons en se connectant via une adresse http ou un serveur dédié... Cette façon d'envisager les lettres, la littérature ou « les humanités » ne nous renvoie plus à l' idée du temps de lecture ou d'écriture auquel nous sommes habitués... Il est clair que la nature du temps consommé devant l'écran d'un support mobile n'est pas la même que devant une page imprimée. La qualité du temps consommé avec un livre est bien supérieure à celle employée sur l'internet. Il y a indéniablement un effet prosaïque du temps consommé sur un site web où la qualité de lecture est désastreuse en matière de concentration et de réflexion - mais très profitable en termes de praticité. Selon moi, la lecture en situation de mobilité connectée fait la part des choses entre ces deux extrêmes. D'un côté le temps est nettement plus séquencé, dirigé, orienté vers des portions qui ne se présentent pas de la même manière que dans un livre; d'un autre côté ne plus avoir affaire à un ordinateur et son moniteur permet une liberté de mouvement favorable à l'invention et la création mentale. On peut toujours avoir l'impression d'un flux ininterrompu ; mais on découvre en même temps à quel point il est désormais possible de structurer ses contenus par un travail d'indexation personnalisé très poussé. En quoi le lecteur participe-t-il à sa lecture d'une manière plus active ? Le lecteur participe à des scenarii qu'il emprunte selon le niveau d'accès auquel on le laisse intervenir. Il peut modifier substantiellement les paramètres correspondant à son profil afin d'obtenir le résultat qu'il souhaite à l'écran. La chose vraiment nouvelle dans le numérique tel qu'il prend forme aujourd'hui est qu'il est envisageable pour un lecteur d'introduire de l'inédit, de l'inattendu dans les techniques que l'on met à sa disposition; alors qu'il faut reconnaître que la forme papier s'y prête nettement moins désormais. Aujourd'hui plusieurs rédacteurs d'une même communauté d'intérêt peuvent intervenir continûment sur des textes préalablement mis en ligne par des auteurs absents au moment de la ré-actualisation des pages. Le processus d'accélération de l'information sur écran nomade promet des rencontres imprévisibles et des effets de lecture/écriture inattendus. Toutes ces nouvelles dispositions naissent du fait qu'on a mis un terme à la corrélation entre écrit et imprimé qui déterminait le temps qu'il fallait pour écrire un livre ou rédiger un texte. Tout peut encore et toujours s'actualiser et à plusieurs ! Dans un tel univers en réseau, le livre « papier » n'est plus qu'un souvenir... Je ne partage pas cet avis. Le livre est un support comme un autre qui soutient sa propre logique. D'un certain point de vue, il a même un grand avenir devant lui. Rien ne permet à terme d'envisager sa disparition. Son histoire est encore à inventer parallèlement au développement des nouvelles technologies. Pourquoi sacrifierait-on une possibilité d'écriture au moment d'en inventer une autre ? Se passer du papier, ce serait un peu comme si on avait décidé un beau jour de supprimer la radio sous prétexte de pouvoir allumer la télé. Reconnaissez tout de même que votre activité n'a plus rien a voir avec l'édition traditionnelle Je viens pour ma part de l'édition classique et je fais mon travail à de nombreux égards de la même façon qu'auparavant. Sur un grand nombre de points, j'aimerais conserver et maintenir l'exercice de toutes les vertus enracinées dans la culture « papier » ou la discipline des livres. Que ces vertus ou exigences soient de nos jours sans cesse évoquées sous des connotations passéistes et condescendantes ne doit pas nous empêcher de les ré-affirmer haut et fort. Il faut être très scrupuleux sur ces sujets. Mais je n'idéalise pas le travail de l'éditeur conventionnel pour autant. Il ne semble pas que les éditeurs « papier » aient tellement respecté l'objet-livre dont ils sont prétendument supposés défendre la survie. Le livre aujourd'hui est une industrie qui correspond à un montage social et économique délirant. Le nombre de nouveautés qui paraissent chaque année - environ 40 000 - et les ratio concernant les retours et autres invendus - qui peuvent aller jusqu'à 45% - sont proprement ahurissants. Ces constats nous amènent à nous demander où est la raison en matière économique et financière ? L'éditeur numérique est-il vraiment un doux rêveur si on compare son travail aux activités déraisonnables de l'éditeur au sens classique ? En tout état de cause le livre ne peut plus être l'expression d'un référent univoque qui doit avoir des droits prioritaires par rapport à d'autres modèles d'expression plus innovants. Le livre doit opérer lui aussi sa propre transformation. Pour l'instant le livre -papier sort tout de même grand gagnant de la bataille avec le numérique C'est sûr, on peut le croire mais les problèmes du livre-papier n'ont pas disparu comme par enchantement. Nous vivons actuellement les temps d'une fausse restauration dont on sait comment l'Histoire aime à les déjouer. Il s'agit en ce moment d'éviter l'erreur la plus tentante mais aussi la plus grave : réduire l'événement technique à une question strictement technique, rabattre l'invention technologique des nouveaux dispositifs multimedia à un simple développement mécanique de l'histoire du Papier, de ses possibilités virtuelles ou implicites. Les éditeurs les plus intelligents - et il y en a beaucoup - savent qu'ils vivent à proximité d'un gouffre. On a pourtant l'impression d'une grande régression dans l'acte de lire et d'écrire. Les éditeurs se posent comme les garants d'une certaine culture. La culture au sens traditionnel semble selon eux en danger, ne serait-ce que dans la mauvaise qualité rédactionnelle des textes mis à l'écran. Oui, oui...c'est vrai; je ne dirais rien d'original en confirmant qu'on trouve de tout sur Internet, le pire comme le meilleur. Toutefois l'écriture numérique ne se limite pas à la lecture sur le net. L'expérience du numérique ne se réduit pas à rejoindre des sites où l'on trouve toutes sortes de choses à lire. Pour ma part, je ne vois aucune régression dans ce qui se passe aujourd'hui dans l'écriture numérique. La régression me semble plutôt marquée du côté de la production littéraire contemporaine. D'ailleurs, il est remarquable qu'une évolution comparable à celle de l'écriture numérique dans ses pires aspects ait lieu dans les incessantes parutions des nouveautés « papier » : lisez des romans de rentrée à fort tirage, vous verrez à quel point les aspects mimétiques concernant l'écriture électronique sont forts. A n'en pas douter, l'écriture-papier se transforme sous nos yeux en écriture électronique. Quant à l'Ecriture en tant que telle, la vraie, gageons qu'elle soit encore une chose à venir... Dans bien des cas, et pour beaucoup d'éditeurs encore, écrire sur l'Internet semble pourtant bien superficiel Au contraire, la manière d'envisager la lecture s'est approfondie et l'acte de lire en lui-même s'est pluralisé. A beaucoup d'égard cette évolution technique n'a rien de technique : il me semble qu'il y a non seulement une actualisation des considérations théoriques et littéraires des grands auteurs « papier » dans le monde du numérique - je pense notamment à Genette, Barthes ou Derrida mais que nous nous trouvons également devant des situations inattendues qui devraient nous réjouir. L'invention est extraordinairement forte dans nos domaines. Quant à la culture dont vous parlez, dois-je rappeler que la plupart des grands philosophes ne se sont jamais « adaptés » à la lecture des livres imprimés. Il y a depuis toujours dans l'histoire de la pensée comme une inadéquation des idées avec l'évolution des supports empruntés pour les exprimer. Et je dirais même que cette inadéquation est consubstantielle à l'Histoire de la philosophie. Cela va de soit pour les anciens pour qui l'expression écrite allait jusqu'à tuer l'acte de penser, notamment les platoniciens. A ce sujet, il y aurait beaucoup à dire sur l'histoire des dialogues en tant que forme littéraire et philosophique. Mais cela vaut également pour les modernes qui comme Lacan, Deleuze ou Castoriadis n'ont souvent laissé volontairement de leur œuvre que la transcription rédigée de leurs séminaires publics...
2002-12-14 11:14:18
En France, un
projet de loi du gouvernement (1) prévoit de légitimer les
dispositifs empêchant de graver des disques que vous
achetez dans le commerce. Impossible alors de les écouter sur son
ordinateur... Bientôt peut-être faudra-t-il
acheter plusieurs cd d'un artiste : un pour l'écouter sur son
autoradio, un autre sur son ordinateur, un sur son baladeur, un sur
son téléphone, un sur sa chaîne hi-fi... Bref, payer à
l'usage comme le dénoncent les
associations de consommateurs... Pourquoi pas, si le prix des cd
fond d'autant ? Mais, cela n'a pas vraiment l'air d'être la
politique marketing des majors du disque ou du cinéma, qui ont
plutôt profité de l'arrivée de nouveaux formats pour
copieusement augmenter leurs tarifs (rappelez-vous du prix des
vinyls, des vhs...).
Mais voilà, il suffit d'être un
petit peu internautes et l'on comprendra tout de suite que ce
dispositif ne mettra ni fin aux échanges peer-to-peer
(comme Kazaa),
ni à la
copie privée. Ce projet de loi montre combien nos hommes
politiques et les lobbies qui les conseillent ne connaissent rien à
l'internet. Il suffit d'avoir voulu télécharger un morceau de
musique sur internet pour s'en rendre compte. Le moindre logiciel qui
vous permet d'écouter
de la musique, de
transformer vos chansons préférées en Mp3 vous propose - la
plupart du temps avec force explications sur sa page d'accueil -
d'écouter des
programmes radios. Vous avez alors accès à la liste de
programmation. Les noms et titres des chansons s'affichent
automatiquement. Vous pouvez enregistrer n'importe quel morceau d'un
clic. Quand vous regardez la source d'un Mp3 sur Kazaa par exemple,
vous verrez qu'ils sont de plus en plus nombreux à provenir d'une
diffusion sur une station de radio. Et si les dispositifs
empêchant de graver les disques se multiplient, ces sources
de copies là vont naturellement exploser. Bref, pour être
efficace, les maisons de disques devraient d'abord faire fermer les
radios !
Et pour les films ? C'est exactement la même
chose. Même si, la copie de DVD transformés en DivX
est assez répandue, bientôt, les copies qu'on trouvera sur
internet ne viendrons plus de DVD. Avec les
magnétoscopes numériques, les cartes tuner TV préinstallées,
ce sont les programmes télés eux-mêmes qui seront les
premiers fournisseurs de copie - comme c'est le cas actuellement avec
les cassettes de magnétoscopes... De là à faire fermer les
télés...
Faire fermer les radios, les chaînes de télé... Les Majors n'y penseraient pas une seule seconde : elles savent quand même qu'elles ont plus à gagner en diffusant qu'en interdisant. Dans l'économie numérique, il n'y a pas d'intermédiaire, c'est peut-être ce que n'ont pas compris les majors. Dans les systèmes de diffusion traditionnel (télé, radio...), les diffuseurs payent des droits et c'est bien pratique pour les Majors. Dans l'économie numérique, pour l'instant, il n'y a pas d'intermédiaire et ce n'est pas sûr qu'il y en ait un un jour. C'est peut-être aux Majors, aux artistes alors, d'inventer des modèles. En tout cas, l'énergie que mettent les majors dans ces dossiers, sans vraiment les connaître, puisqu'elles apportent d'emblée de mauvaises solutions, nous interroge. Contre quoi se battent les majors ? Contre la nouveauté ? Contre leur manque de créativité marketing ?... Si leurs seules réponses est de brider les cd, qu'ils les brident. A part faire chuter leurs ventes, pour ma part, je ne vois pas en quoi ça va les aider. Mieux vaudrait pourtant essayer de capitaliser les initiatives intéressantes. Pour l'instant elles sont rares, mais elles sont bien plus porteuses de sens et d'avenir.
(1) Le projet de loi en question a
été mis en sourdine du fait du tintamarre provoqué. Cela ne
veut pas vraiment dire qu'il sera beaucoup modifié.
2003-01-07 10:07:24
Reproduction interdite
Le présent article
est destiné à un ouvrage "Réinventer la ville, les services
publics - Editions de l'Aube - 1er trimestre 2003. Il
est également publié sur le site inforoutes.net
Jacques Chatignoux et Olivier Frérot sont à l'origine d'une expérience unique de consultation permanente par Internet sur le tracé et la construction d'une nouvelle route sur le Territoire de Belfort. Le site collaboratif qui est au coeur de leur projet, Rn19.net, constitue un modèle pour des pratiquees nouvelles et plus démocratiques de l'administration. Ils nous font part ici de leur réflexion sur la co-production d'un "intérêt général partagé". Qu'ils en soient remerciés. Préalable _ L'expérience, la démarche ou comme le disent les collaborateurs de la Dde 90 [[Direction départementale de l'Equipement du Territoire de Belfort]] : "le concept Rn19" - [http://www.rn19.net->http://www.rn19.net] - n'est sans doute qu'une des façons de faire rentrer l'administration dans une société de réseaux : celle du 21ème siècle. L'information publique doit désormais être partagée dans sa construction comme dans son usage. Ainsi l'Internet bouscule les relations classiques d'information de la part de la puissance publique, qui jusqu'alors tablait volontiers sur la crédibilité naturelle de "son" information publique comme sur le caractère dominant des moyens dont elle dispose y compris sous l'angle juridique. Cinq points changent la donne : - Internet, pour construire une information via un site web, coûte en moyenne à n'importe lequel de nos concitoyens moins de 10 euros par mois et quelques heures d'énergie par semaine. De plus l'usage de logiciels libres (donc gratuits) se répand très vite et ces logiciels ont en général toute la puissance des logiciels dit propriétaires utilisés encore par les structures publiques. - Limiter voir interdire une prise de parole sur l'internet est très difficile. En général cela produit l'effet inverse et l'interdit est montré du doigt au plan mondial tout en contribuant à une mobilisation des internautes. Elle décrédibilise de fait son auteur. - En faisant exploser les sources d'information, en contribuant à libérer et à diversifier les prises de paroles sur la Chose Publique, l'internet relativise la qualité, la crédibilité de l'information "dite publique" en provenance des institutions d'Etat ou des collectivités publiques. - La perte actuelle de crédibilité des responsables publiques, associatifs ou économiques rétroagit fort probablement sur la prise en compte d'une information publique entâchée de quelques doutes. De plus, nos concitoyens demandent davantage de proximité et de transparence dans l'action publique ce qui induit des "pressions" sur les modalités mêmes de production de l'information "publique". - Les procédures d'informations ou de consultations, autour de grands projets collectifs, sont au bout de leur logique et peu adaptées à une société de l'information en réseaux. Des réformes sont en cours, mais elles semblent élaborées sans beaucoup de contacts avec la société dite civile. Le concept Rn19 pose en effet la question de la construction d'une information en réseaux. Le récent propos du Premier Ministre dans une interview à l'Express du 30/05/2002 situe d'ailleurs la dimension de la chose : - "A l'idée selon laquelle l'Etat a le monopole de l'intérêt général il faut opposer un partage républicain de l'engagement. La politique, selon les uns, l'Etat, selon les autres, croyaient avoir le monopole de l'intérêt général. Or le médecin, l'entrepreneur, le syndicaliste sont aussi porteurs d'une part de l'intérêt général. Il y a un potentiel de partage de l'intérêt général dans la société. La politique s'est faite excluante, considérant qu'elle était la seule à avoir la noblesse de la représentation de l'intérêt général. Mais cette noblesse-là est remise en question: l'intérêt général est partout dans la société, il faut le libérer. Que l'Etat trace la route, mais qu'il laisse les acteurs de l'intérêt général s'exprimer. " Cela signifie clairement que l'intérêt général en terme d'information publique, doit être partagé et construit avec d'autres acteurs de la société. _ Le "monopole" de l'information publique par les institutions doit faire place à une information partagée qui nourrit les débats sur les réseaux. _ Qui est alors acteurs de la société ? Traditionnellement dans une société de représentation, les acteurs sont souvent assimilés aux représentants d'institutions diverses publiques ou privés, à caractère local ou autre. Dans une société de l'information en réseaux, la notion d'acteur implose pour faire émerger d'abord des individus porteurs d'énergie. Ces derniers dans le contexte financier et d'usage de logiciels libres évoqué ci-dessus, pèsent autant qu'une institution obligée à naviguer avec toutes les pesanteurs classiques d'une organisation dont une des difficultés est constituée des habitudes culturelles et professionnelles des collaborateurs gestionnaires ; alors même que nous sommes dans un monde en mouvement rapide et incertain impliquant capacité prospective, réactivité et vision du monde. Le concept même d'énergie reprend toute sa valeur et on voit bien qu'en ce domaine, la puissance publique a du mal à rivaliser avec les individus. Dans l'information émanant de ce qui s'appelle traditionnellement la puissance publique, il est rare qu'une information ne soit pas soumise à une quelconque "autorité" avant diffusion, ce qui provoque souvent des lenteurs voir des erreurs en termes de réactivité. Pour l'internaute, porteur de son point de vue, d'une information à vocation intérêt général, il décide seul ou en petite communauté de la publier et sa réactivité est de quelques heures voir instantanée (via les listes de discussion, ce qui en amplifie l'impact). Nous sommes ainsi rentrés dans une société où l'institution publique n'a plus le quasi monopole de l'information sur la chose publique. Il lui faut composer avec d'autres et non plus se limiter à informer, à débattre, à décider. _ On pourrait presque dire que l'information publique sur Internet a du mal à identifier une cible. L'internet est mondial et chacun de par le monde peut donner son opinion sur une information thématique ou localisée. 1 - Histoire d'un projet... _ Rn19 est le fruit d'un désir de partage, d'une rencontre entre des responsables de la Dde 90 et quelques acteurs du réseau Web, soucieux d'explorer les modalités nouvelles d'exercices du "servir public". - Se retrouver sur la façon de dialoguer _ Il nous paraissait en effet indispensable d'explorer les pratiques du travail collaboratif comme celles d'une transparence volontariste en s'appuyant sur le "déroulé" d'un projet routier dont l'une des sections "Morvillars-Delle" arrivait en quelque sorte à maturité. Nous étions dans la phase après enquête publique. Donc dans une étape de finalisation, de dialogue important avec les élus, associations et entreprises du secteur, sur les derniers ajustements techniques du tracé (desserte, fonctionnalité) , sur l'interface opérationnelle avec le développement du territoire traversé. Le tout en liaison avec les Suisses puisque après Delle débouche le projet A16. _ Il y avait ainsi opportunité et l'arrivée d'un nouveau Directeur à la Dde 90 permettait d'impulser auprès des collaborateurs une certaine façon de voir l'exercice d'informer au titre d'un service public. Ceci dans un esprit affirmé d'intérêt général. - Conscience de l'internet _ L'internet est d'abord un réseau. Cela signifie que la gestion de l'information doit faire appel à des pratiques fort différentes puisqu'il n'y a plus maîtrise de la diffusion. De plus cette information peut être enrichie par tout internaute, par exemple dans les forums ou les outils collaboratifs. A la différence des media classiques, l'interactivité, la "mobilité" de l'information n'appartient plus seulement à l'émetteur initial ou à un professionnel des media. La question de la confrontation des opinions, des réactions des uns et des autres, prennent dès lors un tout autre sens. _ Il y avait donc là une dimension claire d'exercice d'un service public partagé, une façon aussi de montrer que l'administration de l'Equipement pouvait tenter de rester en accord avec son temps. - Mise en scène des pratiques de co-production _ Mais comment alors construire une information publique partagée ? _ Nous démarrions avec des outils basiques (des pages "html" et une liste de discussion gratuite, publique et non modérée), un relationnel local, divers collaborateurs de la dde 90 acceptant l'aventure et des interlocuteurs du réseau web très attentifs à l'expérimentation. _ D'expérience, nous savions aussi qu'il faudrait être tenace, convaincant, réactif et impulser un rythme tout en maintenant les pratiques classiques d'informations en parallèle. 2 - Vécu d'une aventure - L'aube du projet _ En l'espèce nous avons avancé avec beaucoup de pragmatisme, s'appuyant ici sur l'accuité ou l'actualité d'une information à faire partager, là sur le désir d'écoute ou de prise de parole d'un des interlocuteurs du territoire. _ Une petite équipe s'est progressivement constituée apprenant et pratiquant conjointement le nouvel art d'informer. Il y avait de la responsabilité et de l'engagement de chacun dans l'air car nous ne pouvions imaginer voir une information partagée qui s'élabore dans un contexte hiérarchique classique, où dans lequel un monde tourné vers des acteurs en représentation sociale soit dominant au vu de l'énergie émanant de l'expérimentation. _ Conjointement, nous maintenions des informations via des canaux plus classiques (réseaux relationnels de proximité et de visu avec les élus et autres acteurs - journal du projet - rencontres thématiques ou d'information comme celle de septembre 2001. _ Le moment du lancement coincidait en gros avec la période de "bouclage technique" celle au delà de laquelle comme le disait Gilles Quérini (l'ingénieur responsable du service des grands travaux), nous ne pourrions plus guère modifier les choix. _ Déjà les acteurs traditionnels évoquaient leur projet de développement (zone économique) mais aussi leurs craintes vis à vis du contournement des villages par la nouvelle Rn19. - Parole officielle et paroles de réseaux _ Dans un projet routier, qui comporte diverses procédures techniques et juridiques, il est bon que le lecteur puisse discerner non plus une notion de simple information officielle mais d'abord une notion d'informations fiables, de qualité, proches des gens, réactives selon les situations. _ En effet, sur le web actuellement, la crédibilité d'une information ne tient plus à son origine institutionnelle. D'ailleurs, les journalistes ne s'y trompent pas qui vont et viennent comparer les informations disponibles pour les retracer à leurs lecteurs. _ L'enjeu était alors de construire une parole de réseaux, autour du sujet Rn19, paroles multiples en fait parmi lesquelles celle de l'Etat local, serait bien identifiée. _ Ici on touche à une des caractéristiques du web : la personnalisation des paroles. Si chacun n'a certes pas encore son courriel à défaut de service universiel, il devient difficile de tenir parole anonyme, que ce soit sur une liste de diffusion ou sur un espace collaboratif. Les paroles de la Dde sont donc imputées à des auteurs, collaborateurs de la Dde. Et c'est aussi le cas pour les autres services de l'Etat qui ont pris la parole sur le site, et d'une façon plus générale pour toutes les informations en ligne. Cf les articles par auteur. Cela a deux conséquences principales : moins d'anonymat dans l'information via l'identification d'un interlocuteur clairement dénommé ; une responsabilité et un engagement accrus des collaborateurs qui mesurent davantage l'impact de leurs prises de paroles et assument ainsi davantage leur exercice d'être au service du public. Il est des cas par contre où le contexte d'informations identifie de fait le "fournisseur d'informations". Il en est ainsi pour l'enquête publique "Lure-Delle" dont une grande partie est en ligne sur le site et dont l'identification pose clairement que nous sommes dans un espace placé sous l'autorité du Commissaire Enquêteur envers lequel le contact est possible. Son rapport officiel est en ligne : "Rapport de Conclusions motivées et Avis de la Commission d'enquête en date du 15 octobre 2002" [[Cf aussi : Rapport d'enquêtes publiques de la Commission d'enquête en date du 14 octobre 2002]]. Mais toute parole publique doit faire l'objet d'une grande attention , car elle peut engager le service. C'est pourquoi conjointement à une phase d'apprentissage de la prise de parole dans un espace collaboratif, les collaborateurs de la Dde ont toujours disposé d'un espace "de test" préalable. Il semble que certains, naturellement échangent au préalable avec quelques collaborateurs du bureau, mais ils peuvent aussi soumettre leur propos à une petite liste - non publique - jouant en quelque sorte le rôle d'une conférence de rédaction. _ En dernier ressort, la procédure de validation d'un article reste à un moment technique et l'animateur du site peut à son tour exprimer sur cette petite liste, des doutes ou des compléments nécessaires au vu de l'article à publier. Il peut donc y avoir débat préalable et interne avant une publication. - Acteurs de territoire et acteurs de réseaux _ La démarche n'a pas vraiment surpris les interlocuteurs traditionnels d'une Dde sur un territoire. Au fond , il y avait de la modernité dans l'air. De plus, les collaborateurs de la Dde sont allés au devant des acteurs, pour les inviter à prendre parole via des interviews ou des sollicitations afin de témoigner de leurs préoccupations opérationnelles autour du projet rn19 (desserte, économie, environnement, paysage, couleurs, axes de développement...). _ Par contre, dans le contexte de lancement, il était clair que le territoire n'avait pas une grande habitude de l'internet (pour cause d'accès limités et de pratique sociale en émergence). _ Ainsi donc ce sont d'abord quelques acteurs du réseau web qui ont pris la parole , soit explorateurs de pratiques nouvelles par exemple en interpellant les acteurs du territoire sur la question des hauts débits lors de la journée de rencontre de septembre 2001 [[Premiers repères sur les débats de l'après-midi du 28 septembre. ]], soit en écrivant d'eux-mêmes une matière d'informations à débattre. A voir par exemple : - Une vision partagée du présent et de l'avenir sur un territoire - Le peuple des Séquanes - Chemins de traverse - Connexion entre territoires... Grandvillars en Internet ! - Bassin versant de l'Allaine et Rn19-Transjurane - Effets d'annonce de la nouvelle RN 19, quels indicateurs pertinents ? - ou encore Belfort - Delle - Delémont : le rail a un rôle important à jouer - Histoires de motivations et d'expressions _ Construire avec d'autres une information publique à partager a conduit les collaborateurs de la dde 90 à remettre en cause leur propre comportement sur la façon de parler de leurs actions professionnelles. Il leur fallait à la fois être en rythme, transparent, précis et prendre en compte le mode de lisibilité et de réactivité de l'information. Cela supposait de la part de chacun plaisir de participer à une innovation et possibilité d'échanger avec d'autres en cas de besoin. Bien sûr, il faut de la part du Directeur une volonté claire en la matière et une pratique de la délégation de responsabilité. Il faut aussi que d'autres acteurs du réseau web regardent avec bienveillance l'initiative pour accompagner en arrière plan le processus émergeant et en débattre librement sur diverses listes de discussions thématiques hors l'espace rn19. L'information pouvait être lue par un public non directement concerné par le sujet (Internet est à la fois local et mondial... il est réseau). De plus, la lisibilité d'une information n'est plus "linéaire" (ou par chapitre comme dans un rapport) mais peut aller de sujet en sujet, de points en points (liens hypertexte). - L'information doit être plus interactive (animation de croquis, cartes) et réactive (capacité de réponse dans un délai de 24h par exemple, cliquez ici puis sur "evaluation environnementale" parmi les thèmes traités sur la liste de diffusion). - Le format et la taille de l'écran sont des cadres qui imposent une recherche pédagogique particulière pour faire comprendre un projet routier sur un linéaire important (cf la carte interactive du projet). - L'exigence du débat peut être plus forte par le biais de forums ou de listes de diffusion (cf le digest). - La parole publique de la part de collaborateurs doit être davantage responsabilisée mais cela devient une question de confiance et d'enjeux communs plus que de directive hiérarchique (voir quelques brèves en cliquant ici). 3- Pratiques collaboratives - L'aube de la co-production _ Le concept Rn19 explore sans doute les pratiques qui demain seront fréquentes pour ne pas dire courantes. Ce n'est pour l'heure pas évident pour des fonctionnaires si l'on regarde nombre de sites plutôt informatifs, mais il y a là un enrichissement de la matière et aussi la possibilité de laisser libre cours aux expressions des uns et des autres : acteurs institutionnels locaux mais aussi internautes lambda et donc habitants concernés directement par le projet. _ Attention, en ce domaine, que l'on soit bien clair, co-production ne signifie pas accepter n'importe quoi en termes de publication. Disons qu'il y a deux règles à respecter : _ * être dans le sujet du site (projet routier et thématiques du territoire concerné) _ * respecter la netiquette (éthique du net) en évitant toute attaque personnelle ce qui ne doit pas empêcher la rugosité des échanges ou des prises de position. _ A défaut de respecter ces repères, il appartient à l'animateur du réseau d'activer les fonctions dont ils disposent et qui lui permettent de désactiver la visibilité d'un commentaire. En fait, jamais nous n'avons eu à utiliser cette pratique extrême. Agir en co-production consiste donc d'abord à libérer la parole et à accompagner celles et ceux qui veulent la prendre. Elle est dans le droit fil de l'exercice du service public. - Le webmaster à la trappe _ C'est une réalité inhérente aux outils collaboratifs, puisque, moyennant un apprentissage succinct, tout internaute est à même de venir écrire sur le site. Le webmaster se transforme alors, s'il en a les capacités, en animateur de réseaux. Il accompagne, il est passeur de paroles et non un opérateur technique manipulant ici le code informatique et là gérant les délais de mises en ligne. - La liberté de parole sur le réseau _ Principe de base, le liberté de parole de chacun rentre bien en résonance avec les fondements du service public.. Accepter l'honneur d'être au service du public, c'est en effet en contrepartie accepter de pouvoir être interpellé par un quidam sur son action, sur la programmation de son projet, sur les financements, sur les choix techniques, environnementaux, paysagers etc... Effectivement, comme l'indiquait le Premier Ministre (cf ci-dessus), l'intérêt général est à partager, encore plus avec le web, dans un processus de co-production, de co-construction. La pratique du forum public - en fait une liste de discussion - sur le site Rn19 montre davantage une progressivité des échanges qui n'exclue nullement des moments de fermeté des propos des uns et des autres... Aujourd'hui, la liste de discussion sert plutôt à informer de ce qui bouge sur le site, mais chacun sait bien qu'elle peut à tout moment devenir en tant que telle un lieu de débat. En pratique, au delà de la liste de discussion publique, le logiciel collaboratif "attache" à chaque article un "forum dont l'actualisation suit immédiatement la validation du commentaire par l'internaute rédacteur (cf les dernières réactions aux articles). L'auteur de l'article étant immédiatement prévenu via son courriel, il lui est aisé de répondre. - L'usage des outils collaboratifs _ Aujourd'hui un certain nombre de collaborateurs de la Dde90, co-animateurs du site Rn19 savent faire face à ce type de situation de dialogue public. Comme en d'autres lieux en France, il est fort probable qu'émergeront autour des grands projets d'équipements publics, des ateliers d'apprentissage de ce type d'outils. _ Ces outils restent fort simples, et généralement distinguent deux parties : celle qui est visible par l'internaute, celle qui est le lieu d'écriture via des formulaires où l'on peut facilement faire un copier-coller. Cette dernière est accessible par le biais de codes d'accès personnalisés. - Pratiques d'animation _ C'est un travail en soi, auquel peu de fonctionnaires sont formés. De plus, ces pratiques d'informations étant co-produites, rien n'oblige à avoir un seul animateur ou que cet animateur soit obligatoirement au sein d'une structure porteuse d'informations publiques. On peut même dire que chacun participant à l'expression des informations, il y aurait plutôt un ou plusieurs régulateurs de paroles invitant à poursuivre ou à arrêter des échanges. N'oublions pas la capacité de réactivité de chacun puisqu'en cas de commentaire en pied d'article, l'auteur est immédiatement prévenu par courriel. 4- Repères à débattre sur le net - Naissance d'un concept _ L'expression peut sembler forte, mais elle situe bien l'enjeu. Aujourd'hui dans nombre d'informations publiques, le processus est en quelque sorte descendant sans interactivité et remontant sans réactivité. On le voit fort bien avec ces pages qui émergent de type "questions réponses" dans lesquelles les questions des internautes ne sont pas toujours reproduites intégralement comme si la parole d'un internaute "valait" moins que celle d'un fonctionnaire qui répond. _ En d'autres termes, si la puissance publique a fait de notables efforts pour mettre de l'information à disposition, elle doit désormais prendre l'habitude de considérer qu'à parité, d'autres interlocuteurs peuvent aussi mettre de l'information en débat. Cela signifie aussi que chacun doit bien reconnaître qui parle. _ Ainsi dans l'évolution en cours du site Rn19, une distinction plus précise sera faite pour mieux cerner : _ * d'une part, visuellement les contextes des lieux ou étapes du projet mais aussi d'où viennent les projets du territoire. _ * d'autre part, les contextes de prises de paroles avec ou sans possibilité de laisser des commentaires en pied d'articles. Dans un esprit de partage dans la production de l'information, il importe en effet de respecter les choix que peuvent faire les émetteurs d'informations : _ * Se limiter à donner de l'information _ * Accepter de voir cette information en débat public. - Avenir d'institution ou avenir de réseaux _ Dans une société de réseaux comme l'est notre monde informationnel de ce début de siècle, il faut s'attacher à réfléchir au devenir des logiques institutionnels publiques alors même que nombre d'internautes travaillent en communauté et non en tant qu'institution ; et que d'autre part, les organisations privées explorent les voies de ce qu'elles dénomment les "entreprises étendues". - Vers les libres débats publics _ Autour des grands projets d'équipements collectifs, il faut bien sûr maintenir la question du débat public. Simplement ce que tout internaute perçoit rapidement, c'est qu'il n'y a pas forcément un processus "obligé" en la matière. Cela interpelle sans doute les référents juridiques habituels et les modes même de l'organisation et de la transparence sur de semblables débats. - Devenir de la décision publique _ Les pratiques de la co-production et la construction d'un intérêt général partagé ne sont pas sans poser la question des modalités même de la décision publique. _ Il semble que cette dernière ne puisse plus être "du seul ressort" des fonctionnaires agissant par délégation de l'autorité élue. A l'inverse cette décision ne peut être du "seul réssort" d'un réseau qui se voudrait dominateur. _ En fait cette décision autour de l'intérêt général mérite d'être revalorisée, sans doute parce que plus proche de nos concitoyens et davantage débattue. _ Il restera toujours la nécessité d'un décideur en ce domaine et comme le faisait fort justement remarquer en pied de l'article "Internet, le débat public et la construction d'un territoire : la RN 19 " un Directeur Régional de l'Equipement : _ Je vois dans ce texte de nombreuses interpellations auxquelles il faudra bien répondre un jour où l'autre ou alors, pour reprendre une expression favorite des auteurs, d'autres le feront à notre place !
Cf aussi : - Relire l'article "Internet, le débat public et la construction d'un territoire : la RN 19 " - Un site internet pour débattre de la RN19 et ses potientalités - Mercure (Caisse des Dépôts et Consignations) devenu Localis - Le chantier routier de la RN 19 - Atlas de Franche Comté dans le site - Observatoire des télécommunications dans la ville NB : Olivier Frérot (ex-Dde du Territoire de Belfort) est actuellement Dde de la Loire. _ Yves Sarrand est l'actuel Dde du Territoire de Belfort.
2003-01-03 22:57:04
Découvrez les premiers modules fabriqués avec screenCoder 3 importés dans Flash MX. Munissez vous de casque de préférence car avec des hauts parleurs le son est de moins bonne qualité [Découvrez les modules ici->http://www.help06.com/easyphp.htm] 1) Installer EasyPHP 02.01.2003 deux types de module vous sont proposés fichier .swf dans une page HTML 219KO [Découvrez le module ici->http://www.help06.com/formationMF/Easy1.html] ou fichier .wmv 97Ko + fichier wav importé dans flash mx dans une page HTML [Découvrez le module ici->http://www.help06.com/formationMF/Easy_wmv.html] 2) Lancer et arrêter son serveur local 03.01.2003 un .swf dans une page HTML 460Ko avec voix [Découvrez le module ici->http://www.help06.com/formationMF/Easy2.html] 3) Utiliser phpmyadmin et créer une base de données 04.01.2003 4) Utiliser son 1er script PHP 05.01.2003 5) Installer Spip 6) Lancer Spip 7) Configurer Spip 8) Utiliser un squelette Spip 9) Transférer Spip sur son serveur distant 10) Gérer Spip Autres sujets 1) créer un fichier .wav et le transformer en MP3 2) Travailler vos fichiers vidéo via un Caméscope ou une Web Cam dans Movie Maker de Windows XP, les transférer ensuite dans flash MX pour créer de véritable clip vidéo
2003-01-22 11:47:45
Dites-moi édition numérique ; je vous répondrai E-book. La révolution que l'introduction des nouvelles technologies dans le secteur de l'édition a engendrée se résume trop souvent, pour le grand public et la presse à cette équation réductrice. Et lorsqu'on sait le remarquable fiasco auquel le support vedette du livre électronique a abouti, après tous les fantasmes dont il fit l'objet, on comprend que pour nombre d'observateurs, le bon vieux livre papier constitue un horizon indépassable de la diffusion de l'écrit. Pour la littérature, le livre de fiction ou plus généralement le livre plaisir, c'est bien possible en effet. Car rien ne remplace, jusqu'à présent, le confort de lecture qu'offre le livre traditionnel. Mais l'édition ne se réduit pas à cela, et une bonne part de la production éditoriale est consacrée à la transmission de savoirs, de connaissances, que ce soit à destination d'un large public, dans le cas de la vulgarisation et des manuels en général, ou à l'intérieur d'une communauté scientifique. -Histoires de gros sous Largement ignorée du grand public, l'édition scientifique, et ce dans toutes les disciplines, constitue un secteur économique important, suffisamment important en tout cas pour être porteur d'enjeux financiers, mais en même temps, il touche à des communautés et des activités dont la portée n'est pas qu'économique : la diffusion et l'échange d'information scientifique est un des fondements cruciaux du développement des sociétés modernes. Et ces deux dimensions de l'édition scientifique et académique sont quelquefois en contradiction. L'introduction des technologies numériques dans le secteur de l'édition scientifique est à la source de bien des remises en question, de bien des polémiques, parce qu'elle semble remettre en cause des équilibres sédimentés depuis longtemps, des accords implicites ou explicites entre tous les participants, éditeurs, scientifiques, Etats, bibliothèques, où chacun trouvait son compte. Elle est aussi à la source de bien des interrogations à la fois sur les finalités et les modalités de leur mise en œuvre. Deux récentes publications viennent en éclairer un peu plus les enjeux. Le premier ouvrage est en fait un rapport, commandé par le Syndicat National de l'Edition au chercheur Marc Minon, de l'Internet Institute de l'Université de Liège. Intitulé [Edition universitaire et perspectives du numérique->http://www.t2i.be/SNEperspectivesSep2002.pdf], ce travail vise à la fois à sensibiliser les éditeurs scientifiques français aux avantages que pourrait apporter le développement des services numériques, mais aussi à inciter les pouvoirs publics à soutenir les éventuelles initiatives dans le domaine. Evidemment, la publication d'un tel rapport tombe à point nommé pour les éditeurs commerciaux qui l'ont commandé dans la mesure où certains d'entre eux sont à l'origine d'initiatives visant à mettre en place des plate-formes de diffusion pour les publications dont ils ont la charge. Mais au-delà de cet aspect quelque peu utilitaire, le rapport de Marc Minon a pour intérêt de faire voler en éclat un certain nombre d'idées reçues sur le sujet.. -La gratuité a un coût D'abord, observe-t-il, et c'est une des idées fortes de son rapport, rien n'indique que la mise en place de modes de distribution numérique de contenus, soit contradictoire avec leur édition et distribution sur papier. Nombre d'éditeurs scientifiques anglo-saxons proposent, essentiellement aux bibliothèques, des offres « packagées », fournissant des services en ligne (de mise à jour, de recherche par exemple), en sus de l'abonnement papier. La question du support de diffusion et du mode de rémunération de cette diffusion reste donc totalement ouverte, selon les auteurs du rapport : toutes les configurations existent et sont encore à imaginer, avec d'égales chances de succès. Un bémol toutefois : il semble bien que la solution qui nous semble la plus évidente, la plus naturelle parce que la plus proche de la tradition, le paiement à la consultation (« pay-per-view »), soit un échec commercial à chaque fois qu'il a été mis en œuvre par un éditeur. Il semble bien que ce mode de consultation, qui titille aussi beaucoup les éditeurs grand public pour des raisons évidentes, soit inadapté aux usages et besoins des chercheurs et des étudiants. Mais là n'est pas l'essentiel du rapport Minon ; car celui-ci a l'immense mérite de déplacer un débat qui s'est focalisé ces dernières années autour du problème de l'accès payant ou gratuit à l'information scientifique dans le contexte de la publication numérique. La publication numérique analyse M. Minon, n'est jamais « gratuite ». Toute la question est de savoir qui la finance : l'utilisateur ou le producteur. La question du financement « par l'aval » ou « par l'amont » de la publication scientifique est en effet cruciale, parce qu'elle implique au premier chef des acteurs différents : un financement par l'amont équivaut souvent à la mise en place de structures éditoriales au sein des universités et organismes de recherche ; structures financées sur fonds publics et prenant en charge le travail que font habituellement les sociétés d'édition. C'est dans cette perspective que l'accès à l'information peut-être gratuit pour l'utilisateur (mais pas obligatoirement), contrairement à ce que peuvent proposer des éditeurs commerciaux contraints de tirer leurs revenus de la distribution de l'information. L'opposition entre financement en amont ou en aval mise en valeur par Marc Minon doit cependant être modérée par la conscience que l'édition scientifique commerciale n'est pas un secteur économiquement autonome : nombre de textes publiés dans ce cadre sont fortement subventionnés par le secteur public... -Le grand précurseur : Erudit.org Il est un exemple fameux de publication scientifique entièrement en ligne et bénéficiant d'un financement en amont, c'est la plate-forme [Erudit.org->http://www.erudit.org] mise en place par l'Université de Montréal et ses presses universitaires. Active depuis 1998, la plate-forme Erudit fait figure de précurseur dans le domaine, avec une attention qui fut immédiatement portée à l'utilisation des formats de publication, à la structuration des documents, et à leur référencement futur. Guylaine Beaudry et Gérard Boismenu, qui ont piloté le projet viennent de publier un livre aux éditions La Découverte intitulé [Le Nouveau Monde numérique. Le cas des revues universitaires->http://212.94.173.146/websp/SW2_consult_ref?F_refid=17025&F_ent_diff_id=1]. Le grand intérêt de leur ouvrage, notamment par rapport au rapport Minon, c'est qu'il ne se contente pas de dresser un état des lieux général des revues scientifiques en ligne, mais indique de manière très concrète, et parfois assez technique, les différentes possibilités et pistes qui s'offrent aux acteurs concernés. L'examen minutieux de la chaîne de production auquel les auteurs de l'ouvrage se livrent, leur permet de battre en brèche deux idées fausses habituellement véhiculées à propos de la publication scientifique dans un cadre numérique : d'abord, affirment-ils, la publication numérique ne provoque pas, contrairement à ce qu'on croit habituellement, un effondrement des coûts de publication ; dans la mesure en effet où le coût de préparation de la première copie représente environ 70% du coût total d'édition pour les revues traditionnelles, on voit bien que les économies engendrées par une diffusion exclusivement numérique resteraient faibles. Par ailleurs, Beaudry et Boismenu battent en brèche le fameux scénario de la « désintermédiation » mis en lumière par Chartron et Salaün, selon lequel les chercheurs pourraient mettre en ligne eux-mêmes leurs travaux, en se passant de l'intermédiaire de l'éditeur. Ceci, insistent-ils, ne peut s'opérer qu'au détriment de la qualité des textes publiés, non pas tant d'ailleurs, en ce qui concerne la sélection des textes, que pour ce qui est de leur préparation, correction, et enfin, on a tendance à l'oublier, diffusion, accessibilité, référencement. -La foire aux formats Plus profondément, la mise en place d'une chaîne de production numérique ne peut se faire de manière naïve, sans se poser la question fondamentale des formats de production et de diffusion. Erudit.org, on l'a dit, dispose d'une expérience incomparable dans ce domaine : dès 1997, les initiateurs du projet firent en effet le choix d'utiliser un langage de description structuré, le SGML, pour assurer la publication des textes dont ils avaient la charge. L'intérêt d'utiliser un tel format, par rapport au HTML qui est le langage encore couramment utilisé sur le Web, est de permettre un qualification de certains éléments du texte à l'intérieur même du fichier qui le contient. HTML, qui est un dérivé appauvri du SGML, ne fait que fournir des instructions de mise en forme du texte. SGML, et son successeur désigné XML peuvent indiquer quelle est la nature de l'information fournie par le texte ; ce qui permet un traitement automatisé de l'information beaucoup plus riche et la mise en place de services aux lecteurs beaucoup plus lourds à concevoir autrement. Il reste que l'utilisation de tels langages est plus complexe à mettre en œuvre et demande beaucoup plus de travail (et donc, coûte plus cher). SGML, XML, PDF, HTML, la multiplicité des langages et des formats de traitement et de diffusion, à partir d'un document le plus souvent issu de Word, ou pire encore, d'Xpress lorsqu'il provient d'un éditeur traditionnel, permet d'imagine plusieurs chaînes de production possibles, plus ou moins sophistiquées, plus ou moins longues, plus ou moins coûteuses, selon les objectifs et les moyens. C'est tout l'intérêt du chapitre central de ce livre que de les exposer et de les comparer de manière tout à fait pertinente. -L'impérieuse nécessité du rassemblement Le grand problème des expériences de publication numérique dans le monde francophone, selon les auteurs, réside dans leur dispersion. Dans son rapport, Marc Minon remarquait que c'était déjà le cas pour la publication traditionnelle. C'est d'ailleurs une des principales raisons qui expliquent la légèreté de la francophonie par rapport au marché anglo-saxon, dominé par quelques mastodontes. Et cette différence fondamentale se retrouve évidemment dans la publication numérique : en face de services centralisés d'accès à des millions d'articles, comme [Jstor->http://www.jstor.org/], [Ingenta->http://www.ingenta.com/], [HighWire->http://highwire.stanford.edu/] ou [Muse->http://muse.jhu.edu/], la recherche francophone se trouve bien dépourvue. C'est à la fédération des initiatives qu'appellent donc, avec raison, Beaudry et Boismenu, dans un cadre public, pour atteindre enfin la « masse critique » qui fait tant défaut jusqu'à présent. Appel qui est bien dans l'air du temps : une plate-forme telle que celle mise en œuvre par [Revues.org->http://www.revues.org] va dans le même sens : elle vise à la fois à partager les ressources techniques nécessaires au fonctionnement d'une chaîne de publication numérique, mais aussi à créer un point d'accès commun au plus grand nombre possible de textes et d'informations. -Point aveugle Malgré leurs richesse, les ouvrages évoqués contiennent tous deux un point aveugle : le point de vue de l'utilisateur. Car on y parle finalement beaucoup structures, financements, techniques, et assez peu usages. C'est logique, dira-t-on, ce sont des éditeurs qui parlent. Certes. Mais on aurait aimé en savoir un peu plus sur la manière dont la communauté scientifique utilise les publications numériques (et d'abord s'ils les utilisent massivement). Comment chercheurs, enseignants et étudiants travaillent-ils sur un texte numérique ? Quels sont leurs besoins exacts et précis au delà de la localisation de l'information qui est un peu mieux cernée ? Ont-ils besoin de faire une lecture intensive d'un petit nombre de textes et/ou une lecture extensive sur de grands corpus ? Certains fournisseurs de service proposent un certain nombre de services à leur public : constitution de paniers d'articles, systèmes d'alertes, multiplication des formats de lecture, exceptionnellement systèmes d'annotations numériques ; est-ce que tout cela est utile, utilisé, avec quelle satisfaction ? mystère...Qu'en est-il enfin des possibilités d'interactivité, d'organisation de débats autour des textes ? Est-ce que cela a un sens dans le cadre de la publication scientifique, dans quelles conditions ? Et plus encore, la basculement progressif mais inéluctable de la publication scientifique vers le numérique va-t-il/doit-il entraîner une modification de l'écriture académique ? Il est très rare par exemple en sciences humaines, qu'un chercheur publie ses matériaux de travail en même temps que les résultats de sa recherche ; dans la mesure où cela devient techniquement possible dans un espace numérique, est-ce que cela apporterait quelque chose de le faire ? est-ce souhaitable ? peut-on imaginer que ces matériaux puissent être réutilisés différemment par un autre chercheur, sans que celui qui les a constitué puisse avoir un droit de regard, les situant pour ainsi dire dans le domaine public ? Peut-on imaginer, toujours dans les mêmes disciplines, la mise en place d'une écriture collective, collaborative des résultats de la recherche ? On pourrait continuer longtemps une série de questions qui n'a pour limite que l'imagination. Autant de questions auxquelles les auteurs de ces deux ouvrages n'apportent pas de réponses détaillées, alors qu'elles touchent pleinement à leur domaine de compétence.
2003-09-05 15:46:27
Une corde sur le point de se rompre. C'est par cette image que les
MIT Press ont choisi d'illustrer le livre de Milton Mueller intitulé
Ruling the Root et portant sur les questions politiques liées à la
gouvernance d'Internet. Ecrit en 2001, l'ouvrage de Mueller décrit
en effet une situation au cours de laquelle le consensus qui
présidait à la gestion d'Internet depuis ses débuts est sur le
point de se rompre. Et l'histoire a prouvé depuis que Mueller
n'avait pas tort ; car le dernier fil qui retenait la corde s'est
brisé lui aussi. Sous-titré « Internet governance and the taming
of cyberspace », ce livre traite d'une problématique aussi large et
importante par le biais d'une question beaucoup plus étroite et
technique, qui commande pourtant tout le reste : la gestion du DNS.
Le DNS, ou Domain Name System, nous apprend Mueller dans la première
partie de son ouvrage, c'est le système informatique qui permet
d'attribuer des identifiants uniques aux ordinateurs qui sont
branchés sur le réseau, de donner des noms aux services que
proposent ces ordinateurs, et surtout d'établir une correspondance
entre les uns et les autres. [Voir les explications techniques sur
[Commentcamarche.net->http://www.commentcamarche.net/internet/dns.php3]]
Le DNS qui gère la distribution de noms de domaine sur Internet -
tels que homo-numericus.net - a cette importance qu'il constitue le
seul point de contrôle potentiel dans un système de communication
par ailleurs décentralisé. Et ce qui crée ce point d'étranglement,
c'est l'impératif d'unicité des adresses et des noms distribués
aux ordinateurs présents sur le réseau, ainsi que du système de
correspondance entre les deux. Un seul nom, une seule adresse
L'impératif d'unicité, qui fait qu'on ne peut pas donner amazon.com
à deux personnes différentes, ou 80.164.163.255 à deux ordinateurs
différents entraîne un besoin de coordination à l'origine de
conflits extrêmement importants au sein de la communauté des
usagers d'Internet. Tout ceci est bien connu. L'originalité de la
thèse de M. Mueller est d'approcher l'histoire de ces conflits par
l'économie politique ; et plus particulièrement celle qui considère
la formation du droit de propriété sur une nouvelle ressource. Ce
processus se déroule en trois moments : l'attribution de valeur à
la ressource, puis l'appropriation de cette ressource, et enfin
l'institutionnalisation qui définit des règles pour son
exploitation. Et pour Mueller, toute l'histoire du DNS et des noms de
domaine, depuis sa création par Jon Postel, jusqu'aux guerres
intestines qui déchirent aujourd'hui l'ICANN, peut être considérée
sous cet angle. Dès lors, le moteur de cette histoire apparaît
clairement : les revendications d'appropriation que les différents
types d'usagers du DNS formulent sur les noms de domaine. Pour M.
Mueller, l'histoire du DNS n'est donc pas totalement exceptionnelle.
Elle n'a pas en tout cas le caractère de singularité absolue qu'on
lui prête quelquefois. Spécialiste de l'histoire des
télécommunications, l'auteur de Ruling the Root ponctue souvent ses
analyses de comparaisons tout à fait judicieuses avec l'histoire de
la radio par exemple, en particulier la distribution des fréquences,
qui possède de nombreux points communs avec celle d'Internet. A
cette différence près que cette dernière implique un éventail
d'acteurs dont la diversité n'a jamais été égalée, qu'il
s'agisse des scientifiques qui l'ont conçu, du gouvernement
américain, des sociétés privées d'enregistrement de noms de
domaine, des détenteurs de droits sur la propriété intellectuelle,
ou encore des défenseurs de la libre expression sur Internet. Le DNS
: trois lois constitutionnelles Pourtant, argumente Mueller, rien ne
prédisposait à l'origine les noms de domaine à devenir l'objet de
batailles aussi importantes. Dans l'esprit des techniciens qui ont
conçu Internet, il ne s'agit, après tout, que d'identifiants
uniques, à peine plus signifiants que les adresses IP, les numéros
de téléphone ou les numéros de plaques minéralogiques. C'est
pourquoi la gestion de leur attribution fut assurée à ses débuts
de manière tout à fait triviale, par la communauté scientifique
elle-même, tout d'abord sous la forme d'un simple fichier texte (le
fameux hosts.txt), avant de l'être par l'intermédiaire d'un système
plus complexe. La gestion de l'attribution des noms de domaine devait
dans l'esprit de ces techniciens, et singulièrement de Jon Postel
qui se pose en grand architecte de l'Internet des années 80 et 90,
rester une affaire purement technique. On peut donc, selon Mueller,
déterminer l'existence d'une « préhistoire » d'Internet, marquée
par trois principes constitutionnels implicites : l'existence d'une «
communauté d'Internet », présente de la manière la plus visible
avec l'IETF, l'existence d'un « consensus » obtenu au sein de la
communauté par l'intermédiaire d'un mode de fonctionnement que l'on
pourrait qualifier de « basiste », et enfin la limitation des
décisions de régulation concernant les noms de domaine à des
considérations purement techniques. C'est en s'appuyant constamment
sur ces trois piliers constitutionnels que Jon Postel a tenté
d'affronter l'ouragan qui s'est déchaîné à partir du milieu des
années 90 sur le DNS ; ouragan déclenché, on le sait, par
l'explosion de l'intérêt pour Internet, jusqu'alors confiné aux
milieux académiques, et répandu désormais aussi bien parmi les
intérêts commerciaux que les Etats et enfin les utilisateurs
individuels. Jusqu'alors dépourvus de toute valeur, les noms de
domaine se mettent alors à changer de statut et à devenir le
support de nouveaux types de valeurs, déclenchant de nombreux
conflits d'appropriation. Le DNS dans l'oeil du cyclone Les conflits
sur le DNS se sont déclarés autour de trois foyers : -la rareté
des noms de domaine -l'organisation du marché de l'enregistrement
des noms de domaine -le rôle des Etats étrangers en contrepoint des
Etats-Unis dans l'organisation de ce marché Quant au premier point,
M. Mueller démontre de manière assez convaincante combien cette
rareté revêt un caractère artificiel. Car les noms de domaine sont
organisés hiérarchiquement, de droite à gauche, ce qui donne à la
partie la plus à droite du nom de domaine l'importance la plus
grande. Cette partie, appelée TLD (Top Level Domain), a une
importance stratégique dans la définition des noms de domaine de
second niveau. Lorsqu'en effet le nombre d'enregistrements de noms de
domaine a explosé et que les conflits se sont multipliés, la
solution la plus simple pour Jon Postel et d'autres figures de la
communauté scientifique consistait à augmenter considérablement le
nombre de gTLD, au-delà des habituels com, net et org. Postel et
d'autres proposèrent un certain nombre de plans allant dans ce sens.
Mais leurs échecs successifs ont mis en évidence le poids
grandissant des détenteurs de noms de marques dans le processus de
gestion du DNS. Car ces derniers n'ont évidemment pas intérêt à
voir se multiplier les gTLD, dans la mesure où ils utilisent par
réflexe le DNS comme un annuaire : je tape le nom de la marque,
j'accède au site de la marque. Dans ce contexte, multiplier les
gTLD, c'est les contraindre à multiplier les procédures
d'enregistrement de leur nom de marque afin de contrôler l'accès à
l'information sur les produits correspondants. C'est un des mérites
du livre de Mueller que de mettre en évidence la contradiction de
point de vue fondamentale entre les techniciens, pour qui le nom de
domaine n'est qu'un identifiant, et les détenteurs de droits de
propriété intellectuelle, pour qui il représente essentiellement
un nom de marque. Ceci a des conséquences à deux niveaux, nous
explique l'auteur : d'abord sur le nombre de gTLD autorisés, ensuite
sur la régulation du processus d'attribution des noms de domaine.
Dans les deux cas, argumente-t-il, les compromis qui ont été
négociés sont outrageusement favorables aux intérêts économiques
des détenteurs de marques. D'abord, parce que, seuls sept nouveaux
gTLD ont été ajoutés aux trois existants, au terme d'une procédure
délibérément longue et difficile, ménageant qui plus est aux
entreprises détentrices de noms de marques des possibilités de
préemption excluant du même coup tous les autres utilisateurs.
Ensuite parce que les procédures d'attribution des noms de domaine
ont progressivement glissé d'une gestion purement technique (règle
du premier arrivé, premier servi), à une gestion typiquement
politique devant des instances d'arbitrage aussi peu équilibrées
que l'OMPI (procédures dites UDRP, permettant, à l'origine, de
mettre fin au cybersquatting). L'évolution de l'organisation du
marché des noms de domaine a suivi la même évolution. Distribués
de manière relativement informelle au début, les noms de domaine
ont ensuite fait l'objet d'une procédure de délégation auprès
d'une petite société, Network Solutions. Celle-ci s'est donc
brusquement retrouvée assise sur un montagne d'or lorsque le nombre
d'enregistrements a explosé, opérant dans des conditions
économiques qui n'avaient pas été prévues. Encore une fois, la
phase d'attribution brusque de valeur à une ressource qui n'en avait
pas auparavant, a provoqué une situation de crise à la fois
organisationnelle, mais aussi politico-économique. La brusque
croissance de Network Solutions en situation de monopole de fait
était bien peu compatible avec les règles de fonctionnement d'un
marché en économie libérale, à l'époque où l'administration
Clinton commençait précisément à déréguler le marché des
télécommunications. C'est pour régler cette question, c'est-à-dire
rétablir les conditions d'une saine concurrence, que l'ICANN a été
créé en 1998, sous l'impulsion directe du Secrétariat au Commerce
américain. Le processus de création de l'ICANN fut mené en dehors,
et même parfois contre Network Solutions (aujourd'hui racheté par
Verisign). Mais le processus d'ouverture à la concurrence du marché
de l'enregistrement de nom de domaine s'est fait dans de telles
conditions, rappelle Mueller, qu'il est loin d'avoir atteint son
objectif. D'un côté, Verisign conserve la gestion du très lucratif
com, et par ailleurs, la manière dont les autres gTLD ont été
attribués, fut loin d'être irréprochable- il faut dire que l'ICANN
a choisi la méthode la plus sujette à caution, celle du « concours
de beauté ». Au final, rappelle l'auteur, on ne peut vraiment pas
dire que le marché de l'enregistrement de noms de domaine
corresponde aux canons d'un « free market », tel qu'il était voulu
par le DoC. Dernier point de conflit aboutissant à la création de
l'ICANN, la dimension internationale de la gestion du DNS n'est elle
non plus pas encore résolue. Pourtant, elle est apparue très
rapidement, sur deux fronts, avec la question de l'attribution des
noms de domaine nationaux (ccTLD, comme fr par exemple), et celle de
la co-gestion du DNS dont le cœur se trouve, depuis l'origine, aux
Etats-Unis. Sur le premier point, Mueller met en évidence cette
fois-ci, les conflits de points de vue entre les techniciens qui ont
conçu et géré le DNS dans ses premières années, et les
gouvernements nationaux, sur la signification des noms de domaine. Il
faut en effet comprendre que pour Jon Postel et la plupart de ses
collègues de l'époque, le nom de domaine n'était encore une fois
qu'un identifiant ; et le ccTLD, rien de plus qu'un identifiant de
localisation ; en aucun cas une zone nationale sur laquelle s'exerce
la souveraineté d'un Etat. C'est pourquoi la gestion des ccTLD fut
au premier abord dévolue à des personnalités du monde
universitaire dans différents pays, sur la base du contact personnel
et surtout du volontariat, sans aucun souci de représentativité.
Mais Jon Postel, à la recherche d'un système de dénomination
cohérent, commit l'erreur de s'appuyer sur la nomenclature des pays
adopté par l'Union Internationale des Télécommunications,
organisme multilatéral organisé sur la base des représentations
nationales. D'où une permanente tension dans l'histoire des ccTLD
entre Postel et ses héritiers, pour qui fr ne représente pas « la
France », et les gouvernements nationaux qui ont tendance à vouloir
fonctionner sur le mode de l'UIT : le ccTLD est un élément de
souveraineté. Le jeu est un peu différent sur le chapitre de la
co-gestion du DNS. Car ici, Postel a joué la carte de
l'internationalisation contre le Département du Commerce qui, à
partir de 1996 revendique la souveraineté américaine sur le DNS.
Mueller restitue donc à merveille le jeu complètement faussé de
points de vue biaisés entre l'élite technicienne issue de l'IETF
qui voit la gestion du DNS comme une affaire internationale sans les
Etats, la plupart des pays concernés par les ccTLD (en premier lieu
l'Union Européenne) qui la voit comme une affaire internationale
avec les Etats (modèle UIT), et le Département du Commerce, qui la
voit comme une affaire américaine avec une participation des Etats à
définir. C'est cette dernière solution qui a prévalu lors de la
création de l'ICANN (ce qui est normal dans la mesure où l'ICANN
fut créée contractuellement par le Département du Commerce) dans
la mesure où le rôle des Etats nationaux fut cantonnée dans un
comité interne, le GAC (Governemental Advisory Committee (notez le «
advisory »)). Véritable pomme de discorde entre les Etats-Unis et
l'Union Européenne, le rôle et l'importance du GAC a constamment
fait l'objet de débats au sein de l'ICANN, jusque ces derniers mois
qui ont vu une reconnaissance plus importante du rôle des Etats dans
l'organigramme de cet organisme. Amédée, ou comment s'en
débarrasser A l'issue de ce long et passionnant historique, Milton
Mueller propose dans une troisième partie une série de réflexions
qui sont loin de laisser indifférent. L'essentiel de ses réflexions
tourne autour de la nature de l'ICANN, de la définition des droits
attenants aux noms de domaine et de la mécanique du changement
institutionnel Première question : qu'est-ce que l'ICANN ? Ce n'est
pas un organisme technique de coordination comme il se définit
lui-même, répond Mueller. Et de la même manière, son rôle n'est
pas d'organiser un marché ouvert sur le DNS comme le proclame sa
lettre de mission. L'auteur l'a bien montré au cours de son
historique, l'introduction d'acteurs étrangers au noyau de
techniciens de l'origine dans les discussions sur la gestion du DNS a
provoqué des prises de décision bien plus contraignantes qu'une
simple « coordination technique », en matière de propriété
intellectuelle, de régulation du marché et de surveillance des
acteurs, notamment. Dès lors, que peut-il être d'autre qu'un
organisme international de régulation finalement très classique ?
Et ceci change beaucoup de choses. Car cet organisme doté de
pouvoirs beaucoup plus importants que prévu se retrouve chargé de
responsabilités, en matière de représentativité et de
transparence de son mode de fonctionnement, qui sont tout autres que
s'il n'était qu'un organisme de coordination technique. La question
de sa légitimité, et plus particulièrement de la légitimité de
ses directeurs se pose avec d'autant plus d'acuité. En gros nous
explique l'auteur, on voit s'affronter trois types de légitimités :
une légitimité « technicienne », fondée sur la compétence et le
consensus, une légitimité démocratique fondée sur l'élection, et
une légitimité internationnale fondée sur la représentation des
Etats. Milton Mueller se refuse à qualifier le premier type de
légitimité, historiquement le plus ancien dans la gestion du DNS,
de démocratique. Pourtant, il ressemble fortement à une conception
rousseauiste de la démocratie, une sorte de démocratie permanente,
où chacun vote avec ses pieds, renouvelle le consensus initial à
chaque instant, ce consensus pouvant s'incarner « mystiquement »
dans un homme. Bref, une démocratie du sentiment et non procédurale.
Ce système, qui correspond à l'époque Postel - IETF, a bien pu
fonctionner un moment, mais s'est peu à peu transformé en une
dictature éclairée quand les problèmes se sont multipliés (avec
même une rocambolesque tentative de « coup d'Etat » sur le DNS) et
a fini par imploser lorsque l'hétérogénéité des acteurs est
devenu trop grande. La démocratie des montagnons ne fonctionne
qu'avec un nombre limité d'acteurs, dotés d'une homogénéité
culturelle forte, ayant des problèmes techniques à résoudre, et
dotés de la possibilité de partir quand ils le souhaitent. Croire
et tenter de faire croire que ce système est toujours en place au
sein de l'ICANN est une tromperie. Le deuxième type de légitimité,
la démocratie procédurale, a été tenté en 2000, par le biais
d'une élection directe dont le succès fut pour le moins mitigé. De
manière surprenante, Milton Mueller défend cette expérience, même
s'il en reconnaît les difficultés, en particulier parce qu'il
considère l'ICANN comme quelque chose qui ressemble fortement à un
Etat souverain. Dernier système possible, la représentation des
gouvernements nationaux semble être la solution vers laquelle se
dirige l'organisme, en grande partie parce qu'il correspond à un
modèle connu et éprouvé (et assez inefficace, mais c'est une autre
affaire). Qu'en est-il maintenant des droits attenants aux noms de
domaine ? Ici, Mueller s'attache à faire voler en éclat beaucoup de
clichés qui arrangent certains : non, les noms de domaine ne sont
pas « naturellement » rares, leur rareté a été organisée pour
satisfaire les détenteurs de noms de marques. Et non, les noms de
domaine n'ont pas tant de valeur que cela ; tout simplement parce que
le DNS n'est pas un annuaire téléphonique et que les utilisateurs
retrouvent plus facilement et plus souvent une ressource en passant
par un moteur de recherche qu'en tapant directement son nom dans la
barre d'adresse. Le vrai problème derrière cette question, est
celui du contrôle du discours que tout un chacun peut porter sur
telle ou telle marque (la multiplicité des conflits UDRP impliquant
des auteurs de sites critiques à l'égard des marques en est la
prévue). Enfin argumente Mueller de manière très convaincante, les
procédures UDRP ne font pas que transposer le droit des marques dans
l'univers numérique, à même niveau de protection ; elles étendent
indûment cette protection, bien au-delà de ce qu'elle est dans le
monde physique, notamment parce qu'elles décontextualisent la portée
du nom de marque. Dans l'univers physique, le nom « Ford » peut
être attribué à une personne, un vendeur de voitures, un gymnase,
sans problème. Au niveau du DNS, tous ces usages entrent en conflit
sous le regard des juristes des détenteurs de noms de marques, parce
qu'ils ne veulent voir qu'un seul Ford sur Internet. Les procédures
UDRP, pour la plupart sous contrôle de l'OMPI - un arbitre pas
vraiment impartial, mais aussi les exclusions a priori de noms
génériques, les procédures d'enregistrement de noms de domaine,
sont autant d'applications quasi-mécaniques du droit des marques au
DNS qui, de simple système technique, devient un mécanisme logiciel
d'application du droit, d'un droit particulier en fait. Enfin, selon
Mueller, le DNS a des chances de se transformer en instrument de
surveillance généralisé via le WHOIS. Ce système fut en effet
conçu à l'origine pour permettre a quiconque d'entrer rapidement en
contact avec le propriétaire ou le responsable technique d'un nom de
domaine. Il s'agit donc de données publiques, ou au moins publiées.
Le problème est que les détenteurs de noms de marque l'utilisent
massivement pour déloger ceux qui ont acheté des noms de domaine
correspondant à leur propriété, ou même approchant. On appelle
cela le « reverse domain name hijacking » (le piratage inverse de
nom de domaine). Du coup, nombre d'enregistrements dans le Whois sont
faux, ou carrément fantaisistes, dans la mesure où aucun contrôle
n'est a priori exercé sur ces informations. C'est une vieille et
constante revendication des détenteurs de noms de marque (encore
récemment lors des [seconds états généraux du nommage européen à
Paris->http://www.eurocio.org/domainname/index.php?lng=0&chp=7&rub=0&dirlo=7])
que d'exiger de la part des sociétés d'enregistrement de procéder
à une vérification de ces informations et de les leur fournir
facilement, afin qu'ils puissent engager des poursuites plus
rapidement et à moindre coût. Pour finir, Milton Mueller tente de
résumer l'ensemble de son approche en se livrant à une projection
des théories de l'économiste D. C. North sur le changement
institutionnel. Les théories de North tentent en effet d'expliquer
pourquoi dans certains cas, les sociétés conservent des formes
d'organisation institutionnelles qui sont manifestement inefficaces
et même destructrices. Ici, le problème pour Mueller est
d'expliquer pourquoi la rareté dont il a démontré le caractère
artificiel des noms de domaine était maintenue à travers le temps,
alors qu'il était techniquement si simple de multiplier les gTLD. Le
cercle vicieux se déroule en quatre étapes : 1. Lors de l'explosion
du Web commercial, il n'y avait qu'un seul gTLD commercial : le com.
Du coup, c'est le nom de second niveau qui prit une importance
considérable (« amazon » dans amazon.com)
2. Cette explosion
de la valeur sur le nom de second niveau a encouragé les
comportements spéculatifs, défensifs voire abusifs pour ce qui
concerne l'enregistrement
3. Ces comportements ont poussé les
détenteurs de droits sur les noms, comme les détenteurs de noms de
marque, à s'opposer à toute extension du domaine de nommage, pour
des raisons simples de coût, et à faire porter au DNS le poids de
considérations politiques et économiques pour lesquelles il n'était
pas conçu.
4. Ce qui a renforcé la valeur du com, la
spéculation, la politisation du DNS, la centralisation de sa
gestion, etc. Et la conclusion vient d'elle-même : « En d'autres
termes, un espace de nommage réduit renforce la mentalité de ruée
vers l'or et les comportements abusifs qui créent des conflits. Et
en alimentant les problèmes, cela rend nécessaire l'existence
continue d'un régime qui offre une régulation des conflits via
l'action collective. S'il y a rareté artificielle, il y aura une
ruée vers l'or. S'il y a une ruée vers l'or, il y aura des
spéculateurs, des conflits et des enregistrements préemptifs. Ces
problèmes créent à leur tour une demande pour la mise en place de
règles protégeant le droit d'entrée dans l'espace de nommage : les
procédures dites « sunrise », les exclusions, une extension lente
et progressive, etc. Le leitmotiv du nouveau régime est : stabilité.
Mais en fait, la stabilité signifie que tout changement est coupable
jusqu'à preuve de son innocence. Ce n'est pas un résultat
prémédité. Personne n'a voulu que les choses tournent ainsi. Et
c'est précisément ce qui le rend intéressant du point de vue de
l'économie politique. Une forme de « rétroaction » a mené à la
formation et à l'enkystement d'un régime inefficace, comme North
l'a décrit. C'est le produit d'un processus social verrouillé dans
un schéma dysfonctionnel par une sorte de logique politique
récursive dont personne ne sait comment sortir. » Milton Mueller,
Ruling the Root : Internet governance and the taming of cyberspace,
MIT Press, juillet 2002
2003-10-02 10:52:19
Depuis plusieurs années maintenant, de nombreuses organisations, associations et individus dénoncent l'utilisation abusive des brevets qui permettent de protéger à peu près tout et n'importe quoi. Le problème des brevets de logiciel en est le symbole même. La loi votée au parlement Européen nous permet peut être d'éviter le pire mais quoi qu'il en soit la jurisprudence relative aux brevets de logiciel en Europe autorise déjà quasiment ces brevets : en effet les services juridiques des multinationales connaissent parfaitement les termes à employer (et ceux à éviter) pour que leurs brevets soient acceptés presque à coup sûr. Comme nous allons le voir, même les standards de l'Internet sont touchés. 1. Les multinationales désireraient-elles s'approprier Internet ? Internet repose sur une série de protocoles, les plus connus étant TCP et IP, qui sont des protocoles dits « ouverts ». C'est d'ailleurs ce qui a permis leur succès, et a incité les développeurs à implémenter ces protocoles, librement et gratuitement. Un système comme Linux par exemple, contient bien évidemment des implémentations de ces protocoles, codés par des développeurs reconnus comme Alan Cox ou David Miller. On comprend rapidement que cette liberté d'implémentation et d'exploitation de ces protocoles a été le gage de la réussite d'Internet, sans quoi ce super réseau ne serait pas ce qu'il est devenu. Depuis la création et la standardisation de TCP et IP au sein de l'IETF (Internet Engineering Task Force [[http://www.ietf.org]]), les protocoles de l'Internet évoluent tous les jours. L'IETF, l'organisme de normalisation de l'Internet voit le nombre de ses Working Groups (Groupes de Travail) augmenter régulièrement, les contributeurs sont nombreux, et toutes les plus grandes multinationales dans le domaine des Télécommunications sont bien sûr représentées. Les Working Groups s'organisent en fonction de grands thèmes, comme le routage, le multicast, ou la sécurité. Les multinationales se positionnent stratégiquement en contribuant à un ou plusieurs de ces Working Groups. Aujourd'hui les axes de travail d'importance se nomment IPv6 (successeur d'IPv4), gestion de la mobilité, qualité de service, sécurité, adaptation aux environnements Wireless ... L'évolution d'Internet est passionnante, et les possibilités paraissent illimitées. Mais les enjeux sont de taille car ce sont ces protocoles qui feront l'Internet de demain : les entreprises l'ont bien compris et c'est pourquoi depuis quelques années, incitées par des lois Américaines (et Européennes) très permissives, la course aux brevets est devenue à la fois un sport mais aussi un vrai « business ». Désormais les multinationales n'ont qu'un mot à la bouche: IPR (Intellectual Property Right). Il s'agit pour ces entreprises d'avoir de l'influence dans les organismes de normalisation, grâce à quelques ingénieurs respectés et renommés, et de s'approprier des standards. Evidemment, ces nouveaux standards ne tombent pas tous sous le coup d'un brevet, et ces brevets ne couvrent pas forcément les standards dans leur totalité. Toute la subtilité réside dans l'art de breveter de simples petites améliorations et de les incorporer au standard (de petites améliorations en petites améliorations parfois de grosses parties du standard peuvent ainsi être protégées), les rendant ainsi indispensables. Malheureusement, quelle qu'en soit la proportion brevetée, cela implique qu'il faut payer pour utiliser le standard, et cela va à l'encontre de l'esprit originel d'Internet. Pire, cela veut dire que le standard appartient en totalité ou en partie à une entité privée, qui peut en théorie librement exiger la rémunération qu'elle souhaite, en échange de l'utilisation de son standard. Toute l'ingéniosité est là : breveter un standard signifie être quasiment sûr d'avoir des exploitants, et donc être sûr que le brevet va rapporter quelque chose. On en arrive même à un paradoxe étant donné qu'un brevet est supposé donner un monopole d'exploitation ! Mais là n'est pas le but recherché, il s'agit en réalité que le plus d'entreprises possibles puissent exploiter le standard ... au prix d'une licence. L'entreprise détentrice du brevet est alors en position de force, il se peut même qu'elle n'exploite pas du tout l' « invention » (le standard), se contentant de délivrer des licences. Le RFC (Request For Comment) 2026 [[ftp://ftp.rfc-editor.org/in-notes/rfc2026.txt]] de l'IETF qui décrit le processus de standardisation en vigueur mentionne au paragraphe 10 le problème des IPRs : "In all matters of intellectual property rights and procedures, the intention is to benefit the Internet community and the public at large, while respecting the legitimate rights of others." On peut légitimement souhaiter qu'à l'avenir, Internet, ses utilisateurs et ses architectes, bénéficieront de cette nouvelle course au contrôle des standards, mais il y a fort à parier que ce ne sera malheureusement pas le cas. 2. Que signifie breveter un standard de l'Internet ? Toutes les multinationales sont d'accord pour proclamer que les brevets sont le moteur de l'innovation et que sans aucun doute les standards d'Internet ne doivent pas échapper à cette règle. A la lecture de la définition du brevet (voir [[les brevets et les logiciels, mode d'emploi - Jean-Jacques de Jong (http://jjdj.free.fr/article/)]]), on apprend qu'un brevet protège le « principe technique de l'invention et pas seulement la réalisation elle-même ». On apprend un peu plus loin dans ce même document que la notion d'application industrielle est indispensable en ce qui concerne les brevets déposés en Europe (aux Etats-Unis, il y a déjà longtemps que l'on ne s'embarrasse plus avec ces principes superflus !). C'est ainsi que l'inventeur du stylo à bille, en brevetant son invention, protège à la fois sa réalisation, c'est à dire son stylo à bille, unique et original, mais également le procédé de fabrication de son stylo à bille, se protégeant ainsi contre toute tentative d'imitation de son invention. Comment appliquer cette définition à un standard ? Est-ce que protéger un standard signifie protéger le bout de papier qui définit ce standard ? Non, cette affirmation n'a pas vraiment de sens. Un standard n'étant pas un produit industrialisable, comme le stylo à bille, faudrait-il alors le considérer comme un procédé industriel ? Par exemple, le procédé de fabrication de la bière a été breveté en 1938 (il est donc désormais dans le domaine public) en tant que procédé industriel. Breveter un standard signifierait donc se protéger contre toute exploitation « industrielle » de cette « invention ». Or que signifie « exploiter un standard »? C'est tout simplement l'implémenter, c'est à dire en faire un programme d'ordinateur. TCP et IP sont présents dans le noyau de tous les systèmes d'exploitation au monde, vous imaginez donc les enjeux qu'il y a derrière tout ça ! On en revient donc au problème du brevet de logiciel, censé ne pas être autorisé en Europe. Des standards de l'Internet sont pourtant déjà sous le coup de nombreux brevets, où est l'erreur ? Le même problème a été soulevé par les brevets touchant les formats mp3 et gif, et leurs algorithmes de compression respectifs : que sont ces brevets sinon des brevets de logiciel ? Des protocoles comme RTSP, MPLS, Diffserv, Mobile IP (pour ne citer que ceux là), bien connus de la communauté des architectes d'Internet, sont sous le coup de plusieurs brevets, et comme pour mp3 ou gif, comment nommer ces brevets autrement que « brevets de logiciel » ? 3. Les brevets de l'Internet entretiennent un système qui ne profite qu'à une poignée d'entreprises. Déposer un brevet coûte cher, même très cher, pour une petite entreprise. Elle peut avoir les moyens d'en déposer un mais pas des centaines. Ce problème ne se pose pas pour les multinationales, elles déposent des brevets sans compter, car cela fait partie de leur stratégie économique. Les multinationales possèdent toutes désormais un portefeuille de brevets, dans le but de détenir des monopoles d'exploitation dans plusieurs domaines de technologie. Internet est l'un de ces domaines. En pratique, il est rare qu'une même entreprise détienne tous les brevets liés à une technologie Internet. En effet nous vivons une époque formidable où toute amélioration minime peut faire l'objet d'un brevet: ainsi un seul et même protocole de communication peut être touché par plusieurs dizaine de brevets. Lorsque des problèmes de propriété intellectuelle surgissent, les géants des télécommunications se mettent autour d'une table et trouvent rapidement un accord, en s'échangeant les brevets dont ils ont besoin pour développer leurs produits. Cela s'appelle du « cross-licensing ». Evidemment il faut que les deux entreprises soient de même envergure, on verrait mal en effet une PME négocier une dizaine de brevets avec IBM ! Pour « innover » il faut donc faire partie d'une grande entreprise, sinon il y a peu d'espoir de faire quoi que soit. Une petite entreprise qui a une bonne idée de produit mais qui ne peut se permettre d'acheter tous les brevets nécessaires à l'exploitation du produit (par exemple pour implémenter plusieurs protocoles de communication couverts en partie par des brevets), peut tenter de passer outre ces problèmes de brevet; ceci parfois en connaissance de cause (parce qu'elle n'a pas le choix), mais aussi trop souvent sans connaître l'existence même de ces brevets. Une fois les premiers produits commercialisés, voire parfois après plusieurs mois ou plusieurs années, les services juridiques des multinationales concernés pas les brevets constatent le préjudice causé et font pression sur la dite entreprise. Soit l'entreprise a les reins solides et paye les licences, soit elle est poursuivie en justice. Une fois devant la justice, il y a deux cas de figure : soit l'entreprise se fait racheter, soit l'entreprise périclite. Il n'y a malheureusement pas d'autre issue. Cette dérive des brevets entretient donc un système où seuls les puissants ont le pouvoir d'innover, les autres n'en ayant pas les moyens. Grâce à ce système, une poignée de grosses entreprises tente de s'approprier l'Internet, car Internet, victime de son succès, est un marché prometteur. L'autorisation des brevets de logiciel en Europe, après les Etats-Unis et le Japon, assure de beaux jours en perspective pour les grandes multinationales. Il n'y a pas ici d'intérêt pour l'économie des télécommunications en général, le seul but, presque avoué, est de satisfaire les intérêts particuliers de quelques multinationales Américaines, Japonaises, et Européennes. 4. un Internet sans brevets: une utopie ? Quelle seraient les conséquences de la suppression des brevets touchant les protocoles de l'Internet ? Les grandes entreprises répondraient sans surprise que si elles ne pouvaient plus breveter, elles investiraient moins dans la recherche liée à Internet car elles n'auraient plus aucun moyen de protéger leur travail. C'est une vision très réductrice du problème. Les entreprises, brevets ou non, ont besoin de laboratoires de Recherche et Développement, de gens à la pointe des nouvelles technologies et qui les maîtrisent, si elles ne veulent pas être rapidement distancées par leurs concurrents. Peut-on imaginer qu'une grande entreprise de télécommunications se passe de ses ingénieurs de recherche Internet sous prétexte que les brevets ne sont plus autorisés ? Si une telle décision est prise, il y a fort à parier que cette entreprise perdra rapidement toute sa crédibilité. Que des emplois soient supprimés dans les grandes entreprises à cause de la suppression des brevets de l'Internet ne paraît pas très sérieux: même si les ingénieurs de recherche sont incités à écrire ces brevets, personne n'est embauché exclusivement pour ça ! Les grandes entreprises vont-elles délaisser l'innovation dans l'Internet et ne plus participer à l'élaboration des standards ? Là encore il est difficile d'y croire, tout simplement parce que participer à un standard c'est se forger une réputation et une crédibilité. C'est également l'occasion (et on l'oublie souvent) pour les laboratoires de Recherche et Développement privés ou publics en Europe, de bénéficier de subventions pour participer à des grands programmes de recherche en collaboration avec d'autres laboratoires. L'investissement public joue donc un rôle très important dans l'élaboration des standards. Il est clair que si une entreprise ne peut déposer de brevets touchant un standard, elle ne va pas dévoiler ses "idées" d'innovation ou de perfectionnement avant de les avoir exploitées (c'est à dire avant de sortir un produit fini), alors qu'elle peut les rendre publiques tout de suite si elle les brevète. Mais au moins les produits ainsi commercialisés seraient la conséquence des innovations auxquelles l'entreprise croit vraiment et dans lesquelles elle aurait décidé d'investir. Une fois le programme d'ordinateur (le produit fini) commercialisé, donc rendu public, si les "idées" qui le sous-tendent sont vraiment bénéfiques à la communauté de l'Internet, il pourrait alors être décidé de les incorporer aux standards eux-même, améliorant ainsi l'image de marque de l'entreprise. Conclusion Aujourd'hui la priorité pour une multinationale n'est plus nécessairement de développer des produits mais de breveter la première les idées elles-mêmes (bonnes ou mauvaises), bloquant ainsi l'innovation des autres entreprises (les petites entreprises étant les plus durement touchées). Le risque est donc de voir ces idées brevetées rangées dans des placards et ne jamais servir ... Dans ce cas peut-on raisonnablement affirmer que les brevets de l'Internet favorisent l'innovation et la technologie ? L'accès aux standards doit être libre et gratuit, que l'on soit une multinationale, une PME, un laboratoire public, ou un simple particulier. Il y a beaucoup de chemin à parcourir avant que ce principe simple mais vital soit respecté, mais il est important qu'il soit à la base de toute discussion préalable à l'élaboration d'une nouvelle loi Européenne. Crédit photo : [© PPD3.com->http://www.pixelperfectdigital.com]
2003-10-18 12:33:07
La guerre s'intensifie. Les escarmouches, peu nombreuses encore récemment, qui opposaient d'un côté les éditeurs, essentiellement musicaux, et de l'autre partisans du « file sharing » et utilisateurs de réseaux peer to peer, se sont multipliées ces derniers mois, et ont fait basculer le conflit dans une autre dimension à partir du moment où il est apparu que les détenteurs de droits pouvaient recourir à l'arme juridique contre des utilisateurs finaux jusqu'ici épargnés. Car tant que les cours de justice ne voyaient défiler que des sociétés de commercialisation de logiciels permettant d'accéder à ces réseaux, à l'instar du célèbre Napster, les questions relatives à ce conflit demeuraient confidentielles : il ne s'agissait après tout que d'une bataille industrielle entre des acteurs économiques de générations différentes. Mais aux Etats-Unis, la RIAA n'a pas hésité à [entamer des procédures->http://www.homo-numericus.net/breve.php3?id_breve=421] contre de simples consommateurs, et en France, son homologue a récemment entamé une campagne particulièrement agressive, elle aussi [menaçante->http://www.journaldunet.com/printer/030124pirat_0lead.shtml] contre les utilisateurs. Le tout s'est doublé dans tous les pays développés, de polémiques autour des systèmes de protection anti-copie mis en place par les éditeurs musicaux sur les plus célèbres des CD vendus, ceux-ci portant atteinte à un droit reconnu -le droit de copie privée- et, dans nombre de cas, lésant le consommateur qui ne peut plus l'écouter que sur un nombre restreint d'appareils. Ces mesures, décidées unilatéralement par certains éditeurs musicaux, ont poussé les associations de consommateurs à [réagir->http://www.homo-numericus.net/article.php3?id_article=181&var_recherche=UFC], faisant sortir du même coup le débat du cercle de spécialistes où il se tenait jusqu'à présent. Et les consommateurs eux-mêmes ont, pour certains d'entre eux, décidé de recourir à [l'arme du boycott->http://www.transfert.net/a9453] contre les majors. Le débat sur les réseaux d'échanges de fichiers et le droit de copie privée n'est donc maintenant plus seulement une préoccupation de geeks ou de juristes en droit de la propriété intellectuelle, et prend soudain la dimension d'un débat de société dont les prérequis peuvent paraître techniques, mais dont les enjeux - culturels, intellectuels - concernent tout le monde. Les auteurs en boucliers humains Et du coup, les débats se multiplient, au [Forum des Droits de l'Internet->http://www.foruminternet.org/rencontres/], ce qui est bien le moins, étant donné les attributions de cet organisme, mais aussi par le biais de médias généralistes, comme TF1 ou Le Monde. Très souvent, ces débats, qui ne permettent par aux uns et aux autres de trouver un terrain d'entente, sont pour le moins insatisfaisants, hésitants entre l'échange d'arguments de mauvaise foi d'un côté et de l'autre - la totalité de la mévente actuelle de disques imputée aux réseaux P2P contre l'assimilation pure et simple du partage sur ces réseaux à la copie privée, et le consensus mou d'un ministre de la culture finissant par affirmer la nécessité de [« trouver un équilibre mesuré »-> http://www.e-magineurs.com/forum_internet/default_files/video_files/musique/musique5.htm], ce qui ne veut rigoureusement rien dire. Dans tous les cas, les discussions s'en tiennent à un cadre de production culturelle connu sans chercher à mesurer la grandeur de la mutation industrielle qui sous-tend la généralisation de ces réseaux dans la consommation d'œuvres « de l'esprit ». Le pire est que, ne mesurant pas que l'essentiel des changements impliqués par la reproduction et la distribution numérique des œuvres sont d'ordre économiques voire simplement industriels, on en appelle à une réforme du droit de propriété intellectuelle qui semble pourtant le seul en mesure de fournir quelque clarté dans le confusionnisme environnant. Celui-ci est en effet construit, en droit français, sur [deux principes simples->http://www.uzine.net/article1996.html], dont la justice peut facilement être reconnue par tout le monde : le principe de protection de l'auteur, dans sa relation à son œuvre, aussi bien en termes de droits moraux que patrimoniaux ; le principe de protection de l'éditeur, en tant que la reproduction et la diffusion d'une œuvre impliquent des investissements financiers dont le rentabilité doit être au minimum assurée par une protection juridique sanctionnant la contrefaçon. Plusieurs juristes ont souligné que le Code de la Propriété Intellectuelle français pouvait être lu comme la sédimentation de ces deux volontés de protection, fonctionnant l'une avec l'autre, dans le but de donner suffisamment de garanties aux uns et aux autres pour qu'ils aient intérêt à produire et à diffuser. Gardons à l'esprit ce dernier principe, clé de voûte du système : d'un côté des auteurs dont l'intérêt à créer et à divulguer les résultats de leur création doit être garanti, et des éditeurs qui doivent avoir un intérêt -ne serait-ce qu'économique - à investir pour la diffusion des œuvres, de l'autre une société qui doit consentir un certain nombre de restrictions sur l'utilisation des œuvres -mais des restrictions limitées, notamment dans le temps - afin de bénéficier globalement de la diffusion des œuvres qui sans cela, resteraient secrètes. Sur ces principes, tout le monde est d'accord, jusqu'à preuve du contraire, et les éditeurs l'ont bien compris, qui, sentant que leur cause ne peut être très populaire du fait de leur position dans le système, poussent en avant les auteurs -Charlélie Couture en « bouclier humain » de Pascal Nègre par exemple - pour lesquels personne ne songe à contester le fait qu'ils doivent être rémunérés. Cela étant, ils réduisent volontairement la relation triangulaire entre auteurs, éditeurs et public, à un face-à-face entre les auteurs et leur public, donnant pour évident qu'un éditeur n'est qu'une sorte de représentant des droits de l'auteur : celui qui fait payer pour que l'auteur soit rémunéré. « Kazaa m'a tuer » La stratégie est fine, puisqu'elle fait oublier que l'éditeur a ses propres intérêts dans l'affaire, industriels notamment, qui sont loin de concorder exactement avec les intérêts de l'auteur. Et du coup, le discours et le pratiques répressives qu'il développe peuvent être justifiées pour la bonne cause (les artistes sans-le-sou qui ne peuvent plus nourrir leur famille). Appelons cela la stratégie du « Kazaa m'a tuer ». Et c'est précisément à ce genre de rhétorique que se sont attaqués récemment les éditeurs d'uZine dans un article intitulé [« Le blues du businessman »-> http://www.uzine.net/article2011.html], rappelant, non sans raison, la part, infime que prend la rémunération de l'auteur dans le prix de vente global d'un produit culturel quelconque, l'essentiel étant absorbé par la distribution dudit produit, la rémunération de sa fabrication matérielle venant en second. La défense du droit d'auteur contre les réseaux P2P, argumentent les auteurs de l'article, est donc avant tout une question économique, du même niveau que le crise de la distribution de n'importe quel produit, avant d'être un enjeu civilisationnel, comme on tente quelquefois de nous le faire croire. Et de séparer très clairement les rôles de l'auteur et de l 'éditeur que l'on ne peut considérer comme étant interchangeables. Si l'éditeur a en charge la fabrication, la reproduction et le diffusion de l'oeuvre, on peut facilement montrer que l'arrivée massive des technologies numériques provoque un transfert des coûts de reproduction et de diffusion sur l'utilisateur final : c'est lui qui, désormais, sur un réseau P2P prend en charge ou moins deux des trois opérations dont l'éditeur réclame le paiement, l'auteur se chargeant pour sa part, d'une bonne part de la troisième [[C'est en partie vrai dans le cas des livres dont discutent Arno* et Lirresponsable, cela l'est tout autant dans le domaine musical, un grand nombre d'artistes disposant chez eux de plate-formes numériques leur permettant de produire des maquettes de grande qualité]]. Conclusion des deux auteurs : à l'ère numérique, rien n'empêche, technologiquement ou même économiquement, un auteur de se passer d'éditeur et de distribuer lui-même ses propres oeuvres, d'encaisser directement via son site web, et de se faire connaître par le bouche-à-oreille. Vieux scénario connu de la « désintermédiation » permettant de baisser drastiquement les coûts, de mettre un terme à la rétention systématiquement organisée par les éditeurs, de contourner leur rôle politiquement contestable de filtre de la création, ne « portant au jour », puisque c'est la signification étymologique de leur titre, que des oeuvres contrôlées, choisies, affadies. Sauf que cette position, laisse entier le problème . Quid de la rémunération des auteurs face aux réseau P2P ? La vente directe et sans intermédiaire ne la garantit pas plus que la distribution traditionnelle ; sauf à parier sur l'empathie du consommateur culturel qui, ayant conscience d'acheter directement à un petit producteur honnête, et non à une multinationale prédatrice, aura naturellement tendance à mettre la main à la poche...Dans les faits, qu'une œuvre soit distribuée directement par l'auteur ou par l'intermédiaire d'un éditeur et d'un diffuseur ne change pas grand-chose aux questions que pose la généralisation des réseaux P2P. Par ailleurs, il n'est pas certain que le scénario rêvé de la suppression pure et simple des intermédiaires corresponde à la réalité de la reproduction et de la distribution des biens numériques. Car lorsque dans un contexte de mutation, on voit s'affaiblir le rôle des intermédiaires traditionnels, on en conclut souvent que l'on assiste à la disparition de la notion même d'intermédiaire, sans voir qu'il ne s'agit souvent que de l'apparition de nouveaux types de médiation. Et les nouveaux intermédiaires, chassant les anciens, ont souvent cet avantage pendant quelques années, que, n'étant pas identifiés dans leur rôle, ils ne sont pas soumis aux mêmes obligations que ceux qui le sont. Qu'est-ce qu'un éditeur ? Revenons en aux principes : qu'est-ce qu'un auteur ? Une personne qui crée une oeuvre. Dans un contexte numérique, le principe de cette définition n'est pas altéré, même si les conditions matérielles de la création le sont souvent. Pour un auteur, être distribué sous cellophane à la FNAC ou sous forme de fichiers sur Kazaa ne change rigoureusement rien à ce niveau. Qu'est-ce qu'un éditeur ? Quelqu'un qui fabrique l'oeuvre, la reproduit, la distribue, et perçoit des droits au nom de l'auteur afin d'assurer sa rémunération, selon les termes d'un contrat d'édition dont l'existence est définie par le Code de la Propriété Intellectuelle. Dans un contexte numérique, a fortiori à l'intérieur d'un réseau P2P, la reproduction et la distribution d'une oeuvre sont dématérialisées, ce qui ne veut absolument pas dire que leur coût est devenu nul : ces opérations nécessitent des investissements matériels, du développement logiciel et la construction d'infrastructures de communication non négligeables. Autrement dit, les coûts sont supportés par plusieurs types d'intermédiaires entre le créateur et le consommateur final : de nouveaux intermédiaires que sont les constructeurs d'infrastructures, les sociétés de commercialisation des logiciels P2P, d'autres utilisateurs finaux. Manifestement, dans l'état actuel des choses, aucun de ces types d'intermédiaires ne réclame (encore) un retour sur investissement pour la distribution des oeuvres, dans la mesure où celui-ci est en quelque sorte garanti autrement (par la publicité par exemple dans le cas de Kazaa, par la facturation de la bande passante pour les opérateurs d'infrastructures, par la jouissance des oeuvres qui les intéressent pour les autres utilisateurs finaux). Mais qui, parmi ces acteurs, rémunère directement les auteurs ? Personne. Pourtant, il ne serait pas difficile de considérer que dans un réseau P2P, l'utilisateur final est en même temps un éditeur qui reproduit, diffuse, et même la plupart du temps choisit ou note les oeuvres qu'il distribue à ses pairs sur le réseau. Pourquoi ne pas lui demander de garantir la rémunération des auteurs comme tout éditeur classique ? On pourrait par exemple demander aux sociétés de commercialisation des logiciels de P2P, qui jouent en quelque sorte le rôle de diffuseur, d'assurer à la fois la comptabilité permettant d'établir la base de cette rémunération par auteur et la collecte des fonds auprès des utilisateurs. On pourrait demander la même chose aux fournisseurs d'accès -très présents dans ce débat d'ailleurs, mais sous la forme du témoin muet et attentif pour l'instant-, qui disposent déjà d'infrastructures de facturation et de comptabilité auprès de leurs abonnés. Beaucoup de choses sont à imaginer dans ce nouveau contexte car il est évident que la rémunération des auteurs ne peut s'effectuer sur la base d'une facturation à la pièce qui est un non-sens dans les pratiques de ce type de réseaux. Mais il y a un point sur lequel il ne faut pas se tromper : mettre les utilisateurs de Kazaa ou e-mule face à leurs responsabilités de mini-éditeurs, c'est leur demander de participer à un circuit de rémunération directe des auteurs ; certainement pas à celui qui passerait par l'intermédiaire des éditeurs classiques et qui viserait à les dédommager de leurs méventes. Car on ne voit vraiment pas ce qu'un éditeur qui presse des galettes de plastiques aurait à faire dans ce circuit. Les solutions actuellement envisagées, comme [l'extension de la taxe pour la copie privée->http://www.journaldunet.com/0207/020710tax.shtml] (extension chargée dans les fait de contre-balancer l'effet Kazaa pour les éditeurs classiques, alors que son objectif initial est totalement différent (les réseaux P2P ne sont pas faits pour la copie privée), sont à cet égard relativement absurdes dans la mesure où elles reviennent à demander à un mode de distribution des oeuvres de dédommager un autre mode de distribution au prétexte qu'il le concurrence. Dans le contexte d'une économie de marché, il est difficile de justifier que le législateur vole au secours d'une technologie de distribution au détriment d'une autre, au prétexte qu'elle est déjà installée, qu'il vole au secours d'une catégorie d'acteurs économiques au détriment d'une autre catégorie, au prétexte que ces derniers sont des nouveaux entrants. Depuis plusieurs années, les éditeurs traditionnels avaient des opportunités pour modifier leur mode de distribution, pour exploiter massivement les moyens que mettaient à leur disposition les technologies numériques couplées à Internet. Mais, que ce soit par frilosité, manque d'imagination, ou plus simplement manque d'intérêt, ils ont choisi de ne pas investir ce secteur et de laisser de nouveaux acteurs s'y installer. Il est temps maintenant d'en tirer les conclusions. New Deal La prise en compte de cette évolution passe par une redéfinition du rôle et du statut de l'éditeur, ce que ne semblent prêts à faire ni les éditeurs traditionnels, ni les autorités de tutelle, ni ces nouveaux acteurs de la diffusion culturelle que sont les fournisseurs d'accès, les sociétés de commercialisation de logiciels P2P, et les particuliers qui les utilisent. Chacun a évidemment intérêt, pour l'instant, au statu quo. Les nouveaux entrants parce que la situation actuelle leur évite de devoir faire face à leurs responsabilités vis-à-vis des auteurs, les acteurs traditionnels parce qu'ils restent seuls a pouvoir revendiquer légitimement le statut d'éditeur, les autorités de tutelle parce que tout changement dans ce domaine implique la double nécessité d'une redéfinition des instances de représentation et de négociation, CSPLA et sociétés de perception de droits notamment, et d'une modification des circuits de rémunération des auteurs, perspective propre à faire frémir tout ministre de la culture normalement constitué. Il faudra bien en passer par là pourtant. Car, chacun peut le constater, le statu quo est chaque jour de plus en plus intenable. Editeurs traditionnels et autorités de tutelle doivent être conscients qu'ils ne pourront jamais empêcher les utilisateurs d'utiliser des technologies qui sont à leur disposition et qu'ils se sont appropriés. Les nouveaux acteurs ne peuvent continuer à faire comme si tout ceci ne les concernait pas, comme si leurs pratiques n'avaient pas d'influence sur le secteur de la création culturelle. Ils doivent être conscients que la rémunération des auteurs doit être assurée, par un moyen ou par un autre, s'ils veulent continuer à profiter d'œuvres de qualité. Les auteurs de leur côté doivent apprendre à dialoguer avec d'autres acteurs que ceux qu'ils connaissent, à reprendre contact avec leur public, autrement que par le filtre rassurant, maternant, et parfois infantilisant de leur chers éditeurs. Les principes de la propriété intellectuelle ne sont pas remis en cause, contrairement à ce qu'on dit souvent. Ce sont les modalités effectives de leur mise en œuvre qu'il faut redéfinir. Pour cela, les auteurs doivent sceller un nouveau pacte avec leur public. Crédit photo : [© PPD3.com->http://www.pixelperfectdigital.com]
2003-11-12 22:19:58
Depuis plusieurs semaines, les éditeurs de disque publient des CD audio protégés par des procédés empêchant (en théorie) la copie numérique des pistes. Outre le fait que cela n'empêche nullement la copie audio de ces mêmes pistes et n'empêchera jamais une copie numérique par des procédés détournés, cette pratique pose des problèmes évidents. La FNAC signale d'ailleurs sur son site web que "Ce dispositif peut entraîner des difficultés de lecture sur certains ordinateurs, autoradios ou lecteurs DVD, la diversité des lecteurs rendant impossible de lister précisément ces équipements. Si vous rencontrez ce problème, nous nous engageons à vous reprendre et à vous rembourser le CD acheté sur Fnac.com, dans les 15 jours qui suivent la livraison de votre article." Merci Monsieur Fnac, mais mon nouveau et superbe CD de Keren Ann, Not going anywhere, protégé comme il se doit par l'infâme procédé, impose l'installation d'un logiciel sur Windows (avec redémarrage). Sur certains XP, j'ai même noté qu'il imposait un redémarrage à chaque insertion du CD concerné (les goûts et les couleurs ne se discutent pas, il est vrai). Marchera-t-il dans dix ans sur les systèmes d'exploitation du futur ? Pourquoi n'est-il lisible que sur un autoradio sur deux ? Et si j'achète dans 18 mois une Opel Corsa III blanche à motorisation diesel, est-ce que la FNAC me remboursera l'album s'il ne peut être écouté sur le lecteur de cette automobile ? Peut-être, à l'avenir, choisira-t-on son système d'exploitation ou sa voiture en fonction d'achats musicaux datant d'une ou deux décennies ? Peut-être la régression que constitue cette formidable usine à incompatibilités a-t-elle échappé aux maisons de disque ? La babélisation de l'univers de la musique n'est-elle pas, plutôt, l'évidente démonstration du peu de considération accordée par les maisons de disques à leur production musicale ? Cette industrie qui produit des CD à lisibilité provisoire et aléatoire pense donc que son métier consiste à concevoir des objets de consommation éphémère, adaptés à une écoute jetable et au renouvellement complet une fois par an des discothèques, matériels, logiciels et supports. Il semble que nous ayons été confondus avec des adolescents victimes de la mode et du matraquage des radios à quatre-chansons... Enfin, cela signifie-t-il définitivement que je n'ai pas le droit de faire une copie du CD que je viens d'acheter afin d'en préserver l'intégrité, face aux menaces de manipulation d'un neveu ou d'un fils particulièrement remuant ? Décidément, le "piratage musical" a de beaux jours devant lui puisqu'on est vraiment moins embêté en téléchargeant de la musique sur des systèmes "peer to peer" (P2P) que lorsqu'on fait chauffer sa carte bleue à la Fnac du coin... Ca vous apprendra à acheter un CD de Keren Ann...
2003-07-24 00:00:00
En dépit des réserves exprimées ailleurs sur la nécessité de la fondation de la discipline médiologique, il faut s'attrister de la disparition des Cahiers de médiologie en ligne. Cette revue, qui est la vitrine de la médiologie, discipline créée par Régis Debray, proposait depuis plusieurs années un site, [mediologie.com->http://www.mediologie.com], offrant à la lecture un nombre conséquent de numéros en texte intégral. Mediologie.com est désormais abandonné aux spéculateurs et héberge d'insipides publicités en anglais. Une certaine « Mrs Jello », Livingston, USA, liée au site ExoticDomains.net, en est désormais propriétaire depuis le 29 mars 2003. Ce désastre paraît dû au changement d'éditeur de la revue, passée des éditions Gallimard aux éditions Fayard. On s'étonne cependant qu'un éditeur aussi prestigieux que Gallimard se soit laissé aller à solder un nom de domaine aussi significatif que celui-ci, contraignant la revue à passer sur [mediologie.org->http://www.mediologie.org]. Tout ceci pourrait ne relever d'aucune stratégie particulière, dans la mesure où le nouveau nom de domaine semble avoir été acheté en urgence le 24 mai 2003 par un membre du Comité de rédaction de la revue. Le changement d'URL n'est pas condamnable en soi, et on ne saurait blâmer ceux qui adoptent le .org à la place du .com, mais on aurait apprécié que, par courtoisie et par bon sens, une redirection permanente explicite soit établie par l'éditeur historique de la revue. Á croire que l'internaute n'est pas un vrai lecteur et que les dizaines d'articles publiés en ligne étaient placés là comme dans une cave sans lumière et sans visiteurs. L'internaute manque probablement d'instruction et, sans doute, de moyens de paiement. On ne peut croire que la maison Gallimard se soit débarrassée, avec cette revue, de toute responsabilité morale concernant une entreprise éditoriale qu'elle a portée pendant des années et se moque comme d'une guigne de sa mémoire et de son avenir. Le changement d'éditeur et de nom de domaine se produit donc dans des conditions de continuité et de savoir-vivre désastreuses, qu'accentue l'impression donnée par le nouveau site, squelettique, publié par les éditions Fayard. On se demande si Gallimard a refusé la réutilisation des données autrefois mises en ligne par ses soins. Ou si Fayard a considéré la politique de Gallimard comme trop généreuse et a opté pour une réduction des ambitions du site. Aucune réponse à ces questions n'est lisible sur le nouveau site, qui s'excuse cependant des «désagréments occasionnés par cette période de transition». On espère infondée l'hypothèse selon laquelle les couvertures de la revue présentes sur la page d'accueil seraient tronquées pour d'obscures raisons touchant aux droits d'auteurs. On craint cependant d'avoir compris, au travers de cet épisode, que la mise en place d'une politique Internet continue et cohérente par certains grands éditeurs français n'est pas encore à l'ordre du jour. On n'ose même plus évoquer le terme d'édition électronique scientifique. La «bulle» est passée et le savon a un goût amer. Formulons le vœu que cette «période de transition» soit suivie d'une période de résurrection d'un site dans lequel les articles de la revue -même anciens- redeviendraient disponibles pour tous. Afin que le débat scientifique puisse reprendre ses droits.
2003-11-16 12:56:56
Création d'un collectif ouvert pour la création de listes de produits et de marques référencées par leur code-barre pour aider le citoyen consommateur à se tenir informer lors de ses achats.
Réseau associatif : collecter auprès de toutes les associations de défense des droits humains (consommateurs, syndicats, environnement, commerce équitable...) les listes noires et blanches des produits et des marques qu'elles dénoncent ou cautionnent. Aspects techniques : création d'une base de donnée consultable sur le net par ordinateur et par portable, en entrant simplement le code-barre du produit. Renseignements : associer chaque produit de la base de donnée à son code-barre en magasin. Aspects pratiques : développer et mettre sur le marché un lecteur de codes-barres qui, associé à un téléphone portable, permette de consulter plus rapidement la base de donnée lors de ses achats. Communication : promouvoir le principe d'achat éthique auprès des consommateurs. Développement : étendre la portée de cette base de donnée au niveau européen et mondial. Aspects statutaires : création d'un bureau pour la création d'un statut garantissant à ce collectif un fonctionnement démocratique, et ouvert à toutes les associations de défense des citoyens, des droits de l'homme, de d'environnement, au commerce équitable, aux syndicats... Dans l'immédiat, mise en place d'un site et d'un forum pour la mise en route de ce projet. Appel à tous les internautes pouvant aider à sa réalisation. Appel à toutes les associations pouvant contribuer à ce collectif. Toutes les bonnes volontés sont les bienvenues. Merci.
2003-12-11 21:18:03
On a connu la période des encyclopédies vendues par centaines de milliers de copies sur CD-Rom. Justification culturelle de l'achat d'un ordinateur, probablement peu ou pas utilisée. C'était la grande époque des bénéfices mirobolants et du "savoir pour tous" grâce à ce support si universel que semblait être le CD. Puis vint le temps des vaches maigres. Et la mise en ligne, sous forme gratuite, des grandes encyclopédies (Hachette, Microsoft, etc.). L'investissement étant largement amorti, l'ensemble était mis au service d'un nombre de portails (comme www.voila.fr ou www.club-internet.fr) avides de disposer de contenu pour attirer et fidéliser l'internaute. Cela a duré quelques années. Nous entrons dans une nouvelle phase. Les portails pensent probablement que la répartition des forces en présence s'est stabilisée et qu'il faut augmenter le rendement financier des sites. Qu'à cela ne tienne : les gens ont pris l'habitude d'avoir un service gratuit, on va progressivement le passer en payant. L'expérience désastreuses des accès payants mal calibrés ayant été intégrée, Voila.fr fait un effort : l'offre coûte 1,69€ pour une journée et 3,5€ pour un mois. Astucieux, car la vente à la journée est largement plus adaptée à un travail concret que la vente à l'unité, extrêmement laborieuse. Cependant, ces offres, promotionnelles, ne disent rien du tarif appliqué à terme. Elles sont encore inadaptées aux usages réels du web, dans lesquels la réactivité et la rapidité sont essentiels : lors d'un achat à l'unité, il faut attendre 24h après avoir payé pour avoir accès à l'article de ses rêves... On ne peut même pas regretter la disparition de telles encyclopédies des moteurs de recherches. En effet, elles n'étaient pas indexées par ces derniers, pour une raison sans doute volontairement obscure. L'Encyclopédie Hachette est décomposée en deux ensembles : le dictionnaire, dont l'accès reste gratuit pour ne pas trop frustrer le client, et l'encyclopédie, dont l'accès est désormais payant. Tentons l'expérience sur une recherche des plus banales, sur Napoléon. Quelle n'est pas notre surprise de découvrir cette définition de Napoléon selon le dictionnaire : "napoléon n. masc. Pièce d'or de l'ancien système monétaire français, à l'effigie de Napoléon Ier ou de Napoléon III." Où l'on découvre que l'ensemble encyclopédie et dictionnaire avait été pensé comme un tout et que le nouveau "modèle économique" d'Hachette s'embarasse peu de ces questions... Je suis convaincu que l'encyclopédie répondrait à mes attentes, mais en attendant, je vais fouiller dans Wikipedia et trouver ceci : Napoléon Bonaparte. Wikipedia pourrait-il concurrencer Hachette, Microsoft et même l'Encyclopédie Universalis? Incognitos_bis en semble convaincu. Il faudrait sans doute que de véritables professionnels du savoir fassent de ces encyclopédies libres de véritables oeuvres de haute qualité. Il ne tient qu'à nos universitaires et à nos spécialistes en tous genres de s'y atteler. Personnellement, j'ai un doute.
2003-12-31 17:08:03
Marc Veyrat présente, dans le numéro 42 de la revue Rhinocéros, sa création, ou plutôt sa créature ; toto : « Dans le temps suspendu de notre i-média, toto se glisse chaque jour pour faire quelques petits signes. » Art ASCII Toto est un être virtuel. Circulant dans et par la grâce des réseaux, il se promène et se démultiplie pour ajouter son bavardage insignifiant à celui que nous y produisons quotidiennement : « Toto ne veut rien dire et je le sais bien mais têtu, toto me fait signe : je ne peux que le faire parler ». C'est pourquoi toto est à la fois une entité distincte, « réelle » si on veut, et qui entre périodiquement dans des phases de représentation (0+0= en est la plus connue et la plus facile à matérialiser), mais c'est aussi une simple toile mouvante sur laquelle viennent se projeter nos individualités, nos interactions, mais surtout, essentiellement, nos modes de communication. Toto parle texto. Diffusé dans nos boîtes à lettres, il s'y exprime au moyen d'un sabir étonnant, fait de raccourcis phonétiques douteux, de mauvaises blagues venues en droite ligne de l'almanach Vermot, et d'un humour particulièrement corrosif. Pour mieux le (faire) comprendre, Marc Veyrat utilise un dictionnaire « i-média T » en partie fondé sur les symboles les plus visibles de la communication par réseaux depuis l'avènement des friconautes : l' i- et l'@ : « @ Mi amer i cas T mat @ d'or » , « Maux d' i M en P© Parot d' i », assène Toto dans ses mails ou encore, dans les titres de ses messages : « mal AD i », « Time is on Mi side », « Tact tare i ». Un couple Mais ce n'est pas tout, car ce que dit le toto est aussi pour lui le support de sa propre représentation graphique, Marc Veyrat reprenant ici les bases de l'art ASCII, pour produire non pas les dessins austères auxquels ce type de travail avait habitué, mais au contraire des images pétulantes et flashy (« flash i ») qui sautent à la figure dans les teintes les plus vives, sitôt ouvertes dans un logiciel de courrier électronique. S'appuyant sur les pratiques les plus contemporaines, html et flash dans le corps de message, Marc Veyrat rompt définitivement avec la tradition du Spam art telle que celle à laquelle nous avait habitué un Frédéric Madre par exemple. Toto n'est pas de la génération des pionniers du net ; c'est un habitué des forums webs, un « chateur » impénitent, familier des avatars et des smileys graphiques qui peuplent ces interfaces.
Et du coup, ce qu'il interroge, c'est à la fois la nature du couple que forme l'ego et la machine qui matérialise les représentations, et la nature de regard que se portent mutuellement ces couples étranges : « La prise de conscience mécanique chez le totospectateur de son emplacement statuaire et statique (Je resterai le maître quand même Je décide de recevoir et d'ouvrir mon i-mail), provoque la production d'une durée de pensée qui serait liée à "sa vitesse propre dans sa distance de temps, la vitesse devenant alors idée causale, idée avant l'idée". C'est ce témoignage (en fait la prise de position d'un Je suis i si mais vous ici, vous êtes déjà là-bas) qui engage le mouvement du dialogue, la construction d'un récit hâche i par aimant tiers où Je pense toujours avoir le beau rôle. » Toto Numericus ? Forme vide et belle à la fois, où se projettent tous nos désirs de communication, toto possède un tel pouvoir de fascination qu'on pourrait le prendre pour ce qu'il n'est pas (mais c'est souvent son rôle justement) : l'oracle ou la pythie qui répondent à nos questions sur les étranges phénomènes de déformation et de déréalisation que nous font subir nos conversations médiatisées. Sur ce point, Marc Veyrat nous prévient : « Pas de confusion, toto n'est pas là pour répondre à des demandes, juste rappeler au qui que Je crois penser (être), Je reste en pose devant la question du sujet : mais quel est ce gros pâté sur cet écran plat ? Je me demande bien pourquoi il faut toujours que quelqu'un me montre du doigt ce qu'il voit alors que ce qu¹il voit n'est pas là ! ni sur l'écran, ni derrière... ». Toto serait-il l'Homo Numericus ? C'est une question indécidable parce qu'elle renvoie évidemment à la nature de l'humanité, elle-même intimement liée à la configuration de ses représentations. Et ce n'est pas un hasard si l'avènement de toto s'accompagne de la remise en cause de toute perspective. « le début d'un nouveau système, à perspectives multiples, où celui qui regarde est toujours placé au centre de la mise en scène (c'est i si aussi comme là-bas), stimulé par des modules moteurs en explosion, bousculé par les différents acteurs réfléchissants de cette déjà très ancienne société du spectacle. » Si la réponse est positive en théorie, on voit bien qu'elle ne peut qu'être négative en pratique, au point où nous en sommes. Attrapez-les tous ! C'est pourquoi Homo Numericus ne peut qu'héberger Toto, lui offrir une place pour venir s'accrocher comme le pou qu'il est ... et le voir avec inquiétude parasiter peu à peu le système entier, tel un neurotoxique, en s'insérant au cœur d'articles écrits depuis longtemps. : « Possédez les toto, attrapez-les tous ! Dans la société i matériel, tous les jours c'est la même i story : est-ce que Je fais partie du système, qu'est-ce que Je fais partir du système ? Allons ! Où allons-nous ? Dans la Case @ nova, quand l'avis c'est du cinéma, toto a terriblement le beau rôle. » Si vous avez de la chance, vous pourrez retrouver Toto au détour d'un article présent sur ce site. Cliquez-le ! Il vous emmènera alors vers le « pipoling project » qui vous permettra de devenir à votre tour le toto du loft et de chater à travers le trou de serrure avec vos semblables. Un dictionnaire i-media T est à votre disposition pour dialoguer en langage toto. Il fonctionne comme un générateur de texte, produisant des phrases toto à partir des énoncés que vous lui fournissez. Toto est un produit de la société [I-matériel->http://www.imateriel.org]
2004-01-11 00:16:49
This work is licensed under a Creative
Commons License.
Cela pourrait être le titre d'un roman de politique-fiction écrit au début des années 80, n'eût été l'orthographe utilisée pour évoquer la région où doit avoir lieu l'embrasement général [[Il faut d'ailleurs rendre à César, c'est-à-dire à Jean-Pierre Cloutier, l'invention de cette superbe homophonie, pour les [Chroniques de Cybérie->http://www.cyberie.qc.ca/chronik/index.html], aujourd'hui malheureusement en suspens]]. Ce n'est que le titre d'un article évoquant comment l'année qui vient de s'achever fut à la fois excessivement sombre pour qui s'intéresse à l'histoire du cyberespace - contre-coup du fiasco de l'année précédente oblige -, mais aussi révélatrice de tendances nouvelles, qui se développeront au cours de l'année à venir. Autant 2002 fut marquée par la confusion et l'incertitude, véritable année des extrêmes d'où il était quasiment impossible de dégager de constantes dans le développement des nouvelles technologies, autant 2003 a fait apparaître, du fait du jusant, la vérité nue d'usages solidement arrimés aux technologies émergentes, jusque là bien cachés sous l'écume de la netéconomie. L'échange, star du réseau Et, c'est d'ailleurs la seule excellente nouvelle de cette année, le maître mot de cette année c'est...l'échange : échange de contenus tout d'abord, dans les réseaux [?peer-to-peer] en particulier. Si la mise à mort de Napster pouvait représenter un test quant à l'avenir de ce type de réseaux, il est absolument clair que l'explosion conséquente de réseaux complètement décentralisés comme Kazaa et edonkey, parmi beaucoup d'autres confirme une irréversibilité dans l'évolution des pratiques culturelles [[La récente enquête du [Pew Internet and American life Project->http://www.pewinternet.org/reports/toc.asp?Report=109] montrant que les attaques de la RIAA contre les utilisateurs a entraîné une chute significative de la fréquentation de certains réseau P2P est, d'une part, basée sur une enquête déclarative - qui peut donc simplement signifier que les utilisateurs avouent moins facilement ce type de pratiques, et d'autre part ne mesure pas le report de fréquentation sur d'autres réseaux, en particulier edonkey]]. Echange intense et profond de paroles ensuite, au sein de communautés, surtout constituées de jeunes, et ce par tous les moyens : téléphone portable, SMS, chat, forums, e-mail. Echange de points de vue à l'intérieur de sites communautaires dont le succès ne fut pas démenti en globalité, mais aussi à travers les [?blogs], véritable révélation de cette année, porteurs de dialogue bien plus que de soliloque, contrairement à ce qu'ont pu dire les ignorants, notamment par le jeu de la citation croisée, de l'intertextualité, c'est-à-dire de l'hypertexte. Echange enfin d'information au sein de communautés spécifiques, comme les [communautés scientifiques->http://www.revues.org/calenda/nouvelle3518.html] dont certains membres les plus éminents semblent s'être résolument engagés aux côtés de l'open access, ou les communautés de développeurs open source dont la bonne santé est confirmée. Et le plus étonnant est que l'usage des réseaux de communication pour pratiquer des échanges réciproques entre utilisateurs correspond exactement à ce pour quoi ces réseaux ont été conçus au départ, ce qu'avaient réussi à faire oublier les marchands du Web avant d'être balayés. L'autre fait marquant de l'année, la fin de l'isolement de l'équipement informatique dans les foyers, son métissage avec les objets de la vie courante, dont l'exemple le plus fameux de l'année est évidemment l'[Ipod->http://www.apple.com/ipod/], mais on pourrait parler aussi du succès des [barebones et des mini-pc->http://site.barbones.com/v1/] vendues par les intégrateurs, ou des lecteurs-graveurs de DVD à disque dur intégré, fournit un complément idéal aux pratiques d'échanges tous azimuts dans lesquelles se sont lancés les individus, pour faire émerger de solides pratiques culturelles fortement renouvelées autour d'objets mobiles, multifonctions, communicants, supports à une consommation communautaire que tous les marketeurs de la netéconomie avaient un temps vendus à leurs commanditaires, sans réussir à émuler artificiellement, comme ils en avaient le projet, la moindre parcelle de ce qui s'est développé naturellement au coeur des réseaux. Veillée d'armes Mais évidemment, l'émergence de nouvelles pratiques culturelles plutôt massives ne va pas sans heurt, en remettant en cause les positions bien établies de l'industrie culturelle musicale, cinématographique et dans une moindre mesure de l'imprimé. Et ce que nous avons vécu cette année : menaces et attaques de l'industrie du copyright contre les utilisateurs, multiplication des débats et déclarations à l'emporte-pièce, développement majeur des systèmes techniques de DRM, début des grandes manoeuvres législatives, ne sont sans doute que les premières escarmouches, la veillée d'armes d'un conflit majeur et généralisé à l'ensemble de l'industrie culturelle dans les années qui viennent. Jamais l'opposition entre deux manières de faire circuler l'information, entre les pyramides et les réseaux pour le dire vite, n'a semblé si frontale, si insurmontable ; et on ne voit vraiment pas ce qui pourrait les réconcilier dans l'immédiat. Mais la question n'est pas de savoir qui des utilisateurs ou des éditeurs, des consommateurs ou des distributeurs l'emportera à l'issue de cette guerre qui apparaît inéluctable - et peut-être faudrait-il parler des auteurs d'ailleurs, qui n'ont pas encore joué leur partie, malgré de [timides tentatives->http://www.zdnet.fr/actualites/internet/0,39020774,39132304,00.htm] vite réprimées. Car il est à peu près certain qu'il n'y aura ni vainqueur ni vaincu, c'est-à-dire, très exactement qu'aucun des deux belligérants ne pourra continuer, à l'issue de cette guerre, ses pratiques exactement comme s'il se trouvait dans les mêmes conditions qu'auparavant. Il est au contraire à peu près certain qu'une configuration inconnue en sortira, faite d'un mélange entre ce que nous connaissons déjà, ce que nous voyons poindre, et ce que nous n'imaginons pas encore. Certains se sont fait une spécialité des prédictions hasardeuses, notamment en plein boom de la netéconomie, en extrapolant des courbes de croissances farfelues jusque quelques jours avant l'effondrement. Pourquoi ne pas nous livrer à notre tour à ce petit jeu, mais sur un autre plan...et dans l'autre sens. Petit essai de prospective à un ou deux coups sur l'échiquier d'une guerre programmée autour du copyright. Durcissement législatif - Un durcissement législatif considérable en France et en Europe sous l'influence directe l'industrie de la Propriété Industrielle : en France, deux projets de loi absolument décisifs sont en train ou vont être discutés devant la représentation nationale. Il s'agit de la loi pour [[la confiance dans l'Economie Numérique->http://www.assemblee-nat.fr/12/dossiers/economie_numerique.asp] (LEN), et de la [loi sur l'harmonisation du droit d'auteur et des droits voisins dans l'économie numérique->http://www.assemblee-nat.fr/12/dossiers/droit_auteur.asp]. Ces deux projets de loi sont en partie la transposition en droit français de directives européennes ; c'est pourquoi ils ne représentent pas une évolution isolée de notre pays. La LEN, portée par le Ministère de l'Industrie, prend pour cible les hébergeurs, les fournisseurs d'accès et les utilisateurs. Aux premiers, elle impose d'obéir aux injonctions d'un tiers demandant la fermeture d'un site dont il juge les contenus illicites ; les seconds pourront se voir imposer des mesures de filtrage afin d'empêcher leurs abonnés d'accéder aux sites jugés illicites ; les derniers voient leurs mails ne plus être protégés par le secret de la correspondance privée. L'autre projet de loi, relatif au droit d'auteur et aux droits voisins dans la société de l'information, porté par le Ministère de la Culture, crée en droit français un équivalent du Digital Millenium Copyright Act américain, c'est-à-dire qu'il protège par la loi les systèmes anti-copie présents sur les supports numériques en criminalisant l'invention, la distribution et l'usage de procédés de contournement de ces mesures techniques. Un certain nombre de matériels et de logiciels deviendront illégaux à l'importation, comme ils le sont actuellement aux Etats-Unis. Ce pays constitue un bon laboratoire pour comprendre ce qui va se passer en Europe du fait de cette législation. En légalisant et en protégeant par la loi les dispositifs anti-copie, le projet de loi Aillagon affaiblit par ailleurs considérablement le droit de copie privée, garanti jusqu'à présent, y compris par une redevance dont le principe, lui, n'est pas remis en cause par le Ministère. La coexistence d'un système où les consommateurs paieront une redevance sur les supports vierges (appelée à s'étendre d'ailleurs) pour un usage qui leur sera interdit par des dispositifs techniques protégés par la loi créera d'importantes batailles juridiques, menées au premier chef par les associations de consommateurs. - C'est d'ailleurs une des tendances les plus importantes de l'année que d'avoir vu le retrait relatif des militants traditionnels des libertés sur le net (par découragement, inefficacité, manque de force, « ghettoïsation », ou investissement dans [le SMSI->http://www.crisinfo.org/live/index.php]), progressivement relayés par, d'un côté, les organisations de défense des consommateurs les plus traditionnelles, et de l'autre des associations de consommateurs plus spécialisées, comme celles qui regroupent les [abonnés à l'Internet haut-débit->http://www.odebi.org/]. Cette modification de la composition des troupes dans les conflits qui s'annoncent n'est pas sans signification. Elle annonce d'abord que le combat sera bien moins déséquilibré qu'il ne l'était jusqu'à présent. Les associations de consommateurs disposent de moyens d'information conséquents et d'une expérience en matière de pédagogie à l'égard du grand public que n'avaient pas les organisations de netizen. Il est donc intéressant de constater combien, depuis plusieurs mois, des organisations généralistes comme 60 millions de consommateurs ou l'UFC Que Choisir [montent au créneau->http://www.zdnet.fr/actualites/technologie/0,39020809,2135253,00.htm] sur ces sujets, en attaquant sous l'angle de la copie privée le plus souvent, bien sûr, mais aussi sur un terrain plus juridique en dénonçant la criminalisation rampante du comportement des consommateurs en matière de culture numérique. De leur côté, les organisations de défense des abonnés haut-débit s'inquiètent davantage des menaces que font peser sur les personnes qu'elles représentent les législations à venir s'attaquant aux individus comme producteurs d'information (dans les forums, les blogs, les sites personnels). Ce qui est intéressant, c'est que ni les uns ni les autres ne prennent position au nom des valeurs fondamentales de la démocratie - valeurs dont le Ministre de l'Intérieur a disqualifié l'évocation en la qualifiant de « droit-de-l'hommisme » -, mais au nom des intérêts matériels et immédiats du consommateur numérique. Il est possible que ce type d'arguments porte davantage de fruits que le précédent ; mais son avènement indique la mise en place d'un régime de surveillance généralisée avec le consentement des citoyens, pourvu que leurs passions numériques soient satisfaites. Il est possible et même probable que les autorités et les représentants des consommateurs finissent par trouver un terrain d'entente, autour d'une sauvegarde a minima de la copie privée. Et d'ailleurs, on peut relever que le projet de loi sur le droit d'auteur dans la société de l'information leur donne un gage en tentant d'assainir le régime des sociétés de perception de droits, objets de leurs attaques les plus virulents. Course à l'armement technologique - Par ailleurs, il faudra compter avec la poursuite d'une course à l'armement technologique entre éditeurs et utilisateurs dont on a vu les premiers signes cette année : les attaques juridiques contre les premiers réseaux provoquant leur démantèlement, puis les attaques contre les utilisateurs eux-mêmes, puis la dissémination sur ces réseaux de leurres destinés à les rendre moins fiables et performants, puis les intrusions éventuelles dans les systèmes informatiques des utilisateurs afin d'effacer les données protégées, mais aussi la multiplication des systèmes anti-copie. De l'autre côté, les utilisateurs sont passés de systèmes centralisés à des systèmes décentralisés, puis ils ont tenté de protéger leur identité, puis à traquer par un système de référencement les adresses IP d'acteurs indésirables. La prochaine étape est l'explosion du nombre de réseaux d'échanges de fichiers du fait des attaques répétées de l'industrie du copyright contre le réseau Kazaa. En fait, tout se passe comme si c'était un ennemi insaisissable qui était poursuivi, sautant de réseau en réseau à mesure qu'il est poursuivi, et surtout éclatant en une myriade d'acteurs plus petits. Et comme la vitesse d'adaptation des utilisateurs individuels - surtout des adolescents qui constituent la principale cible stratégique de cette industrie est infiniment supérieure à celle des professionnels, il y a des chances pour que la stratégie de harcèlement mise en œuvre par les industriels soit en fin de compte inefficace. Par ailleurs, les actions d'identification et de poursuites légales des utilisateurs conduira certainement ceux-ci à se protéger derrière des technologies de cryptage existant déjà, mais qu'il reste à coupler aux réseaux P2P ([Waste->http://mitsugi.host.sk/waste/] et [Freenet->http://freenet.sourceforge.net/] en sont les premiers exemples). Au bout du compte, il est possible que les grands réseaux anonymes et simples d'accès comme Kazaa et Edonkey finissent par disparaître, laissant la place à une multiplicité de petits réseaux privés et cryptés, mouvant, non permanents, et finalement inaccessibles aux capacités de nuisance des majors. On pourra alors voir se développer des réseaux clandestins de taille petite ou moyenne, dont tous les participants se connaissent directement ou indirectement (un peu sur le modèle de Friendster), et dont l'intégrité est périodiquement remise en cause par des infiltrations et trahisons provoquant leur éclatement et leur reformation perpétuelle. - A côté de cette guerre perpétuelle entre consommateurs et éditeurs, portant presque uniquement sur des produits très commerciaux - il est aujourd'hui plus facile de trouver Matrix que Le Sacrifice sur Kazaa -, on peut très bien imaginer voir se développer un réseau parallèle de production et de consommation culturelle, fondée sur un autre modèle économique. L'étonnant succès des licences [Creative Commons->http://www.creativecommons.org] en est un début de preuve. Toute une série de producteurs de contenus - journalistes, écrivains, artistes -, se sont approprié ce système de protection des œuvres qui correspondait à leur désir de diffuser au mieux leurs créations. Le succès de netlabels comme [Magnatune->http://www.magnatune.com] par exemple, qui offrent les albums en libre téléchargement mais offrent un système de rémunération des auteurs pour une utilisation commerciale des œuvres, est riche de promesses. Nombre d'artistes disent savoir très bien désormais que leur avenir financier ne passera que par des prestations non numériques - comme les concerts pour les musiciens. Au delà même, auteurs de textes, créateurs de vidéos, journalistes militants, sans parler des programmeurs diffusent déjà leurs œuvres sous des licences libres ou semi-libres. Il est probable que ces circuits de diffusion se développent sans jamais devenir majoritaires, restant perpétuellement « en marge » d'une production destinée à une consommation purement commerciale. - Mais ce serait une erreur de croire que le développement de réseaux parallèles de diffusion des œuvres et de gestion de la propriété intellectuelle est synonyme de coexistence pacifique avec la culture de masse fabriquée par l'industrie du copyright. Car, mais c'est une question que l'on ne peut voir apparaître qu'à plus long terme, celle-ci a besoin d'un marché unifié et constamment croissant. La fabrication de ce marché passe par la maîtrise de l'environnement de consommation culturelle numérique, c'est-à-dire, entre autres, par la maîtrise des machines elles-mêmes. C'est évidemment ce que l'on voit poindre avec les projets de type [Palladium->http://www.lebars.org/sec/tcpa-faq.fr.html] qui ont pour conséquence, sinon pour objectif, d'éliminer les systèmes, les circuits et les comportements marginaux ou concurrentiels à ce type de consommation. La réalisation de tels objectifs passera par la mise en place de mesures techniques, de politiques commerciales et de mesures législatives coordonnées par une alliance nécessaire entre producteurs de contenus commerciaux, éditeurs de logiciels, constructeurs informatiques et fondeurs de composants. On l'aura compris, la tendance qui se dégage à l'issue de cette analyse "rétro-prospective", est une balkanisation généralisée du réseau dans un contexte de guerre permanente entre ses acteurs. L'avènement de ce que certains des plus pessimistes ont pu qualifier de « [moyen-âge informatique->http://www.uzine.net/article1948.html] » n'est pas sûr, évidemment. Il est cependant le moins improbable au regard de ce qui s'est passé cette année, révélant la mise en place d'une opposition frontale entre des usages fondés sur la mise en commun et l'échange réciproque entre utilisateurs d'une part, et, d'autre part, le principe d'une diffusion massive de produits culturels unifiés pour le plus grand nombre à partir d'un petit nombre de sources. Crédit photo : [© PPD3.com->http://www.pixelperfectdigital.com]
2000-00-00 00:00:00
Les articles publiés sur Homo Numericus sont accompagnés d'une licence qui définit les droits relatifs à leur utilisation. Cette licence est toujours [[Sauf lorsqu'il s'agit d'une republication bien sûr. Dans ce cas, les conditions d'utilisation restent à la première publication]] une licence Creative Commons qui garantit au public le droit de copier et redistribuer les textes publiés. Chaque auteur a la possibilité de choisir à quelles conditions son texte pourra l'être : à condition d'attribution et/ou à condition d'usage non commercial et/ou à condition de non modification ; ou à aucune de ces conditions. Pour savoir exactement quels conditions ont été choisies par l'auteur d'un texte, il est recommandé de cliquer sur l'icône Creative Commons accolée à l'article, qui conduit sur une page expliquant clairement ce que le lecteur a le droit de faire et de ne pas faire. Exemple : le webmaster d'un site Web veut utiliser un texte publié sur Homo Numericus, mais en y ajoutant deux paragraphes de son cru et en l'"anonymisant". Il clique sur le logo Creative Commons à droite de l'article pour savoir s'il a le droit de le faire ou non. Par défaut, si l'auteur n'a pas choisi de licence particulière, c'est la licence Creative Commons la plus restrictive qui est appliquée :"by-nd-nc" qui interdit toute modification, toute utilisation dans un cadre commercial et requiert l'attribution. Si l'auteur possède un compte Paypal, il peut intégrer un formulaire de paiement en ligne dans son article, lui permettant de céder l'ensemble des droits patrimoniaux sur son texte. Dans ce cas, un logo Paypal apparaît en dessous du logo Creative Commons. Il suffit de cliquer sur ce logo pour être dirigé vers le site de paiement en ligne. Rien n'empêche d'ailleurs l'auteur et l'acheteur potentiel de prendre contact pour déterminer les conditions exactes de la transaction. Exemple : le rédacteur en chef d'un magazine, en ligne ou non, veut pouvoir republier un article qu'il a trouvé intéressant sur Homo Numericus. Il a cliqué sur le logo Creative Commons et s'est rendu compte que la licence attachée à cet article interdisait toute republication dans un cadre commercial. Il peut obtenir de l'auteur la levée de cette interdiction en cliquant sur le logo Paypal qui l'emmènera vers un formulaire de paiement en ligne. Il est aussi possible, dans un esprit plus désintéressé, d'encourager un auteur en lui envoyant un don par l'intermédiaire de Paypal. Si l'auteur possède un compte, il peut utiliser son formulaire de paiement en ligne dans ses informations personnelles. Un logo Paypal donations apparaît alors sur la page personnelle de l'auteur, qui affiche sa biographie et la liste de ses articles. Il suffit de cliquer dessus pour être conduit vers une page de paiement en ligne. Dans tous les cas, chaque auteur reste possesseur de ses droits sur ses textes. La publication d'un texte sur Homo Numericus n'entraîne pas de session de droits. Chaque auteur détermine pour chaque article publié sur Homo Numericus quelle licence il veut lui appliquer et s'il veut ou non obtenir rémunération pour une utilisation étendue de son article. Il gère ensuite de manière autonome sa propre rémunération.
Toutes ces opérations doivent se faire dans la légèreté et la confiance. Homo Numericus ne met pas et ne mettra jamais en place de systèmes techniques de protection de la propriété intellectuelle. Il sera toujours techniquement possible à chacun de récupérer le texte d'un article et d'en faire ce qu'il souhaite. Il en est de même pour le fil d'information, que l'on peut récupérer [ici->http://www.homo-numericus.net/breves-fil.php3]. Il paraît qu'au Canada, les portes des maisons restent ouvertes ; aux Etats-Unis, les journaux sont vendus dans des distributeurs ouverts, sans contrôle ; en Irlande, on visite des monuments historiques en payant son droit d'entrée par l'intermédiaire d'une "honesty box" non surveillée. Faisons le pari qu'il peut en être de même dans le cyberespace, sur des contenus particuliers, quand les enjeux financiers sont peu importants comme c'est le cas ici.
2004-02-12 11:03:19
Après l'immense succès rencontré par les sites de networking social outre-atlantique, Thalensys propose enfin ce concept innovant aux internautes francophones.
Thalensys annonce l'ouverture de son site de « networking social » www.Friendsys.com Basé sur la théorie des six degrés*, Friendsys permet à ses utilisateurs d'élargir leur réseau de connaissances et de gérer leur vie sociale. Friendsys, à la différence des sites de rencontres classiques, permet de faire des rencontres (amicales, amoureuses ou professionnelles) de manière sûre et efficace en profitant de la recommandation de ses amis. Il permet de gérer réellement sa vie sociale. Les membres peuvent par exemple organiser une soirée puis gérer directement sur le site Friendsys leurs invitations et savoir qui est intéressé. Le principe est que chaque nouveau membre invite ses amis ou connaissances à le rejoindre sur Friendsys. Il est alors mis automatiquement en relation avec les amis de ses amis avec lesquels il peut discuter en direct, organiser une soirée, s'échanger des idées... Le réseau ainsi constitué est composé de personnes ayant au moins un ami en commun. Friendsys offre un éventail très large de fonctionnalités. Il intègre notamment un outil de visualisation très original permettant aux membres de voir l'ensemble de leur réseau. Chokri Ben Dhaou, PDG de Thalensys, société éditrice de Friendsys, affiche des objectifs très ambitieux : « Nous croyons fermement en ce concept et nous voulons le développer rapidement dans toute l'Europe avec des versions en anglais, espagnol, allemand et italien. Notre objectif est de dépasser le million de membres à la fin de l'année 2004. Nous avons, dès à présent, engagé des contacts avec des investisseurs pour lever des fonds. » Friendsys est disponible depuis le 09 Février 2004 dans sa première version et continuera de proposer de nouvelles fonctionnalités selon les demandes des utilisateurs. Les versions en langue anglaise, allemande, espagnole et italienne suivront très rapidement au premier semestre 2004. Friendsys est édité par Thalensys, société française créée en 2003, spécialisée dans la réalisation de logiciels et les technologies de l'Internet. *La théorie des six degrés de séparations du « psychologue social » américain Stanley Milgram stipule que deux individus quelconques sur la Terre sont reliés par une chaîne d'au plus six personnes. Contact presse Friendsys : C. BEN DHAOU +33 (0)1.34.21.91.06 contact@friendsys.com
2004-02-20 02:23:34
Lorsque André Santini, tête de liste UDF pour les prochaines élections régionales en Ile-de-France lança son site de campagne aux dernières journées Solutions Linux, on pouvait y voir le signe d'un intérêt de l'homme politique pour les logiciels libres et leurs vertus "citoyennes" ; intérêt que l'on sait n'être pas, chez lui, de circonstance. Lorsqu'on apprit que justement ce site était conçu par une société spécialisée en logiciels libres et avec l'un d'entre eux, on pouvait encore se dire qu'il y avait là une démarche plus profonde qu'un simple effet d'affiche. Et lorsqu'il apparut que la société en question reverserait à la "communauté" [les développements informatiques->http://www.santini2004.net/article62.html] qu'avait occasionnés la mise en place du site, on applaudit des deux mains tout en commençant à trouver le clin d'oeil un peu appuyé. Mais ce n'est pas tout. Car André Santini propose à ses partisans de monter eux aussi leur propre site avec des logiciels libres ; et pour bien montrer qu'il est à la pointe du progrès, il appelle cela un "weblog". Créez vous aussi, donc, votre weblog en GPL parlant d'André Santini et signalez-le au site [santini2004.net->http://www.santini2004.net/]. Récupérez les [scripts de syndication->http://www.santini2004.net/article71.html] pour afficher automatiquement les dernières nouvelles de la campagne sur votre weblog ; lequel sera à son tour signalé et qui sait ? peut-être lui même syndiqué sur le site du candidat, bouclant ainsi la boucle de l'information, dans un véritable cercle vertueux d'autoproduction de louanges à la gloire de celui qu'il faut bien qualifier désormais de premier candidat RSS 0.91 de l'histoire de la démocratie. On connaissait les séries télévisées en costume, voici maintenant les sites politiques en déguisement d'informatiquement correct, où pas un bouton de vareuse ne manque : depuis l'extension de nom de domaine en .net au lieu du .com, désormais infâme, jusqu'à la présentation d'un lecteur multimédia alternatif non pas même à Windows Media Player (ce qui est d'un commun), mais plutôt à Real Player One, ce qui est le comble du chic branché et furieusement alter. Ne manquent plus que les flashmobs André Santini et les moblogs de même farine pour le propulser en tête du classement des candidats les plus post-modernes de l'année (cela dit, le mérite n'est pas si grand, vu l'état de la concurrence). Mais, patience, cela viendra bientôt, car on peut déjà remarquer que les traditionnelles photos de campagne ont été rebaptisées "photoblogs" et que non seulement le francilien moyen peut suivre l'actualité de la campagne sur son portable (ce qui est déjà un avantage considérable), mais en plus envoyer lui-même des SMS à André Santini qui montrera à cette occasion, n'en doutons pas, ses talents de textonaute avisé. Il pourra d'ailleurs rappeler à cette occasion son apport considérable à la loi sur la confiance dans l'économie numérique, récemment adoptée à l'Assemblée Nationale : la suppression de la première minute indivisible dans les forfaits de téléphonie mobile. Quoiqu'il en soit, ça tapote déjà dur sur les mini-claviers, à en juger par la teneur des messages qui s'affichent sur le ticker du site de campagne (un autre candidat a-t-il, lui aussi, un ticker ?) : " Andre en idf on veut dire ouf et arreter de devenir oufs !! Vas y ! ", "andré santini , c'est la solution pour être heureux en idf! :-)", "contre le blues des franciliens, andre, un roc ! ", "Dédé c trop dla balle !", ad. lib. Mais venons-en à l'essentiel : la campagne et la rénovation de la vie politique francilienne par le biais de ce site de campagne, tête de pont de la mise en place d'une démocratie participative que chacun appelle de ses voeux : car, pour André Santini, "aujourd'hui, on ne doit plus décider tout seul". Voici donc l'inévitable forum de discussion, intitulé "Forum de dialogue", portant sur les sujets les plus divers, et où les internautes sont invités à déverser leurs "avis". Pour quoi faire ? selon quelle procédure ? Mystère ; ou plutôt, hésitation, car si le site affirme que le projet présenté le 16 février dernier "n'est pas un programme", que chaque internaute peut contribuer à le faire évoluer via le forum jusqu'au dernier moment, ce n'est pas de cette oreille que l'ont entendu les principaux médias qui s'en sont fait écho, jusqu'au candidat lui-même, qui s'emmêle un peu les pinceaux en annonçant son "programme" sur [une autre page->http://www.santini2004.net/article23.html] de son site. On peut d'ailleurs s'amuser à imaginer ce que pourrait être un programme élaboré par un forum quelques semaines avant les élections.... Un smiley ? ;-)
2004-04-02 16:13:13
On a beaucoup glosé sur les blogs. Qu'on se le dise, un blog n'est rien d'autre qu'un site web, animé par une personne seule ou par un groupe, à l'aide d'un outil simple et dont les articles (les "posts" ou "billets") sont classés dans leur ordre de publication. Il est des blogs comme des livres: il en existe de toutes sortes, de tous niveaux, de toutes tonalités. Ce qui importe, ce n'est ni le nombre de blogs vivants ou morts, ni le fait que les hommes politiques se lancent dans les blogs parce que c'est à la mode, ni la durée de vie des blogs. Revenons à la définition initiale du blog : un carnet de bord, rédigé par un individu, qui raconte ses affres sentimentaux, des épisodes amusants de sa journée ou prend des positions politiques personnelles (parfois sous pseudonymes). Et à la finalité du blog : nourrir l'échange. Beaucoup diront qu'on nourrit le bruit, encore du bruit, toujours du bruit. Encore quelques milliards de pages que personne ne lira. Inutile de dire, et de répéter, que le blog chez Skyrock ou chez Skynet, c'est -contre toute attente- le retour en force de l'écrit. De l'écriture et de la lecture. Une furieuse et insatiable passion de l'écriture. Où l'on se rend compte que les styles sont disséqués, perçus, ressentis. Où il ne s'agit pas seulement de transmettre une information, mais également une sensibilité, un point de vue, une personnalité. Au-delà de ce phénomène majeur, qui sanctionne un rapport renouvelé à l'écrit, l'émergence fulgurante des blogs est plus encore marquée par un autre mouvement : la naissance d'une nouvelle forme de convivialité. Comment ? Des Minitelleurs rivés sur leurs écrans, boutonneux et blafards, fuyant le monde pour le repaire rassurant que leur procure un clavier AZERTY et un écran LCD plus ou moins flambant, ces Geek reclus dans leurs studios suant la solitude et l'incapacité à vivre dans la vraie vie, auraient-ils une sociabilité? Ne sont-ils pas perclus d'onanisme et cantonnés aux blagues d'informaticiens? Et pourtant. Et pourtant, il y a un bien une sociabilité blogueuse. D'abord, une sociabilité électronique. Un ensemble de liens qui se tissent, de gens qui se lisent, régulièrement, très régulièrement. Des gens qui syndiquent leurs contenus, pointent vers un billet qui les a touchés, signalent une radioblog particulièrement riche, se lancent dans des aventures d'écriture à 4,6,10, parfois 20 mains. Avec des gens qui se serrent les coudes, qui partagent, qui échangent, qui se lient, puis se délient, en public, souvent en privé. De petits groupes se constituent ainsi, aux contours variables, dont chaque individu est à la fois le centre et le maillon, composant une chaîne humaine plutôt sympathique et proche de celles que l'ont peut rencontrer dans le monde réel. Ensuite, une sociabilité en chair et en os. Parce que les blogueurs aiment se rencontrer. En tête-à-tête, parfois. En réunion, aussi. Des apéro-blog, il y en a souvent. A Paris, à Lyon, à Marseille. Les gens se rencontrent, se découvrent, se détestent, s'apprécient, se revoient, ne se revoient jamais, sans rancune. On connaît des histoires d'amour entre blogueurs, certaines se sont achevées, d'autres durent encore. On connaît des amitiés, des inimitiés, des disputes, des partages. Bref, au fond, toutes choses qu'on trouve dans la vraie vie. Bien sûr,on n'oubliera pas le syndrôme de la troupe amorphe et bêlante, illustré par les stupides classements par blog préféré et les dons de "bonbons" chez 20six, l'hébergeur de blogs le plus grégaire et le plus malin de France[[[20six->http://www.20six.fr] Extrait du contrat liant un blogueur avec 20six : "Les Données Communiquées par un Utilisateur octroient de façon irrévocable à 20six une licence gratuite et non exclusive, dans le monde entier et pour la durée des droits telle que définie par le Code de la propriété intellectuelle, lui permettant (i) de les utiliser (entièrement ou en partie), (ii) et, plus généralement, de les multiplier, modifier, adapter, reproduire, publier, traduire, propager, réaliser, représenter, et/ou d'intégrer le contenu concerné dans d'autres oeuvres, medias, ou technologies, sur tous supports, dans le respect des lois et règlements en vigueur." ]]. Bien sûr, il y a les commentaires sur les posts, rarement malins, fréquemment creux, parfois même transparents d'insipidité. Bien sûr, on n'oubliera pas les pseudo-artistes qui se construisent une petite cour pour se convaincre de leur génie; les gros malins qui pensent qu'en se présentant comme serial-lover, ils pourront agrandir leur tableau de chasse; les rigolos qui n'ont rien à dire; les dépressifs qui ressassent pendant dix ans la même névrose autocontemplative. Bien sûr, on ne les oubliera pas, parce qu'eux aussi font partie de la vie, blafarde et lumineuse à la fois, que nous vivons tous les jours hors de nos écrans.
2004-04-05 17:09:57
C'est une petite blague
Toulouse Les Sœurs de Saint François Un homme roule sur une route déserte quand il aperçoit un panneau: Les Sœurs de St François - Maison de la prostitution 10 Km Croyant à un trouble de la perception, il continue sa route. Bientôt un nouveau panneau : Les Sœurs de St François - Maison de la prostitution 5 Km Stupéfait (il l'était déjà un peu quand même), il commence à y croire quand il voit un panneau : Les Sœurs de St François - Maison de la prostitution : Prochaine à droite La curiosité aidant, son envie de culte se trouve exacerbé, il tourne à droite et finit par arriver sur un parking. Il se gare devant une porte massive portant l'écriteau : " Sœurs de St François " Ding ding fait la sonnette et crouiiiiic fait la porte lorsqu'une nonne en habit noir vient lui ouvrir. " Que pouvons-nous faire pour vous, mon fils? » "J'ai vu le panneau sur la route, et je suis intéressé..." "Très bien mon fils, suivez-moi ", dit la nonne. Elle le mène à travers divers passages, et il se sent vite désorienté. La nonne s'arrête devant une porte fermée et lui dit : " Veuillez frapper à la porte." Il fait toc toc, et une autre nonne apparaît, portant une petite coupe et déclare à son tour : "Mettez 100 € dans la coupe, puis passez la porte qui est au fond de ce couloir." Il sort les 100 €, les met dans la coupe, et se met à trotter allègrement (comme quelqu'un qui a le culte qui gratte) vers la porte, qu'il franchit. Alors que la porte se referme derrière lui, il s'aperçoit qu'il est revenu sur le parking. En face de lui un panneau : Allez en paix. Vous avez bien été baisé par les Sœurs de St François. Que cela vous serve de leçon, pauvre pêcheur !" Toulouse
2004-05-21 11:53:41
Informatique, Internet, ordinateur. Ces trois mots évoquent le plus souvent deux univers possibles : ou bien celui de la technique, proche des mathématiques et des sciences qui en sont dérivées, et c'est l'ordinateur comme machine à calculer, ou bien l'univers multimédia, de l'image et du graphisme, et c'est l'ordinateur comme télévision interactive. La domination symbolique que ces deux univers exercent sur les médias informatisés dans le grand public est telle, qu'elle parvient à faire oublier que la matière qui les constitue, surtout lorsqu'il sont interconnectés en réseau, n'est rien d'autre que le texte, et les activités intellectuelles qu'il mobilise, la lecture et l'écriture. Mais plus le temps passe, et les modes aussi, et plus la révolution technologique que nous sommes en train de vivre, celle des technologies numériques en réseau, dévoile sa véritable nature : une révolution de la communication écrite bien plus que le surgissement d'un troisième mode de communication, aussi radicalement étranger au texte écrit que celui-ci l'est par rapport à la communication orale. Et cette révolution de la forme écrite apparaît d'abord comme une explosion quantitative, une dissémination extrêmement rapide des pratiques d'écriture, une multiplication sans précédent de ce qu'il faut bien appeler des auteurs de textes écrits. On pourrait convoquer l'histoire pour le prouver, ou les statistiques, ou encore les études d'usage. Mais il suffit plus simplement de s'intéresser à l'extraordinaire diversité des formes d'écritures qu'il mobilise pour le comprendre ; et comme toujours dans cet espace, la véritable révolution des usages qui s'y déroule, se dissimule derrière des outils et des technologies qui constituent le langage par l'intermédiaire duquel celle-ci s'exprime : , traitements de texte, outils d'annotation, systèmes de publication de contenus [[ Les Content Management Systems sont devenus très populaires depuis l'apparition de Phpnuke aux alentours de 2000. Il s'agit de logiciels permettant de gérer de manière automatique et en ligne la publication de textes produits le plus souvent par une équipe éditoriale. Leur disponibilité pour le grand public a favorisé l'émergence de milliers de magazine en ligne produits par des non professionnels, sur une échelle bien plus importante que les fanzines]], blogs [[ Le blog ou weblog est un type de site web particulier, se présentant comme une sorte de journal intime en ligne ; c'est la succession strictement chronologique des publications, qui prennent souvent la forme de courts billets rédigés sur un ton très personnel qui en fait la caractéristique]], wiki[[ Les wikis sont des outils informatiques d'écriture collaborative. Simplissimes d'utilisation, ils permettent à tout un chacun de modifier directement les pages d'un site web, sans connaissance technique. Il abolissent la barrière entre l'auteur et le lecteur]], forums, mails, et même messagerie instantanée, autant d'outils qui bien qu'apparus à des époques différentes s'accumulent comme des strates géologiques sans se remplacer les uns les autres. Si bien qu'aujourd'hui, un ordinateur apparaît comme une formidable machine textuelle, offrant une palette d'outils sans précédent en diversité pour produire du texte ; ou plutôt des textes, courts ou longs, fragmentaires, interreliés, foisonnants, multiples et omniprésents ; et c'est bien cette propriété pour ainsi dire « biologique » des écritures numériques qui en fait la singularité. Le singulier et le collectif Le système conceptuel autour duquel s'organise la distribution de ces différentes formes d'écriture est à l'articulation du singulier et du collectif. Il n'y a là rien de nouveau dans l'histoire des formes d'écriture évidemment, en occident du moins : depuis la naissance de l'écriture lyrique avec Archiloque jusqu'à l'invention de l'autobiographie, en contrepoint du développement de la rhétorique et du surgissement de l'écriture romanesque, celle-ci s'alimente de la tension entre l'expression du moi et la manière dont cette expression s'inscrit dans un espace collectif, un espace public qui n'est autre que celui de la Cité. Si l'écriture fait surgir avec autant d'acuité cette question, c'est sans doute parce qu'elle met en œuvre une voix sans corps qui permette de la situer, matériellement ou socialement ; d'où vient cette voix qui surgit portée par l'écriture ? de quel droit parle-t-elle ? qui est-elle pour oser affirmer (ou interroger) ceci ou cela ? Tandis que l'oralité ne permet pas d'échapper à ces demandes de justification, parce que les réponses sont immédiatement visibles, incorporées par celui qui parle, par l'ensemble des éléments de communication non verbale qui accompagnent son discours, par sa situation, physique ou sociale, l'écriture permet au moins de différer les réponses, de jouer avec l'incertitude, de s'appuyer sur une stratégie de dissimulation - voire de supercherie, et partant de créer une possibilité de liberté qu'il n'appartient qu'à l'auteur d'entretenir ou de supprimer en donnant les gages qu'on attend de lui. Bien sûr, toute l'histoire de l'écriture, et en particulier l'histoire littéraire, est celle d'une tentative de réduction de cet espace de liberté, en forçant en particulier celui qui en est à l'origine, d'en endosser la responsabilité, de garantir, sur son corps très souvent, ce qu'il écrit, de se justifier de l'avoir écrit. C'est toute l'histoire de la notion d'auteur, de la signature et de l'authentification, mais aussi, c'est toute l'histoire de la tradition littéraire, de la fixation et de la réduction des formes littéraires, qui forcent la singularité d'une subjectivité à s'inscrire dans une dimension collective, elle-même représentée et donc contrôlée au sein d'écoles, de prix, d'éditeurs et d'institutions. Il n'est pas certain que les périodes classiques de l'expression littéraire, celles qui voient s'exercer le contrôle le plus strict de la part des pouvoirs établis sur les formes d'expression littéraire, soient celles où la liberté effective des auteurs soit la moins grande - ne serait-ce que parce que l'espace de liberté ouvert par l'écriture est absolument irréductible ; mais il est sûr que cette liberté essentielle cherche constamment à s'émanciper du contrôle social par une subversion permanente des formes qui fait l'essence de l'histoire littéraire ; et c'est bien à l'aune de cette longue histoire qu'il faut analyser la courte histoire des écritures numériques. Histoires...de moi Dans l'histoire d'Internet, la question du moi fut très vite posée de manière très directe. Les moyens de communication historiques du réseau, censés servir d'instruments de discussion sur des questions précises, sont très vite happés par les expressions les plus débridées de la subjectivité pure. Tout se passe comme si les vecteurs d'expression du sujet, présents dans toute communication interindividuelle, mais circulant sur le mode de la communication non verbale la plupart du temps, étaient soudain rabattus sur un seul moyen d'expression, l'écriture, qui doit tout d'un coup assurer deux fonctions, assez souvent contradictoires : véhiculer le message de manière à ce qu'il soit compris, mais aussi permettre au sujet de se positionner, de s'affirmer dans un espace où il ne peut le faire qu'en écrivant. Il suffit d'ailleurs d'avoir quelque peu fréquenté ces lieux d'échanges, les BBS d'abord, puis les newsgroups du réseau Usenet, puis les forums Web et les listes de discussion, pour savoir qu'on y rencontre des personnalités fortes et singulières, bien plus que dans la vie courante où elles sont contraintes à la dissimulation par les impératifs d'une vie sociale rabotée par des siècles de convenances et de politesse. C'est la raison pour laquelle on y rencontre ces incessantes polémiques, échanges passionnés et vite insultants, attaques ad hominem qui font l'histoire quotidienne de ces lieux de discussion. Non pas que, comme on l'entend souvent, la responsabilité engendrée par la nécessité de ne pas perdre la face y soit diluée ou supprimée, mais parce que, dans l'espace constitué par ces échanges, la position de chaque moi est a priori indéterminée, en suspens et doit s'actualiser à chaque instant par des actes. Dans ces lieux, écrire c'est être... Ce n'est là, pourrait on penser, que la caractéristique de quelques milieux déjà bien connus, et on pourrait tenir le même raisonnement pour, disons la société des gens de lettres, le microcosme des éditorialistes parisiens, ou encore le tout petit monde de la recherche scientifique qui expérimente depuis quelques décennies la loi d'airain du publish or perish. Il y a pourtant une différence essentielle entre l'ensemble de ces milieux et les phénomènes que l'on peut constater sur Internet : dans un cas la nécessité d'exister ne concerne qu'un secteur d'activités restreint, délimité, borné par des règles internes, dans l'autre, il est général, non fixé, et peut concerner la personne elle-même[[Il faut évidemment penser que la discussion porte sur de véritables espaces en ligne de discussion sur des sujets variés - des places publiques virtuelles, en non sur les moyens de communication qu'utilisent les communautés spécialisées ou professionnelles pour prolonger des échanges déjà existant]]. Dès lors, les difficultés que l'on éprouve à se comporter dans de tels lieux, les questions incessantes que l'on se pose inévitablement sur les règles de conduites auxquelles se conformer peuvent être interprétées comme la projection sur le milieu extérieur des interrogations soulevées par la nécessité dans laquelle on se trouve de devoir s'exprimer dans une situation où le moi est indéterminé et libéré de tout contexte social stabilisé. Ce n'est plus le moi social, qui est sommé de s'exprimer dans de tels lieux ; c'est un autre moi, largement façonné par l'écriture - ou le rapport que l'on entretient avec l'écriture - qui doit surgir. Il n'est dont pas étonnant que ce soit dans ces lieux précisément qu'a émergé de manière aussi massive une notion importante pour l'épanouissement des formes d'écriture sur le réseau : le pseudonyme. L'utilisation de pseudonymes pour s'exprimer n'est pas uniquement un moyen de se cacher, d'éviter d'assumer la responsabilité dans le civil de ce qu'on a écrit sur le net ; c'est surtout un moyen de rendre compte de l'absence de coïncidence entre l'identité définie par l'état-civil, la position professionnelle ou la vie sociale, et celui qui prend soudain la parole par l'intermédiaire de l'écriture de réseau. Il est très facile de reconnaître ici une application évidente de la théorie proustienne du moi profond. Evidemment, l'utilisation de pseudonymes est le moyen le plus frustre d'affirmer cette irréductibilité du moi à l'état-civil ; et il y a bien longtemps que la littérature occidentale s'est débarrassée en général de ce grossier subterfuge, sauf dans le cas très particulier des supercheries littéraires, en particulier depuis qu'une relative autonomie - et liberté, lui est reconnue par la société : on sait depuis longtemps que la littérature ne peut se développer qu'à partir d'une position d'irresponsabilité que la plupart des sociétés - hormis les sociétés totalitaires évidemment, ont su lui reconnaître. Il n'en va pas de même pour Internet. Il n'est pas tout à fait inintéressant de comprendre pourquoi. L'irresponsabilité de l'écriture littéraire, lui est en général reconnue, pour autant qu'elle s'isole dans des formes clairement identifiées et marquées comme littéraires, c'est-à-dire, donnant des gages de son innocence [[Il s'agit très souvent d'un marché de dupes, évidemment ; mais du moins la littérature a-t-elle l'apparence de l'innocence pour les moins clairvoyants]]. C'est le prix de l'isolement de son caractère subversif qu'elle doit payer pour qu'on lui accorde la liberté d'exister. Longue histoire de la fixation des formes, de la construction des traditions, en un mot de la réduction de l'écriture littéraire dans une vie sociale - littéraire, culturelle - menée par la question de la domination, la distribution du pouvoir et l'établissement d'un ordre. Cette histoire est aussi celle de la clôture de l'oeuvre, d'une capture et réduction de l'écriture littéraire dans un objet déterminé, fixé, étiqueté, objet in fine d'un contrôle politique, puis d'échanges marchands ; que ce soit par le biais de la censure politique ou de la rationalité économique, l'écriture précipitée dans le livre finit par pouvoir être de nouveau soumise au régime de la justification sociale. Or, cette clôture de l'oeuvre littéraire, clôture aussi bien au niveau de la forme que du support est radicalement étrangère au réseau qui, lui, bien au contraire, mélange incessamment non seulement les formes mais aussi les usages d'écriture. De là vient le malaise que provoquent certainement ces quelques lignes qui osent comparer la diversité des écrits de réseau, impurs, mélangés, incertains, avec la pure littérature, éloignée de la vie quotidienne et du commun des mortels. Fluidité des formes, unité de l'oeuvre C'est pourtant cette impureté, cette instabilité permanente des formes d'écriture qui rendent le phénomène si intéressant et finalement si proche de la littérature. Ce n'est pas tant en effet à telle ou telle forme d'écriture, à tel ou tel outil de publication qu'il faut s'intéresser, qu'au perpétuel renouvellement des uns et des autres, au glissement de l'un à l'autre qui provoquent des effets de collision, de décontextualisation des écrits souvent très réjouissants. Il est parfaitement vain d'essayer d'en dresser une typologie ; car le mail par exemple, est devenu, un moment, un moyen d'expression privilégié pour des textes sans destinataire précis, sous la forme de lettres de diffusion prenant la forme de véritables textes publics ; car les magazines en ligne on vu se développer en leur sein des formes d'échanges qui leur étaient étrangères, comme les forums, au point que l'on ne sait plus très bien ce qui, des articles rédigés ou des messages postés sur les forums, représente la plus grande valeur ajoutée ; car sur les forums, on trouve des perles quelquefois, des jeux verbaux collectifs, très proches dans leur manière de fonctionner des expérimentations surréalistes, car les blogs, censés représenter le sommet de l'écriture solitaire, sont soudain devenus le support à la multiplication des échanges intertuextuels ; et ainsi de suite à l'infini. Il existe deux sortes de mépris à l'égard de cette écriture bâtarde, changeante, mi-collective mi-individuelle, instable et pour tout dire foncièrement incorrecte : d'un côté le mépris de l'aristocrate des lettres qui hait cette littérature qu'il n'a pas labellisée, qu'il ne contrôle pas, et qui, surtout, est diffusée si facilement, sans passer par tous les signes d'allégeance que, lui, a dû fournir pour espérer accéder au public, et de l'autre celui du puriste technicien qui pointe du doigt la pauvreté et le caractère inadapté de la technologie qui la met en oeuvre. Technologie bien pauvre en effet que celle que propose le langage html, peu respectueux de la forme du texte, très faiblement sémantisé, n'offrant que très peu de contrôle sur la présentation, la diffusion et la dissémination du texte. On peut effectivement mépriser cette écriture protéiforme, ou même informe. On peut y voir au contraire une oeuvre, perpétuellement en train de se constituer, de se défaire et de se faire, de changer de forme ou plutôt de les multiplier, de relier constamment ce qui tend à être séparé, autrement dit, après tout, l'actualisation la plus aboutie de la civilisation. Cela n'échappe d'ailleurs pas à la plupart des acteurs de l'Internet, qui ne cessent de vouloir l'appréhender comme un objet, de le visualiser tout entier, d'évoquer enfin, comme nous venons de le faire, l'Internet, ou encore le cyberespace, alors que tout ceci revient à une vue de l'esprit si l'on se place d'un point de vue purement technique. Techniquement fausse, la métaphore de l'Internet, du cyberespace et de l'hypertexte qui représente l'interconnexion de réseau comme un phénomène substantiel alors qu'il est essentiellement dynamique, est sociologiquement vraie en ce qu'elle exprime la véritable nature des usages qui sont faits du réseau. De sorte que cet objet peut être appréhendé aussi bien comme une myriade de fragments d'oeuvres interreliées entre elles, que comme une oeuvre unique, en constante évolution, en perpétuel changement, aux formes et contours mouvants ; totalement instable, c'est-à-dire vivante, et dotée d'une unité malgré tout, bien plus forte, parce que se redéfinissant en permanence, et constamment en cours d'actualisation, que celle qui unit les oeuvres littéraires au sein de traditions plus anciennes et figées. L'instabilité permanente de l'ensemble des écrits produits sur le réseau, instabilité des formes mais aussi des relations doit donc bien être interprétée comme le mécanisme par lequel est produit un phénomène littéraire global dont il faut se demander s'il n'est pas totalement original. Présentant un certain nombre de traits caractéristiques de la modernité (l'expression débridée de la subjectivité justement, mais aussi l'explosion formelle), il n'est pas sans évoquer en même temps certains des éléments qui caractérisent les littératures les plus anciennes : production collective et dans certains cas anonymisée, circulation rapide et diffusion éphémère du texte, esthétique de la variation. Il est probable que ce qu'il faut bien appeler, au terme de cette première approche, un phénomène littéraire global, ne soit que la partie la plus visible d'une révolution politique marquée à la fois par un retour historique à une production esthétique collective, par l'application la plus extrême du programme de démantèlement des contraintes formelles qui caractérise la modernité, par la remise en cause la plus brutale de la notion d'oeuvre et par l'interrogation permanente que cette production fait porter sur l'identité de sujet. Autant de questions qui ne sont pas nouvelles, mais que les écritures d'Internet renouvellent avec une acuité toute particulière ; et ce d'autant plus que la manière dont elles y répondent entre directement en conflit avec les avatars les plus récents d'une tradition dominante désormais pleinement intégrée au secteur industriel du divertissement. ---------------------------------------------------------------- Photo © 2004 [Michael Jastremski->http://oldtimeynerd.net/]
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2004-09-23 02:06:46
Le libre est à la mode. Longtemps considéré comme, au mieux, une curiosité exotique réservée aux communautés de hackers, le logiciel libre a su, en Europe au moins, convaincre bien au delà des cercles de programmeurs dont il est issu, jusque dans les rangs des utilisateurs individuels [[Le site [Framasoft par exemple->http://www.framasoft.net/rubrique250.html] se fait l'écho de l'existence nouvelle d'un « peuple migrateur »]]. Cette logique de la dissémination suit deux axes essentiellement : premier axe, celui des organisations publiques et privées qui investissent le champ à la fois comme consommatrices de logiciels, mais aussi comme contributrices, voire productrices. Rien de nouveau à cela pourrait-on penser ; les entreprises proposant des services associés à des logiciels libres - les sociétés de commercialisation de distribution, les sociétés de support, ou même de développement "à façon" à partir de briques logicielles libres- existent depuis longtemps ; l'utilisation, au sein d'entreprises ou d'administrations de logiciels libres - comme le serveur Web Apache ou le serveur de listes de discussions Sympa n'est pas non plus nouveau. On verra cependant que les conditions dans lesquelles ces organismes publics utilisent ou produisent des logiciels libres ont bien évolué. Le deuxième axe de propagation du logiciel libre est beaucoup plus lointain : il s'étend avec la diffusion d'un « esprit du libre » dans des communautés ou des activités qui n'ont rien de commun avec la programmation logicielle. Evidemment, beaucoup s'interrogent sur la légitimité d'une telle notion, aussi floue, et sur sa capacité à survivre hors de la communauté dont elle est issue. Les questions et polémiques soulevées par la propagation du libre le long de ces deux axes, interrogent de manières différentes la signification politique du logiciel libre ; sa dimension modélisatrice pour, dans un premier temps un mouvement de contestation étroit d'une forme très précise de capitalisme, ou, de manière plus large, de contestation globale d'un système économique fondé sur l'appropriation privative. Des compagnons de route Que des entreprises, des administrations[[En France, la défunte ATICA joua un rôle important au niveau des services centraux de l'Etat pour précipiter ce mouvement. L'[ADULLACT->http://www.adullact.org], qui est une association et non un service de l'Etat intervient pour sa part davantage auprès des collectivités territoriales]], utilisent voire produisent des logiciels libres, n'a rien de nouveau ni d'étonnant. Les logiciels libres ont historiquement été utilisés d'abord au sein d'organisations, se développant loin du grand public qui n'en connaissait même pas l'existence. Ce qui change en revanche, c'est que les particularités juridiques et économiques des logiciels libres fassent l'objet de stratégies de développement conscientes et affichées de la part d'organismes présents sur des secteurs d'activités plus larges que le marché logiciel et les services qui l'accompagnent. Les récentes initiatives d'entreprises comme Sun[[ [Sun fraternise avec le logiciel libre-> http://www.01net.com/article/224192.html] ]] ou IBM[[ [IBM et le logiciel libre-> http://standblog.org/blog/2004/01/10/93113262-ibm-et-le-logiciel-libre] ]], et puis Hewlett Packard[[ [HP steps up Linux use-> http://www.iht.com/articles/532199.html] ]] finalement, mais aussi d'administrations comme la mairie de Berlin[[ [La ville de Berlin pourrait choisir Linux->http://www.a-brest.net/breve387.html] ]], celle de Paris, le service de communication du gouvernement français, et jusqu'au ministère de l'Education Nationale, qui ne font pas qu'utiliser ou développer des logiciels libres, mais proclament qu'ils le font et l'utilisent comme levier de positionnement stratégique dans leur champ d'activité, montre que cette notion a désormais largement débordé de la communauté d'informaticiens dont elle est issue, pour intéresser d'autres communautés professionnelles : commerciaux, chefs de projet, communicants, juristes, cadres dirigeants. Il est absolument évident que la notion même de logiciel libre ne peut pas avoir la même signification, être utilisée dans la même perspective par ces communautés professionnelles que par les informaticiens parmi lesquels elle a d'abord fonctionné. La polysémie grandissante du logiciel libre est à la source de malentendus de plus en plus nombreux et violents qui mettent en question en premier lieu sa capacité à constituer un modèle dans son propre domaine : le secteur du logiciel. Si l'on prend l'exemple de l'administration en France, on ne peut qu'être frappé par les considérations d'opportunité que véhiculent les discours de ceux qui font le choix du logiciel libre en leur sein[[ [Spip Agora : pourquoi le choix du logiciel libre ?->http://www.agora.gouv.fr/du_projet_3/du_logiciel_36.html] ]] : le choix du logiciel libre est bien souvent motivé (ou on soutient qu'il est motivé) par des considérations stratégiques (en terme d'indépendance technologique), fonctionnelles (une plus grande maîtrise de l'évolution du parc informatique), si ce n'est, franchement financière. En période de restrictions budgétaires en particulier, ce dernier argument pèse de tout son poids. Il faut bien comprendre que les porteurs de projets à base de logiciels libres, que ce soit au sein des administrations, mais aussi des certaines grandes entreprises, ne sont pas toujours des informaticiens, qu'ils sont souvent isolés, et qu'ils doivent porter leurs projets parfois contre des directions informatiques entières fonctionnant depuis des années dans un système propriétaire (les compétences professionnelles de la gestion d'un parc logiciel propriétaire et son équivalent en libre, sont deux spécialisations assez éloignées, du fait même de la différence d'activités, on s'en doute). Il leur faut donc trouver des arguments très pragmatiques, fort éloignés du positionnement politique qui caractérise la conception et l'utilisation de licences aussi particulières que la General Public License par exemple. Le problème, c'est que la GPL n'a pas du tout été conçue pour permettre aux administrations, aux entreprises, à quiconque, de rester maître de son parc logiciel, de se garantir une certaine indépendance technologique, ni même de baisser son budget informatique...même si tout cela peut constituer une série d'effets secondaires à l'utilisation de logiciels libres. En effet, cette licence, et la plupart des licences libres, ont pour récepteur implicite, non pas tant l'utilisateur final du logiciel, fût-il la direction des systèmes informatiques d'une grosse entreprise, que... les collègues informaticiens de l'auteur du logiciel. Ce serait une erreur grossière de comparer la GPL a une CLUF quelconque d'un quelconque logiciel propriétaire ; car non seulement elle prend le contre-pied de la plupart des CLUF, mais en plus, elle se situe sur un autre plan, en ne s'adressant pas aux même personnes. La GPL ne traite absolument pas de la question des relations entre un développeur et ses commanditaires, une société de commercialisation de logiciels et ses clients ; elle a pour effet principal de proposer des règles de fonctionnement très particulières à l'intérieur d'une communauté spécifique : celle des auteurs de logiciels. On l'a un peu oublié avec le succès des logiciels libre, mais ce type de licence a pour objectif principal de permettre à des développeurs de travailler collectivement, en particulier en se repassant des briques logicielles leur permettant de concevoir en peu de temps des gros systèmes sans avoir besoin de réinventer systématiquement la roue sur des fonctionnalités déjà implémentées ; elle a pour objectif de permettre à une communauté professionnelle de travailler de manière collective, de préserver sa vie communautaire faite d'échanges et de commentaires sur le code, menacée par les exigences de confidentialité que les grandes entreprises ont fait peser sur leurs développeurs. Bref, on peut gloser longtemps sur l'esprit du libre. On ne doit pas oublier que le logiciel libre est historiquement l'affaire du fonctionnement d'une communauté professionnelle ; presque une corporation. Il n'est pas très difficile dès lors, de comprendre pourquoi les tentatives d'adaptation et de localisation de la GPL, a fortiori lorsqu'elles sont menées par des organismes administratifs français, peuvent faire grincer des dents. CeCILL[[ [CeCILL->http://www.cecill.info] ]]est une licence libre conçue par trois grands organismes de recherche français, le CNRS, l'INRIA et le CEA à destination, mais pas seulement, des auteurs de logiciels qu'ils emploient. Cette licence a pour objectif de répondre à une double lacune de la GPL qui l'empêcherait d'être utilisée dans des conditions satisfaisantes au sein de ces organismes : tout d'abord, seule la version originale en anglais est déclarée juridiquement valide par la Free Software Foundation, ce qui en interdit toute traduction « officielle » ; par ailleurs, le texte de la licence dégage l'auteur ou le distributeur de toute responsabilité quant au fonctionnement et à l'utilisation du logiciel, ce qui est illégal au regard du code de la consommation lorsque l'utilisateur est une personne physique. Le travail du consortium CNRS-INRIA-CEA a donc consisté à produire une licence aussi libre que la GPL, mais en accord avec la culture linguistique et le droit français. NIH : Not Invented Here ! Hérésie ! répond-on du côté du site Libroscope.net et de la Free Software Foundation France[[ ["La première licence française de logiciel libre déplaît aux créateurs de la GNU GPL"->http://www.zdnet.fr/actualites/technologie/0,39020809,39160467,00.htm]. A l'opposé, elle est [soutenue par l'AFUL->http://www.aful.org/presse/pr-20040823-cecill] ]]. En effet, cette nouvelle licence, annoncée comme étant compatible avec la GPL (en fait, elle ne l'est que dans un seul sens) ne fait qu'augmenter le nombre de licences « libres » disponibles (et utilisées) et donc rendre encore plus longue et complexe la programmation de logiciels intégrant des briques logicielles publiées sous plusieurs licences différentes. Pire, en cherchant à se conformer à un droit national spécifique, CeCILL donne le mauvais exemple ; car si on imagine que chaque pays cherche ainsi à localiser les licences libres en fonction des particularités de son propre droit (et il ne s'agit même pas ici seulement du droit de propriété intellectuelle), les programmeurs vont très vite se retrouver englués dans une toile de licences incompatibles entre elles, ou contradictoires, dans la mesure où le code informatique - et la communauté de développeurs, en particulier ceux qui travaillent sur des logiciels libres - se déploient dans une dimension largement transnationale. La discussion qui s'est déroulée sur la liste de la FSF France[[ [Consulter les archives de la liste->http://lists.gnu.org/archive/cgi-bin/namazu.cgi?query=CeCILL&submit=Search%21&idxname=fsfe-france&max=10&result=normal&sort=date%3Aearly] ]] (et secondairement sur la liste Escape_l[[ Florent Latrive en a diffusé deux compilations : "The famous french licence" : [1->http://listes.samizdat.net/wws/arc/escape_l/2004-09/msg00035.html] et [2->http://listes.samizdat.net/wws/arc/escape_l/2004-09/msg00038.html] ]]) semble extrêmement proche de celle qui a opposé sur ces mêmes listes quelques mois auparavant d'autres protagonistes. Le sujet de la discussion portait alors sur la nature de la GPL : la General Public License peut-elle être considérée comme un contrat ? D'un côté, on défendait l'idée que la GPL ne pouvait être considérée de cette manière, dans la mesure où l'auteur d'un logiciel couvert par cette licence refuse, précisément, de contracter avec des utilisateurs particuliers pour les autoriser, au cas par cas, à telle ou telle utilisation. Au contraire, dans ce cas, l'auteur définit a priori, des conditions d'utilisation de son oeuvre, indépendamment des personnes qui vont l'utiliser effectivement. Comme on l'a dit précédemment, l'auteur d'un logiciel libre ne s'engage pas vis-à-vis d'utilisateurs, il se positionne à l'intérieur d'une communauté, sa communauté, à laquelle il livre le résultat de son travail dans une perspective de partage réciproque. La relation est établie, non pas avec une collection d'utilisateurs - cas du contrat, mais avec une communauté professionnelle - cas de la licence d'utilisation. En face, on rétorquait que ces subtilités risquaient de peser de peu de poids devant un juge. Car le droit français ne connaît que la loi ou le contrat, ce dernier faisant d'ailleurs l'objet d'une définition extrêmement large. On peut toujours affirmer que la GPL n'est pas un contrat ; c'est comme cela qu'elle sera interprétée le cas échéant, avec toute la latitude d'interprétation que cela suppose pour faire entrer dans les particularités d'un droit national un texte qui l'ignore superbement. Les licences libres sont-elles solubles dans les droits nationaux ? ou représentent-elles plutôt la Constitution en marge des législations locales que se donne elle-même, pour elle-même une communauté professionnelle transnationale ? ou bien s'agit-il de ferments révolutionnaires destinés à remettre en cause les fondements du droit de la propriété intellectuelle telle qu'il est pratiqué par les pays signataires de la Convention de Berne[[ [Convention de Berne pour la protection des œuvres littéraires et artistiques-> http://www.wipo.int/clea/docs/fr/wo/wo001fr.htm] ]] ? C'est bien les contradictions entre ces différentes définitions du logiciel libre qui sont au coeur des débats qui viennent d'être évoqués ; et il serait trop simple bien sûr de renvoyer les individus à l'une ou l'autre de ces définitions de manière monolithique ; car les individus les intériorisent dans un grand nombre de cas, en tentant de faire le choix des logiciels libres dans leur activité professionnelle : souvent motivés par la portée politique du logiciel libre, ils ne peuvent que mettre en avant ses avantages pratiques afin de convaincre leur hiérarchie ou leurs pairs. Mais dès lors, ils entrent dans des logiques institutionnelles qui peuvent se révéler contradictoires avec le mode de fonctionnement prévu des licences libres, les institutions, publiques ou privées, n'ayant pas, par nature, vocation à jouer un rôle politique ni contestataire, ni révolutionnaire. Particularismes locaux Il ne sert donc à rien de fustiger la Free Software Foundation pour son absence de prise en compte des situations locales. Le mouvement d'idées qu'elle porte se situe en effet au delà des législations nationales, voire, au besoin, en contradiction avec elles. Il n'en va pas de même du mouvement des Creative Commons[[ [Il existe même un projet de traduction en [français-> http://creativecommons.org/projects/international/fr/] ]], lancé depuis quelques années, et qui, à force de succès, est source d'un certain nombre de confusions . Souvent ressenties et utilisées comme du libre light, peu contraignant et facile à mettre en oeuvre, les licences Creative Commons font l'objet de critiques acerbes, en particulier de la part des animateurs du site Libroscope[[ [Libroscope.org->http://www.libroscope.org/Le-business-malin-des-bonnes] ]]. Les critiques sont des trois ordres : tout d'abord, ces licences bénéficient d'un fort capital de sympathie en raison de leur proximité d'apparence avec le mouvement du logiciel libre, alors qu'elles sont, pour la plupart d'entre elles, incompatibles avec les licences de la FSF ; c'est le cas en particulier de celles qui restreignent le droit de redistribution à des contextes «non commerciaux», ou encore des licences «non derivative», qui n'autorisent par les modifications. Par ailleurs, ces licences, que tout un chacun peu se concocter à la carte, multiplient les nombre global de licences et complexifient l'environnement juridique en diversifiant à l'extrême les cas à examiner ; finalement, elles ont tendance à brouiller les cartes en n'établissant pas de séparations claires entre licences libres et non libres, présentant l'éventail des licences possibles comme une sorte de continuum où se déclinent les droits que l'on accorde où que l'on n'accorde pas. L'opposition franche et nette de philosophie politique et économique entre licences libres et licences propriétaires est alors lissée, ce qui peut permettre à un certain nombre d'acteurs peu scrupuleux de manipuler l'identité incertaine de licences populaires afin de promouvoir des oeuvres diffusées en fait, selon les termes d'une licence propriétaire ; mais labellisée Creative Commons. La question de l'articulation entre le mouvement du logiciel libre et celui des Creative Commons commence en effet à se poser de manière relativement critique et interroge encore, mais d'une autre manière que précédemment, la capacité du premier à élargir sa base politique en entrant en synergie avec des mouvements historiquement distincts mais que tout le monde sent très proches de lui. Même s'il touche au même sujet, le mouvement des Creative Commons répond en effet à d'autres problématiques que celui du logiciel libre. Concernant d'avantage des oeuvres “ à contenu ” que des logiciels, les licences Creative Commons visent avant toute chose à préserver un droit d'accès du public à l'oeuvre culturelle, remis en cause par une industrie culturelle qui manipule le droit de propriété intellectuelle dans un objectif d'appropriation privative. On a déjà eu l'occasion de l'avancer à propos de la littérature scientifique[[ [ Le libre pour les publications scientifiques : pertinence et limites d'un modèle commun-> http://www.autourdulibre.org/2003/article58.html] ]] : la problématique dans laquelle s'est développé le logiciel libre est propre au logiciel et peut difficilement être étendue en tant que tel à d'autres types d'oeuvres de l'esprit pour reprendre la catégorie très générale qu'utilise le code de la propriété intellectuelle qui s'applique aux uns et aux autres. Alors que dans le secteur du logiciel, on débat essentiellement, non pas seulement de l'accès à l'oeuvre elle-même, mais à son code source (notion qui ne trouve pas d'équivalent ailleurs), et surtout de réutilisation et de modification, la question qui se pose pour des textes écrits, des oeuvres musicales et des vidéos est d'abord celle du simple accès à l'oeuvre elle-même, permis par sa libre diffusion et reproduction. Les licences Creative Commons ont été conçues aux Etats-Unis dans un contexte d'allongement indéfini de la durée de protection que le copyright accorde aux oeuvres. Comme l'explique bien Lawrence Lessig[[ [Innovating copyright-> http://www.lessig.org/content/archives/innovatingcopyright.pdf] ]], un des initiateurs du projet, le copyright n'est possible que si la protection qu'il accorde sur les oeuvres n'a qu'une durée limitée dans le temps, le temps nécessaire au créateur de s'assurer un bénéfice suffisant pour l'inciter à créer ; c'est ensuite le régime du domaine public qui prend le relais, permettant au plus grand nombre de profiter des oeuvres du génie humain. En allongeant indéfiniment la durée de protection du copyright sur les oeuvres, le législateur détruit le fragile équilibre entre les deux nécessités : la nécessité de motiver le créateur, et celle de permettre à la société dans son ensemble d'accéder aux oeuvres. Libre accès à la culture C'est à ce déséquilibre que répondent les licences Creative Commons en donnant aux auteurs la possibilité juridique de garantir à leur public l'accès aux oeuvres. Il est faux de dire, comme on peut le lire quelquefois, que les licences CC sont de simples licences propriétaires. Certaines d'entre elles le sont en effet au sens où il ne s'agit pas de licences libres à proprement parlé ; mais en même temps, toutes les licences CC accordent à l'utilisateur final, au public, le droit de reproduire et de redistribuer les oeuvres afin d'en permettre la diffusion. Ces licences ont donc pour objectif et résultat de permettre l'accès le plus large à l'information, à contre-pied du copyright classique, qui appose un verrou "par défaut" restreignant l'accès à celle-ci. Le logiciel libre constitue la réponse qu'une communauté de pratique a su opposer aux verrous imposés par certaines sociétés commerciales sur la circulation du code informatique en son sein. A d'autres niveaux, et à d'autre époques, d'autres communautés ont été confrontées aux mêmes questions : c'est le cas de différentes communautés scientifiques du fait des pratiques commerciales des éditeurs, par exemple. Les réponses qui ont été apportées, Open Acces[[ [Budapest Open Access Initiative-> http://www.soros.org/openaccess/] ]] et Eprints[[ [Eprints->http://www.eprints.org] ]], par exemple, constituent des réponses et appropriées au mode de fonctionnement de ces communautés particulières. A un autre niveau, certaines micro-communautés artistiques ont pu développer d'autres licences qui leur sont propres, ou d'autres circuits d'échange et de circulation de l'information. Dans tous les cas, il s'agit bien de réponses particulières venant de communautés professionnelles spécialisées dans un contexte où l'évolution des conditions juridiques et économiques dans lesquelles leurs pratiques s'exercent, constitue une menace pour la possibilité même de leur activité. La logique des licences Creative Commons est différente ; elle concerne davantage la communication au public d'oeuvres culturelles auxquelles l'accès est désormais contrôlé, et c'est un fait nouveau, par une industrie hautement profitable. D'un côté une communauté professionnelle donc, qui éprouve le besoin d'échanger librement le code informatique produit pas ses membres ; de l'autre des producteurs de contenus qui cherchent à garantir le libre accès du public à leur oeuvre. Et la plus large diffusion possible ; et, enfin, en dernier lieu, la possibilité pour lui de réutiliser certains éléments de ces oeuvres pour créer à nouveau. On comprend bien qu'il y a de fortes similitudes entre les deux mouvements. Le « rip, mix and burn culture » défendue par Lawrence Lessig comme l'actualisation la plus récente d'une « free culture »[[ [Free culture. How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity->http://www.free-culture.org] ]] consubstantielle à la société américaine en particulier a, bien sûr, quelque chose à voir avec le concept de « free software »[[ [The free software definition-> http://www.gnu.org/philosophy/free-sw.html] ]] popularisé par Richard Stallmann. Cette parenté essentielle entre les deux mouvements n'empêche pas des différences importantes dues à des contextes très particuliers. En particulier parce que les licences Creative Commons sont rarement utilisées par et pour des milieux professionnels aussi fermés et spécialisés que le développement de logiciels. Pire encore, dans nombre de cas, les conditions habituelles de diffusion des oeuvres sont à l'opposé de celles que connaît le logiciel. Que l'on songe par exemple qu'un des objectifs du logiciel libre est de « normaliser » les conditions d'utilisation des logiciels dans un milieu où l'habitude est la licence sur mesure, au cas par cas, pour ainsi dire balkanisée. Lorsqu'on aborde les oeuvres de type littéraire ou plus simplement textuelles, cinématographiques ou musicales, le domaine de la photo ou de l'image, les régimes de droit qui s'appliquent sont au contraire affreusement uniformes, c'est-à-dire verrouillés. Les licences Creative Commons représentent à l'inverse un facteur de diversification car elles constituent un moyen pour faire prendre conscience aux auteurs qu'ils ne sont pas contraints par le droit de propriété intellectuelle ; qu'ils ont au contraire toute possibilité pour accorder des libertés supplémentaires qu'ils ne pensaient pas possible. Une responsabilité historique Les différences de milieu sont telles[[ A titre d'exemple, lire la page sur [le Copyright->http://neverland.net/bellamy/mc/legal.php] que Bruno Bellamy, un dessinateur pourtant fervent défenseur du logiciel libre, a placé sur son site. On comprend combien un dessin ne peut être considéré de la même manière qu'un logiciel ]] qu'il est possible que les incompréhensions se multiplient entre les communautés qui s'inscrivent dans ce que nous considérons quand même, malgré les divergences, comme un vaste mouvement du libre engagé, sur des fronts très divers, dans une bataille générale autour du droit de la propriété intellectuelle. D'un côté des informaticiens habitués à utiliser essentiellement les libertés de modification et de réutilisation des logiciels qu'ils manipulent ; de l'autre, un public bien content d'accéder à une culture sur laquelle prolifèrent les barrières de péage et autres accès limités. D'un côté des développeurs qui ne comprennent pas l'intérêt d'une licence qui n'autorise pas de modification sur l'oeuvre qu'elle protège ; de l'autre des utilisateurs qui ne voient dans les logiciels libres que la possibilité de les télécharger librement (et d'ailleurs comment pourrait-il faire autrement ?) sans comprendre que l'essentiel est ailleurs. La question se pose alors, essentielle, de la conscience d'intérêts partagés entre les différentes composantes du peuple libre ; et étrangement, c'est à une communauté professionnelle en particulier, parce que le logiciel libre représente de fait un modèle politique dans son rapport à la propriété intellectuelle, que revient la responsabilité historique de favoriser ou de ralentir, voire d'empêcher la convergence entre des groupes luttant, finalement, pour les mêmes raisons, mais sur des terrains différents. Alors, avant-garde révolutionnaire ou ghetto communautaire ? La question n'est pas encore tranchée ; mais ceux qui prétendent parler au nom du logiciel libre et de la pureté de ses principes doivent se la poser, aujourd'hui plus que jamais. ------------- Crédit Illustration : "Copyright (C) 1999,2000 Georg C. F. Greve Permission is granted to make and distribute verbatim copies of this transcript as long as the copyright and this permission notice appear."
2004-11-06 13:26:52
Dans nos sociétés de consommation, le marketing envahit nos vies quotidiennes. A grand renfort publicitaire, on nous vante les mérites du tout nouveau téléphone avec appareil photo intégré, ou encore de la toute dernière voiture climatisée ultra-moderne. On tente ainsi de nous imposer de nouveaux besoins en suscitant chez le consommateur que nous sommes un sentiment de manque face à ces sollicitations permanentes. Ainsi Ivan Illich parlait-il « d'industrialisation du manque » et de « l'asservissement de l'homme à l'outil » [[Ivan Illich, La convivialité, 1973.]]. Mais ces évolutions technologiques, et notamment dans le domaine des télécommunications, doivent elles servir uniquement des intérêts mercantiles ? La « seamless mobility » ou les télécoms de demain L'industrie des télécommunications n'est pas en reste lorsqu'il s'agit d'inventer de nouveaux concepts « révolutionnaires », sensés changer le cours de notre vie monotone. La grande idée à la mode dans le milieu est celle de la « seamless mobility » [[Le concept de « seamless mobility » est aussi parfois appelé « beyond 3G » voire même « 4G ».]], que l'on pourrait traduire par « mobilité continue » ou « mobilité sans interruption » (littéralement : « mobilité sans accrocs », expression beaucoup moins vendeuse en français!). Il s'agit en effet de donner à l'utilisateur la possibilité d'être toujours connecté (« always connected ») lorsqu'il se déplace, et quelque soit l'endroit où il se trouve. Dans le contexte de convergence de la voix et des données, être « connecté » signifie pouvoir à la fois passer un coup de téléphone, lire ses mails, faire de l'Internet, être sur le réseau privé de son entreprise, etc. Et cette « connectivité » est « sans interruption ». Prenons un exemple de scénario envisageable: vous êtes dans l'avion et vous rentrez chez vous après une dure semaine de travail. Vous ressentez le besoin de lire vos mails (vous n'en avez pas eu assez pendant la semaine), et vous vous connectez grâce au réseau déployé dans l'avion (l'avion est lui-même connecté via une connection satellite). Vous apprenez en lisant vos mails (vous auriez mieux fait de ne pas les lire!) que votre patron est sur le point de faire une présentation importante, et vous êtes encouragé à y assister en vous connectant au réseau de l'entreprise. Puis vous sortez de l'avion, votre terminal [[On parle de terminal pour désigner un téléphone, un PDA ou un ordinateur portable.]] se connecte alors au réseau Wifi [[Voir une présentation du [Wifi->http://www.commentcamarche.net/wifi/wifiintro.php3] ]] de l'aéroport, et vous pouvez ainsi continuer à regarder la présentation de votre patron en attendant de récupérer votre valise. Vous prenez maintenant votre voiture que vous aviez laissée au parking de l'aéroport : la présentation de votre patron est ainsi transférée sur l'ordinateur de bord de votre voiture, elle-même connectée à Internet via l'UMTS (on pourra mentionner que dans ce cas il vaut mieux couper l'image pour ne garder que le son et conduire ainsi en toute sécurité !). Vous voici enfin chez vous, la présentation n'est toujours pas terminée, la session est alors transférée sur la télé de votre salon (quelle horreur !), votre maison étant équipée d'une connection ADSL. Fin du scénario... « and now enjoy the future »! Voilà donc le futur tel qu'il est envisagé par l'industrie des télécommunications. Grâce à cette « révolution », l'utilisateur est en permanence connecté tout au long de ses déplacements, et le passage d'une technologie à une autre (dans l'exemple : Satellite -> Wifi -> UMTS -> ADSL) s'effectue automatiquement, sans même qu'il ne s'en rende compte. La technologie est alors complètement « transparente » pour l'utilisateur. Une évolution apparemment inévitable, et pourtant discutable S'il est difficile de mesurer la faisabilité technique de ce concept de « seamless mobility », on peut s'attendre à ce que les experts publient les conclusions de leurs analyses techniques très prochainement (si cela n'est pas déjà fait). Les industriels semblent pour l'instant confiants, bien que la libéralisation de l'ensemble des services de télécommunications puisse compromettre le projet si les différents acteurs ne peuvent s'entendre sur les points-clés. Néanmoins, l'idée est là et il y a fort à parier que dans un futur proche un tel service pourra être proposé. Pour les industriels cette évolution est tout à fait logique : on peut déjà téléphoner de n'importe où avec son portable GSM, bientôt notre connexion Internet pourra aussi nous suivre dans nos déplacements. D'importants programmes de recherche européens ont d'ailleurs déjà été lancés, auxquels tous les grands acteurs concernés (opérateurs, équipementiers...) participent, et des centaines d'ingénieurs travaillent actuellement sur le sujet. Comme toujours, les services marketing prendront le relais des services techniques dès qu'il s'agira de vendre ce nouveau produit... On imagine déjà les spots nous montrant un adolescent « cool » et « branché » qui télécharge le dernier clip à la mode en attendant son bus dans la rue, ou encore le jeune cadre dynamique, qui patiente aux caisses de son supermarché (aux heures de pointe bien sûr...) en regardant le résumé « en images » des derniers résultats sportifs... Grâce à des campagnes publicitaires toujours plus séduisantes et omniprésentes, les industriels réussiront vraisemblablement à imposer cette nouvelle mode, comme à l'accoutumée... et les consommateurs consommeront. Il est probable toutefois que les coûts d'utilisation de ces services ne limitent leur accès qu'à une frange aisée de la population. Ce nouveau besoin alimentera alors une fois de plus ce sentiment de manque chez ceux qui n'ont pas les moyens de consommer autant qu'ils le voudraient, tandis que ceux qui auront les moyens se lasseront sans doute assez vite de ce nouveau « gadget technologique ». En nous laissant croire que de tels produits augmentent notre degré général de satisfaction, les industriels ne génèrent donc en fait qu'un sentiment collectif de frustration. Les médias et la société en général sont par ailleurs complices en ne contredisant pas les industriels. En effet, a-t-on réellement besoin d'être connecté à Internet lorsque l'on va faire ses courses, ou lorsque l'on accompagne ses enfants à l'école ? La plupart de nos déplacements sont des déplacements très courts, liés à la vie quotidienne. On peut bien sûr être amené à faire des trajets plus longs occasionnellement, voire régulièrement pour raisons professionnelles, mais dans ce cas, pourquoi ne pas profiter de ces quelques heures de déconnexion du monde numérique pour apprécier un bon livre, un magazine ou même un article que l'on aura trouvé sur Internet et imprimé avant de partir ? La « seamless mobility » n'est qu'un exemple parmi tant d'autres : beaucoup d' « innovations » technologiques mises sur le marché chaque année à grand renfort de marketing, ne sont bien souvent qu'un moyen pour nous inciter à renouveler nos équipements au prix fort, sous prétexte d'une amélioration qualitative souvent peu significative. Face à ces désirs « superficiels » dont nous sommes victimes, il serait bon de réveiller de temps en temps notre sens critique engourdi et endoctriné par les discours publicitaires, en exerçant la plus simple forme de résistance qui nous soit donnée à tous : le non achat... et replacer ainsi en nous, un peu plus souvent, le citoyen avant le consommateur. Redonner du sens aux évolutions technologiques Le but n'est pas ici de renier toute forme de technologie, bien au contraire. Internet, par exemple, permet ainsi l'existence de tribunes de libre expression (comme celle où je m'exprime en ce moment même !) et il peut constituer un médium alternatif mondial très intéressant et très efficace. Ici la technologie est bien au service de l'Homme. En revanche, Internet perdrait beaucoup de son intérêt s'il était utilisé uniquement à des fins commerciales. L'évolution des technologies doit donc aller de pair avec une réflexion sur l'usage que l'on veut en faire. Il est en effet regrettable qu'aujourd'hui la technologie, à l'image de l'argent, soit une fin en soi, et non pas un moyen pour accomplir quelque chose de plus constructif. Tout le problème est là : la technologie est à elle seule un signe de « développement ». Ainsi la « seamless mobility », aussi futile qu'elle puisse paraître après examen, sera sans doute dans l'avenir l'un des symboles même de la modernité, du dynamisme et de la bonne santé de notre société... Pourtant, à regarder les statistiques nationales de la « fracture numérique », n'y aurait-il pas d'autres priorités ? Les crédits européens (et donc l'argent des contribuables) doivent-ils ainsi financer des programmes de R&D tels que la « seamless mobility », qui servira principalement les intérêts commerciaux d'une poignée de multinationales des télécoms, alors que seulement 30% des foyers français [[INSEE, Enquête permanente sur les conditions de vie 2004.]] (et encore bien moins au niveau mondial) ont la chance d'avoir Internet chez eux (de plus ça n'est pas du haut débit pour tout le monde...) ? En matière de télécommunications, le vrai problème est donc d'abord de démocratiser l'accès à Internet. Malheureusement, l'accès pour tous à Internet (qui pourrait presque s'apparenter à une mission de service public comme l'eau ou l'électricité) n'est pas vraiment compatible avec l'exigence de rentabilité maximale qui sévit dans le domaine des télécommunications comme ailleurs. D'autre part, l'accès pour tous ne suffit pas, il faut également qu'Internet soit au service de tous. Notre « toile » ne doit pas être uniquement un immense supermarché numérique ! Nous devons faire en sorte qu'il soit un moyen de communication à la fois interactif et ludique, qui permette aux gens de s'exprimer librement (par exemple pour faciliter une forme de démocratie participative), ou encore qui oeuvre à la diffusion des cultures et des connaissances. Les possibilités sont infinies, et ne s'arrêtent qu'avec les limites de notre imagination. Dans le domaine d'Internet comme dans beaucoup d'autres, les citoyens mériteraient sans doute d'être consultés, à l'image de ce qui se fait actuellement dans certaines grandes villes dans le cadre de la mise en place des PLU (Plan Local d'Urbanisme). Interrogeons les gens quant à leurs préférences en matière de développement des télécommunications : veulent-ils que l'on se focalise sur un Internet au service de l'Homme et accessible à tous, ou sur des développements technologiques tels que la « seamless mobility », plus rentables à court terme mais moins utiles au plus grand nombre ? La réponse ne fait à mon humble avis aucun doute... Certes, un tel projet s'inscrit dans un cadre politique ambitieux, et mobilisera beaucoup d'énergies. Mais les objectifs poursuivis n'en seront que plus essentiels, comparés à ceux proposés (et de fait, imposés) par l'industrie des télécommunications. Même si ces objectifs peuvent paraître utopiques au lecteur, « le principal n'est pas d'arriver au but mais d'y aller » [[Michel Lulek, Scions... travaillait autrement ?, Les Editions REPAS, 2003, p160.]]. Bill Ninacs, un actif militant des mouvements communautaires québecois, disait : « Il est évident que l'utopie n'existe pas et n'existera pas, et croire autrement c'est s'illusionner. Cependant, tendre vers l'utopie n'est pas utopique et cela est suffisant pour moi. » [[Ibid.]] Crédit photo : [© PPD3.com->http://www.pixelperfectdigital.com/]
2000-00-00 00:00:00
2000-00-00 10:02:00
Ils ont participé ou participent d'une manière ou d'une autre à la vie du site Homo Numericus. Auteurs, éditeurs, hébergeurs, designers et codeurs, HN leur doit quelque chose. Merci à eux ! Vous voulez participer vous aussi ? Entrer dans la rédaction, écrire des nouvelles, publier des reportages ou des essais de réflexion dans Homo Numericus ? Cet espace vous est ouvert. vous pouvez demander vos identifiants de connexion en cliquant sur le bouton participer à gauche de ce texte, ou en écrivant à [->mailto:postmaster@homo-numericus.net].
Sophie Boudet-Dalbin Effectue une thèse en sciences de l’information et de la communication à l’université Paris 2 sous la direction de Francis Balle. Sa recherche, pluridisciplinaire, est une étude prospective qui vise à trouver des solutions concrètes pour les distributeurs cinématographiques à l’ère numérique. Sophie écrit régulièrement des nouvelles et des articles qui sont publiés sur Homo Numericus. _ Son site : [->http://www.dalbin.canalblog.com/]
Cédric Cédric est photographe. Il est l'auteur de la plupart des illustrations affichées sur le site. Merci à lui. _ Son site : [->http://flickr.com/photos/lecedre]
Marin Dacos Fondateur de Revues.org, fédération de revues en sciences humaines et sociales. Il a également créé Calenda, le calendrier des sciences sociales, In-extenso, moteur de recherches en sciences sociales et L’Album des sciences sociales, répertoire scientifique de liens. Responsable du Centre pour l'Edition Electronique Ouverte, il a participé à la fondation de Lodel, logiciel d’édition électronique. Marin participe à la rédaction de deux des blogs d'Homo Numericus : Blogo Numericus et Linux pour de Vrai, tout en suivant l'évolution du site général. _ Son site : [->http://www.revues.org]
Pascal Fortin Chercheur en sciences sociales, Pascal a publié dans Homo Numericus une série remarquée d'articles sur l'ouvrage de Manuel Castells, La galaxie Internet.
Mika Graphiste du collectif sur le Toit. Mika a conçu la maquette du site dans sa version 2007. _ Son site : [->http://www.surletoit.com]
Patrick Développeur du collectif Sur le Toit. Patrick a écrit le code des gabarits qui structurent aujourd'hui le site. _ Son site : [->http://www.surletoit.com]
Pierre Mounier, alias Piotrr Enseignant à l'ENS Lettres et Sciences humaines où il est responsable de l'Unité Numérique pour la Recherche. Membre du comité de rédaction de Revues.org et doctorant en sciences de l'information et de la communication au sein du laboratoire C2SO. Pierre est le fondateur et éditeur d'Homo Numericus, et aussi son principal contributeur à ce jour. _ Son site : [->http://www.homo-numericus.net]
Anne Roberty Graphiste à l'ENS Lettres et Sciences humaines. Anne a dessiné le bandeau qui a habillé le site de 2005 à 2007.
Spip Homo Numericus ne serait pas ce qu'il est sans ce merveilleux logiciel. Spip est un logiciel libre de publication sur Internet. Développé à l'origine par Antoine, Arno et Fil, ce système de publication web est aujourd'hui le coeur d'une véritable communauté vivante de plusieurs milliers de contributeurs et utilisateurs. Une vraie réussite française. _ Son site : [->http://www.spip.net]
Jean-Cyrille Vercollier Jean-Cyrille est l'hébergeur "historique" d'Homo-Numericus. Rencontré sur la liste des utilisateurs de Spip, il a abrité gracieusement le site sur son serveur pendant près de cinq années. Par pure générosité. ------------------------------------------------------- Crédit photo : ["How fast you want to go ?"->http://www.flickr.com/photos/ejazasi/253032421/] par Edge of Space sur Flickr en cc by-nc, 2006
2000-00-00 00:00:00
2005-03-10 15:56:25
Vers une Démocratie Directe grâce à Internet Aujourd'hui, on constate un désintéressement de plus en plus généralisé pour tout ce qui touche à la politique. Que ce soit par déception au vue de l'action de nos dirigeants ou plus courrament par ignorance de l'importance pour tous les citoyens de s'interresser aux affaires publiques. Malgré le signal d'alarme que constituait l'accès au second tour de Jean-Marie LE PEN lors de la présidentielle de 2002, les français en général et les jeunes en particuliers ne votent pas! Tout d'abord on peut mettre cela sur le manque de conscience civique de nos concitoyens, le manque d'éducation où d'encouragement. Ou encore sur l'individualisme croissant de nos sociétés libérales, le confort personnel compte plus que l'intérêt général. Il est certain également que le citoyen moyen ne possède comme réel source d'information que la télévision, peu de gens lisent les quotidiens (au profit des magazines) , peu de gens sillonnent la toile pour recouper les informations, pour se forger un point de vue plus objectif qui ne soit pas le pur produit de la masse média. La naissance de la diversité informationnelle Ne faudrait-il pas, pour aboutir à un engouement plus soutenu pour les affaires publiques, en premier lieu, un panel de sources informationnelles élargie permettant de véritables débats d'idées? Car il est évident que aujourd'hui l'uniformité médiatique ainsi que le manque de partialité, oui je parle bien de manque de partialité, empêche le débat en ne suscitant pas l'intérêt de la majorité. Le travail informationnel que je qualifie de partial ne rentre pas dans une conception journalistique au sens strict, puisque cette dernière aurait tendance à prôner l'objectivité. Malheureusement, trop d'objectivité tend à appauvrir l'information. Je pense que les citoyens ont besoin de plus que de l'information, nous avons besoin pour nous forger une opinion originale, de sources informationnelles diversifiées et passionnées, c'est en ce sens que j'entends la partialité de l'information, cela permet effectivement une plus grande objectivité dans l'optique ou chacun se nourrit à plusieurs sources d'information. Cette nouvelle forme d'objectivité est en train de naître grâce aux nouveaux moyens de communication. Chacun peut désormais donner son point de vue avec pour lecteurs potentiels une part plus importante que tout autre média. On parle beaucoup de la nécessité pour les entreprises d'envisager dès aujourd'hui la manière dont elles doivent amorcer le passage à une nouvelle ère, l'ère du numérique! Qu'en est-il pour la gestion de nos sociétés et de ses normes, au moment où l'on constate le discrédit grandissant pour nos modes de représentation? Quels sont les perspectives d'avenir pour notre démocratie? Vers une nouvelle forme de citoyenté Comme je l'ai déjà souligné Internet est en voie de devenir le média d'information le plus utilisé en plus d'être le plus complet (même si parfois on se retrouve face à une bouillie informe lors de certaines recherches). Pourquoi ne pas utiliser les formidables capacités de ces réseaux pour entamer une nouvelle forme de débat politique, qui ne serait plus l'apanage de quelques centaines d'Hommes politiques? Il est nécessaire de continuer l'expérimentation sur le vote électronique, il faut se donner les moyens de garantir la sécurité et la validité de ces votes. On peut espérer que progressivement ce mode d'élection se généralise et devienne un facteur de diminution de l'abstentionnisme, associé à l'ouverture de débats politiques institutionnalisés sur Internet, on pourrait alors assister à l'émergence de procédés de démocratie directe. Car il n'y à qu'un pas à franchir entre le débat politique généralisé sur la toile et la démocratie direct par Internet. Il est nécessaire de rompre avec cette sorte d'oligarchie déguisé en démocratie que forment nos sociétés, d'autant plus à l'heure actuelle où l'on observe l'intrusion des grandes firmes économiques au sein même du clan des décideurs. Si l'on y prend pas garde on se retrouvera sans même en être choqué dans une société où la politique et l'économie de marché ne feront plus qu'un et où les citoyens ne seront pas plus importants que la plèbe romaine à laquelle on donnait du pain et des jeux pour qu'elle se tienne tranquille, il est même probable que d'une certaine manière ce soit déjà le cas. Souhaitons-nous un mode de gouvernance où les décisions sont détachés des considérations de la majorité au profit des puissances de l'argent? N'est-il pas préférable d'envisager un mode de gouvernance où le citoyen est présent non plus pour ratifier des décisions prises en dehors de lui mais bien pour prendre des décisions qu'il aura lui même fabriqué, en coopération avec tous les autres? L'émergence d'une nouvelle forme de citoyenneté semble être la clé de voûte de l'établissement d'une véritable démocratie où il n'y aura plus d'un côté les décideurs et de l'autre une majorité désintéressée. Une démocratie où chacun pourra participer à la formation des solutions politiques adoptées. Nous en sommes encore loin, il faudrait pour y parvenir que chacun trouve le temps de s'interresser aux débats, recherche des informations pour apporter de la matières aux discussions et contribue ainsi activement à la politique de l'état dans lequel il réside. Avec aujourd'hui 45% des français reliés à Internet, on imagine facilement que, bientôt l'accès à Internet sera présent au sein de chaque foyer. Il est donc vraisemblable que le vote par Internet et le débat politique trouveront leur place dans notre salon. La VIieme république sera numérique ou ne sera pas!
2005-05-07 12:17:31
Nous nous battons depuis des mois contre le gouvernement, le GIE Sesam-Vitale, la CNIL, pour que soit respecté notre droit au secret médical, sans lequel il n'y a pas de soins possibles. Nous avons découvert de graves failles dans le système de sécurisation de la carte Vitale, clé d'ouverture de nos futurs dossiers médicaux sur le net. Nous avons dénoncé, donné les solutions, puis porté plainte, sans réponses ! Le mode d'emploi de la lecture de la carte Vitale a été mis sur un site web pendant une dizaine de jours pour forcer l'ennemi à bouger, et il y a maintenant enquête. Nous, c'est l'ADAS (Association de Défense des Assurés Sociaux), dont je suis la porte-parole: http://webzinemaker.com/adas/ C'est Franck Bailly, médecin psychiatre à Evians, et Jérôme Crétaux, informaticien en vendée. Je vous adresse un résumé de notre action:
Dans l'article "Sesam ouvre-toi", L'historique des APIs du GIE: http://webzinemaker.com/admi/m6/page.php3?num_web=17902&rubr=1&id=253551 le Coup de Gueule de Patrick gueulle, ingénieur IFREI qui nous a rejoint dans la bataille: http://www.webzinemaker.com/admi/m6/page.php3?num_web=17902&rubr=4&id=259561 Notre défi à Alex turck, président de la CNIL: http://www.webzinemaker.com/admi/m6/page.php3?num_web=17902&rubr=4&id=258551 Notre "Appel à un refus total de l'informatisation de nos données de santé": http://webzinemaker.com/admi/m6/page.php3?num_web=17902&rubr=1&id=209408 Notre lettre au Ministre: http://webzinemaker.com/admi/m6/page.php3?num_web=17902&rubr=1&id=200119 Notre lettre à l'IGAS: http://www.webzinemaker.com/admi/m6/page.php3?num_web=17902&rubr=3&id=218883 Si quelqu'un a une bonne idée pour forcer nos dirigeants à nous entendre, et au moins à NOUS RÉPONDRE, nous sommes preneurs. Ils ne sont pas sourds, ils sont autistes ! Martine Marchand
2005-06-23 21:28:52
Cet article a été publié sous le titre "Technologies libres et société" dans [La Revue Nouvelle->http://revuenouvelle.ibelgique.com/], n°6-7, juin-juillet 2005. Merci à la rédaction de la revue de nous autoriser à en reproduire ici une version légèrement modifiée.
Les licences de logiciel libre sont-elles transposables en l'état à des oeuvres qui ne reposent pas sur du code informatique ? La question, posée périodiquement depuis que le logiciel libre existe, forme le sujet de quelques beaux débats sur les listes de discussion ou les sites web qui s'en réclament[[Freescape : Biblio du libre. [réf. du 10/04/2005]. Disponible sur internet : [->http://www.freescape.eu.org/biblio/] ]]. Il est en effet très vite apparu à un petit nombre d'acteurs, et d'abord à ceux qui ont animé le mouvement du logiciel libre, que les licences d'utilisation qu'ils concevaient pouvaient s'appliquer, au moins en théorie, à d'autres formes de « texte » que le code informatique pour lequel elles étaient conçues ; commencer par la documentation accompagnant les logiciels. Ainsi, une des premières licences libres dérivées d'une licence informatique pour le texte, la Free Documentation licence (FDL)[[GNU|Free Documentation License. 2001-. [réf. du 10/04/2005]. Disponible sur internet : [->http://www.gnu.org/licenses/fdl.html] ]], fut conçue par la Free Software Foundation pour cet usage. D'autres licences, la Licence Art Libre, la Licence de Libre Diffusion des Documents (LLDD), la licence Document Libre, constituent autant d'efforts, plus ou moins réussis, pour « porter » la démarche juridico-politique de Richard Stallman à d'autres domaines. Pourtant, il n'est guère difficicile de constater combien les usages de ce type de licences, qu'elles soient ou non conçues pour d'autres domaines d'application que le logiciel, restent extrêmement marginaux. Car non seulement bien peu d'auteurs d'oeuvres musicales, cinématographiques, platiques, textuelles ou scientifiques apposent une licence de type « libre » sur leur oeuvre, mais il est encore plus rare, autant dire quasiment de l'ordre de l'exception, que des utilisateurs fassent effectivement usage de l'ensemble des droits qui leur sont accordés. Ce type de licences, très bien adapté dans des cadres d'écriture collective (comme une encyclopédie) permet quelquefois à des projets de traduction de se lancer, mais jamais bien au delà. Dans le domaine de la publication scientifique, l'utilisation de licences libres, c'est-à-dire du droit de copier, modifier et republier un article scientifique reste souvent de l'ordre de l'inimaginable. Le nombre d'images libres, pouvant être récupérées, améliorées ou déformées et rediffusées en l'état est aussi très faible comparativement aux images soumises à royalties ou « libres de droits ». C'est encore dans le domaine musical, surtout avec le succès relativement récent des musiques électroniques ou des musiques mixées que la pratique du « sampling » est la plus répandue ; mais le succès des licences Creative Commons, dont on doit d'ailleurs se rappeler qu'elles sont loin d'être toutes libres, ne doit pas cacher que l'immense majorité des pratiques de sampling se fait sur la base de négociations de gré à gré entre éditeurs et artistes. Et en effet, si on cherche à dépasser la séduction que représente l'idée d'une application des licences libres à toutes formes de création, on se rend compte que l'utilisation de licences libres hors contexte informatique soulève de nombreuses difficultés et confine parfois à l'absurde, en l'état actuel des pratiques de création des oeuvres. Car dans nombre de domaines, l'ensemble des dispositifs juridiques, politiques et intellectuels qui définissent les conditions dans lesquelles s'exerce la création, se construisent autour de la mise en place d'une « fonction auteur »[[Foucault, Michel, Qu'est-ce qu'un auteur ? (1969). Dits et Écrits. Paris : Gallimard, 1994, t. I ]] remarquablement verrouillée. Alors que le caractère fonctionnel du code informatique le sauve pour ainsi dire de cet enfermement en lui permettant de s'insérer à la manière d'une brique dans un ensemble plus vaste, le texte discursif, la représentation plastique et, dans une moindre mesure, la création musicale tels qu'ils sont conçus aujourd'hui acceptent difficilement de telles pratiques. Faiblesse des pratiques et prolifération des discours Mais la faiblesse des pratiques n'empêche pas la prolifération des discours. Logiciel libre, accès ouvert, Creative Commons ou encore « médiactivisme »[[Papatheodorou, Aris. Hackers ouverts. Savoir faire, expertise et coopération dans la communication alternative EcoRev' - Revue critique d'écologie politique, 17 avril 2004. [réf. du 10/04/2005]. Disponible sur internet : [->http://ecorev.org/article.php3?id_article=243]. ]] : il n'aura pas fallu longtemps aux principaux héraults de ces mouvements pour reconnaître une parenté entre eux, et comprendre que leur réflexion est nourrie d'influences croisées[[Latrive, Florent, Du bon usage de la piraterie, Paris : Exils, 2004. Lessig, Lawrence, The Future of ideas, New York : Vintage Books, 2002. Papatheodorou, Aris. Tous experts ! Des réseaux d'échange de savoirs techno-scientifiques. Multitudes. N°3, novembre 2000. [réf. du 10/04/2005]. Disponible sur Internet : [->http://multitudes.samizdat.net/article.php3?id_article=151] ]]. Un grand nombre d'acteurs ou d'observateurs engagés travaillent aujourd'hui à consolider ces croisements et à faire apparaître la réalité d'un front commun quoiqu'inorganisé constituant la possibilité d'une réponse coordonnée à une menace qu'il faut identifier comme étant globale. Les théories récentes qui, mélangeant approches juridiques et économiques, décrivent la logique de fonctionnement d'un capitalisme cognitif fondé sur l'imposition de « nouvelles enclosures »[[Moulier-Boutang, Yann. Richesse, propriété, liberté et revenu dans le "capitalisme cognitif". Multitudes. N°5, mai 2001 [réf. du 10/04/2005]. Disponible sur Internet : [->http://multitudes.samizdat.net/article.php3?id_article=197] ]], jouent un rôle non négligeable dans la prise de conscience au sein de chaque collectif, d'une communauté d'expérience posant le socle de recompositions à venir. C'est au sein de collectifs transversaux, que ce soient des revues[[Multitudes. 2001-. [réf. du 10/04/2005]. Disponible sur internet : [->http://multitudes.samizdat.net] ]], des sites Web, des conférences ou encore des dispositifs plus complexes, c'est à l'occasion d'événements fondateurs qui mobilisent sur un temps court des forces hétérogènes[[Des acteurs de l'édition électronique en France s'opposent aux brevets logiciels. Revues.org. 9 septembre 2003. [réf. du 10/04/2005]. Disponible sur Internet : [->http://www.revues.org/brevetslogiciels.html] ]], que les prises de conscience se multiplient. On peut se demander malgré tout, si ces recompositions, caractérisées, rappelons-le, par la prolifération des discours et une certaine faiblesse des pratiques, sont encore suffisamment comprises et pensées. Il semble en effet qu'au delà de la dénonciation de la menace commune à l'ensemble des processus de création que fait peser la manière dont l'industrie des biens immatériels utilise le droit de propriété intellectuelle, les discours, ou bien se fixent sur les conditions juridico-économiques de la question, au prix d'un certain nombre de malentendus, ou bien renoncent à articuler les combats menés par les différentes communautés en se contentant de les juxtaposer. Il nous semble qu'à terme, l'une ou l'autre de ces options a des chances de multiplier les incompréhensions entre les communautés et lézarder progressivement ce qui apparaît encore auourd'hui comme une dynamique de rapprochement nourrie de l'identification d'un ennemi commun. C'est pourquoi on peut tenter d'entamer une démarche que l'on qualifiera de « régressive », parce qu'elle tente de remonter des phénomènes les plus visibles : les licences d'utilisation appliquées aux oeuvres créées, à leurs soubassements invisibles : les conditions dans lequelles s'accomplissent les pratiques de création, en essayant de comprendre à quel niveau peut prendre place la pensée d'une articulation entre différents collectifs qui se reconnaissent une certaine communauté de destin. Il s'agit en premier lieu de lever un certain nombre de malentendus : pour quelles actions la liberté qui résonne comme un cri de ralliement entre ces différents mouvements doit-elle être réclamée ? On sait que le mouvement du logiciel libre s'attache à préserver plusieurs libertés essentielles du logiciel : liberté d'exécuter, de copier, de distribuer, d'étudier, de modifier et d'améliorer le code[[The Free Software definition. Gnu.org. [réf. du 10/04/2005]. Disponible sur Internet : [->http://www.gnu.org/philosophy/free-sw.html] ]]. Une bonne partie de l'histoire du logiciel libre s'est construite sur la défense de ces libertés en tant qu'elles forment unité. Autrement dit, et c'est pour cette raison précisément que les licences libres sont des licences et non des contrats, le logiciel libre ne s'adresse pas prioritairement à des utilisateurs de logiciels, en tant qu'ils ne sont que des utilisateurs, mais essentiellement à des acteurs inscrits dans une pratique collective d'utilisation, de conception et de circulation du code informatique. Communautés scientifiques Il en va de même pour les différentes communautés scientifiques qui se sont inscrites dans le mouvement du libre accès aux publications scientifiques. Le mouvement de l'« open access » appuyé sur l'ouverture d'archives ouvertes et les pratiques d'autopublication via les e-prints notamment, ne revendique rien au nom du grand public. Il ne s'agit pas, ou alors marginalement, d'une demande d'accès au savoir pour l'ensemble de la société. Ces mouvements, partant de disciplines en rupture pour la plupart avec le langage commun, visent à garantir l'accès pour les chercheurs eux-mêmes aux connaissances produites au sein de leur propre communauté, parce que cet accès est une condition incontournable de leur propre pratique professionnelle en tant que producteurs de connaissances.Comme les différentes communautés du logiciel libre, les communautés de chercheurs, d'abord en sciences physiques et mathématiques[[ArXiv. 1991-. [réf. du 10/04/2005]. Disponible sur internet : [->http://www.arxiv.org] ]], puis en biologie[[Public Library of science. 2001-. [réf. du 10/04/2005]. Disponible sur internet : [->http://www.plos.org] ]], puis dans d'autres disciplines[[Cogprint. [réf. du 10/04/2005]. [réf. Du 10/04/2005]. Disponible sur internet : [->http://cogprints.org/]. Archivesic. 2002- [réf. du 10/04/2005]. Disponible sur internet : [->http://archivesic.ccsd.cnrs.fr/] ]] ont cherché à garantir la libre circulation en leur sein de l'information scientifique. Ils l'ont fait en prenant des moyens très différents ; et à première vue très en retrait par rapport à ce qui a pu se faire dans le domaine du logiciel libre. Les archives ouvertes par exemple[[Lagoze, Carl, Van De Sompel, Herbert. The Open Archives Initiative: Building a low-barrier interoperability framework. JCDL '01, June 17-23, 2001, [réf. Du 10/04/2005]. Disponible sur internet [->http://www.openarchives.org/documents/jcdl2001-oai.pdf] ]], un des fers de lance de la problématique du libre accès, ne visent qu'à rendre disponible, par le biais de bases de publications, le texte des articles scientifiques écrits par les chercheurs. Si l'on s'interroge par exemple sur le régime de propriété intellectuelle qui s'applique à ces publications, on sera peut-être étonné d'y trouver l'option la plus stricte : la reproduction y est rarement permise, la redistribution, voire la republication avec modification ne sont jamais autorisées. D'ailleurs, c'est dans la plupart des cas l'option la plus stricte du droit de propriété qui s'applique pour une simple raison : les auteurs mentionnent rarement quels autorisations d'usage ils attachent à leur écrits. Autrement dit, là où le concepteur de logiciel, le rédacteur de code s'attache désormais -parce que cela n'a pas été toujours le cas - à définir très précisément le cadre de propriété intellectuelle dans lequel il place son oeuvre - sous la forme d'une licence libre ou proriétaire, peu importe, le chercheur va rarement s'intéresser à cet aspect -sinon sous la forme de dépôt de brevet dans certains cas, ce qui renvoie encore à autre chose - en tant que tel, pour se soucier davantage de rendre publiquement disponible à l'ensemble de sa communauté les résultats de ses recherches[[ Declaration on Open Access to Knowledge in the Sciences and Humanities. Max Planck Society. 22 octobre 2003. [réf. du 10/04/2005]. Disponible sur internet [->http://www.zim.mpg.de/openaccess-berlin/berlindeclaration.html] ]]. Pourquoi ne pas aller plus loin ? Parce qu'il n'en est nullement besoin dans la plupart des cas : si le développeur a besoin d'inclure le code dont il veut se servir dans son propre programme pour pouvoir l'utiliser, le chercheur se contente pour sa part d'utiliser la technique de la citation qui lui suffit pour « utiliser » les résultats de recherche de ses collègues afin d'appuyer les siennes propres[[Kelty, Christopher. Free software, free science. First Monday. Vol. VI, n° 12. 2001. [réf. du 10/04/2005]. Disponible sur internet : [->http://www.firstmonday.org/issues/issue6_12/kelty/index.html] ]]. Communautés artistiques Autre exemple de malentendus possibles qui intéressent, cette fois-ci, les communautés de création artistique. On sait que les licences libres ne s'intéressent ni aux conditions d'utilisation des oeuvres qu'elles protègent, ni au statut des utilisateurs de ces oeuvres. Un logiciel diffusé sous licence GPL peut être indifféremment utilisé par un individu dans le cadre de son foyer, par une administration publique qui souhaite la déployer en grand nombre sur les postes de travail dont elle a la responsabilité, ou encore par une entreprise privée comme bon lui semble. Autrement dit, les licences libres n'établissent pas de distinction entre une utilisation commerciale ou non commerciale des oeuvres ; ce qui n'est pas sans gêner certains acteurs, y compris du secteur logiciel, puisqu'on y voit apparaître la pratique très particulière et très contestée de la double licence. Mais globalement, cette indifférence aux conditions économiques d'exploitation est rendue possible, quoiqu'en disaient il y a quelques années encore les détracteurs du logiciel libre, par les particularités du fonctionnement économique du marché du logiciel, soutenu en particulier par une demande professionnelle solvable, grosse consommatrice de services. Peut-il en aller de même pour d'autres secteurs de création ? Rien n'est moins sûr, dans l'état actuel des choses en tout cas. En témoigne le succès, au sein des licences Creative Commons, de l'option « non commerciale »[[Paharia, Neeru. License distribution. Creative Commons, 25 février 2005. [réf. Du 10/04/2005]. Disponible sur internet [->http://www.openarchives.org/documents/jcdl2001-oai.pdf] ]], choisie par un grand nombre de créateurs. Les réactions venant de l'intérieur de la communauté du logiciel libre sont parfois très critiques à l'égard de ces pratiques ; c'est même sur cette base qu'un grand nombre de reproches sont faits, de la part de ceux que l'on pourrait qualifier d'« intransigeants », aux licences Creative Commons, parfois présentées comme des simulacres de licences libres. Mais au delà du tour que pourrait prendre un débat entre réformistes et maximalistes, il est sans doute nécessaire de se pencher avec un peu plus de sérieux sur les conditions économiques dans lesquelles s'effectue la création. Il n'est pas certain qu'un compositeur, qu'un graphiste ou un écrivain exerce son art dans les mêmes conditions économiques qu'un développeur. Il est certain en revanche que les conditions économiques dans lesquelles les uns et les autres travaillent sont susceptibles de changer, et de manière non coordonnée au cours des années à venir tant il est vrai que les modèles économiques de ce qu'on pourrait appeler globalement l« industrie de la propriété intellectuelle » sont encore loin d'être stabilisés, en particulier du fait de l'évolution des technologies[[Godeluck, Solveig,. Géopolitique d'Internet. Paris : La Découverte, 2002]]. Pour tenter de comprendre comment différents collectifs peuvent se sentir concernés par une même problématique, il faut donc remonter du débat exclusivement juridique, pas toujours pertinent, des conditions économiques, très diverses et instables, aux conditions de possibilité des pratiques de création en tant qu'elles mettent en jeu à la fois l'individu créateur, et le collectif dont il se nourrit pour créer. Au cours des dernières décennies, les communautés que l'on vient d'évoquer ont expérimenté des situations de crise qu'elles ont fini par identifier comme étant apparentées : chacune d'elles, quelles que soient par ailleurs ses particularités, fut confrontée à peu près dans la même période à une même menace considérée comme critique parce qu'hypothéquant son avenir : ce qui est touché dans chacun des cas, ce sont les mécanismes et processus de circulation de l'information entre des acteurs dont l'aptitude à se construire en tant que communauté est étroitement dépendante de ces processus. Ce qu'on peut qualifier de «crise informationnelle » qui a pu toucher à quelques années de distance la communauté des développeurs sur systèmes Unix, les différentes communautés de recherche scientifique réparties par discipline, ou encore les créateurs de musique, fut provoqué dans chacun des cas par le blocage du processus de circulation de l'information au sein de chacune de ces communautés par un type particulier d'acteur. Que ce soit les sociétés éditrices de systèmes logiciels, les éditeurs scientifiques commerciaux ou les grands labels musicaux (ou leurs représentants), tous ont, à un moment ou à un autre, tenté de s'appuyer sur leur position au sein de la communauté pour imposer de nouvelles conditions à l'ensemble des autres acteurs, le plus souvent pour des raisons économiques ; ce qui fut toujours interprété comme une rupture du pacte qui se trouve en réalité à la base du droit de propriété intellectuelle moderne : l'octroi de privilèges permettant le développement d'une activité économique en l'échange d'un service rendu à l'ensemble de la communauté sous forme d'un soutien au processus de circulation interne de l'information qui la fonde. Des réponses diverses, à un même problème Chaque communauté a tenté de répondre à sa manière au problème qui lui était posé. Dans le domaine du logiciel, la réponse aux clauses de non-divulgation qui ont commencé à accompagner l'accès au code source des programmes[[Stallman, Richard. The GNU Operating System and the Free Software Movement. Open Sources : Voices from the Open Source Revolution. San Francisco : O'Reilly, 1999]], se développa sur la base d'une technologie juridique particulière : les licences d'utilisation « libres », parmi lesquels la licence GPL est à la fois une des plus intransigeante et la plus fameuse (sinon la plus répandue). Dans le domaine des publications scientifiques, la réponse à ce qui fut très tôt qualifié de « serial pricing crisis »[[Guédon, Jena-Claude. In Oldenburg's Long Shadow: Librarians, Research Scientists, Publishers, and the Control of Scientific Publishing. Creating the Digital Future, Association of Research Libraries, Proceedings of the 138th Annual Meeting . Toronto, Ontario, 23-25 mai 2001. [réf. Du 10/04/2005]. Disponible sur internet [->http://www.arl.org/arl/proceedings/138/guedon.html.] ]] fut toute autre : le mouvement des e-prints et la multiplication des archives ouvertes constituent une réponse fondée sur des outils et des pratiques[[Harnad Steven, For Whom the Gate Tolls? How and Why to Free the Refereed Research Literature Online Through Author/Institution Self-Archiving. Cogprints. 2001. [réf. Du 10/04/2005]. Disponible sur internet [ ->http://cogprints.soton.ac.uk/documents/disk0/00/00/16/39/index.html] ]]. Dans d'autres domaines encore, par exemple comme la composition musicale, ce sont de nouveaux intermédiaires qui sont apparus : les net labels occupent un créneau qui pointe en creux la situation de blocage à laquelle les distributeurs classiques sont arrivés. Aujourd'hui, une nouvelle économie de distribution de musique, reposant souvent d'ailleurs sur une articulation entre des lieux d'échanges physiques et virtuels[[Debruyne, François. Réseaux, espaces communs et espaces publics des musiques électroniques. La production de quelques sociabilités musicales d'aujourd'hui. [en ligne]. Thèse de doctorat (n. r.) : Sciences de l'Information et de la Communication : Université Lille-III : 2001 : Elisabeth Fichez (dir.) : [réf. du 14/03/2005]. Disponible sur Internet : [->http://www.univ-lille3.fr/theses/debruyne-francois/html/these_front.html].]], est en train de se mettre en place pour reconstruire des modes de circulation des oeuvres que des pratiques excessivement commerciales ont pu détruire en quelques années. Ces mouvements, dans la manière hétérogène avec laquelle ils ont répondu à une même contrainte menaçante, et pourtant en tant qu'ils se considèrent comme étant apparentés, ayant un certain nombre de points communs entre eux, montrent bien que le mouvement du logiciel libre ne peut constituer un modèle seulement au niveau du travail juridique qu'il produit. L'essentiel de ce que les acteurs qui en sont à l'origine ont cherché à sauvegarder, c'est-à-dire la capacité pour chacun au sein d'une communauté de recevoir et d'émettre à part égale l'information, c'est-à-dire de participer au processus collectif de co-création et de circulation de l'information, fait l'objet d'une même préoccupation dans les autres communautés ; de recherche scientifique ou de création artistique par exemple, parmi d'autres. Mais le combat qu'elles mènent passe nécessairement par l'utilisation d'autres outils, parfois très éloignés des licences d'utilisation. Parfois, les outils s'articulent au sein de complexes mélangeant technologies informatiques et juridiques, afin de soutenir des pratiques de création et de publication que ces communautés identifient comme essentielles à leur perpétuation. C'est le dernier point sur lequel il faut s'arrêter : les réactions collectives issues des « crises informationnelles » provoquées par les intermédiaires ont fait apparaître et ont permis la prise de conscience de l'existence de véritables communautés, dont la structuration semble aujourd'hui étroitement dépendante de l'intensité et de l'orientation des pratiques de communication en leur sein. Transversales, transnationales, ces communautés ont adopté des modes de structuration liée à, mais ne recouvrant pas exactement, d'autres modes d'appartenance leur préexistant, comme l'affiliation professionnelle par exemple. Appréhender ces communautés, qui sont dans une large mesure virtuelles, n'est pas simple, car leur structuration, instable et feuilletée, repose sur une activité de circulation de l'information entre pairs par essence multiforme. Leur émergence, remarquable par l'apparition de prises de paroles collectives est l'occasion de recompositions en marge des formes d'organisation stabilisées. Il n'est pas étonnant dans ces conditions que la communication médiatisée par Internet ait constitué un levier d'action pour chacune d'elles : particulièrement bien adapté, par son architecture technique, à des pratiques de communication multilatérales, il est apparu aux yeux de la plupart des acteurs comme un moyen très efficace de contournement des obstacles. Si le logiciel libre n'est sans doute pas un modèle en tant que tel pour d'autres communautés qui s'en reconnaissent proches, l'ensemble de ces communautés et les combats qu'elles mènent constituent bien un modèle pour une société ouverte qui refuse l'appropriation privative par une catégorie quelconque d'acteurs, au nom d'une logique qui lui est étrangère, de ce qui en fait la vie même en tant que société : la libre circulation de l'information et la dissémination des moyens de communication permettant au plus grand nombre d'être sources en même temps que récepteurs, de participer à la vie collective, c'est-à-dire très exactement de prendre part à l'échange généralisé de signes et de richesses qui définit toute vie sociale.
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 00:00:00
2000-00-00 19:39:00
2000-00-00 19:47:00
2000-00-00 23:31:00
2000-00-00 23:44:00
2006-09-03 21:33:02
2006-09-10 23:10:47
2006-11-25 12:18:48
Sophie Boudet-Dalbin est doctorante en sciences de l'information et de la communication. Elle propose ici, pour Homo Numericus, un état des lieux de la distribution de films sur le Réseau. Internet : nouveau média ou nouveau tuyau ? Elle montre que pour la plupart des acteurs de ce secteur la question est loin d'être résolue...
Depuis 2000, la généralisation du format de compression vidéo DivXi, l'arrivée de technologies plus performantes pour la transmissionii, la prolifération d'offres de forfaits à prix très compétitifs et l'évolution des systèmes de P2Piii, ont favorisé le téléchargement de films sur Internet et incité l’industrie cinématographique à se poser des questions quant aux stratégies à adopter pour la distribution par Internet.
Les industriels ont trop longtemps appliqué des offres traditionnelles à la distribution numérique sans prendre en compte les spécificités d’Internet, des nouveaux contenus audiovisuels et d’un public en mutation. Il est maintenant urgent de développer des offres payantes de distribution de films par Internet en accord avec la technologie et les attentes. La répression ne doit pas être la seule réponse. Le Web 2.0iv montre la voie d’une nouvelle filière de production et de distribution de contenu.
Ainsi, doit-on se poser plusieurs questions. Internet est-il un nouveau média ou un nouveau « tuyau » ? Dans quelle mesure les majors doivent-elles prendre en compte le P2P ? Qu’est-ce que le Web 2.0, qui fait fleurir des sites comme YouTube ou MySpace, peut nous apprendre sur la nouvelle culture Internet et la nouvelle économie ?
Internet : nouveau média ou nouveau « tuyau » pour distribuer du contenu ?
Partons déjà de la définition du terme médiav. Internet est en effet un « moyen de diffusion » comme la télévision, « de distribution » comme le cinéma, « de transmission de signaux porteurs de messages écrits » comme la presse, « sonores » comme le téléphone, « visuels » comme la vidéo. La caractéristique d'Internet est de regrouper tous les médias existants sur un même terminal. Il est également un nouveau média, car il permet d'établir des communications radicalement différentes de celles connues et expérimentées jusqu'à présent, à l’image de l’encyclopédie libre Wikipedia ou du site MySpace, symboles de l’Internet participatif.
Internet se distingue alors des autres médias par deux caractéristiques qui lui sont propres : le multimédia et l'interactivité. La transmission des données n'est plus unidirectionnelle. Tout comme le téléphone, Internet donne au récepteur un rôle actif, la possibilité d'obtenir les services ou les programmes de son choix à partir d'une commande individuelle. Le multimédia permet également aux médias traditionnels de se surpasser. Avec l'hypertexte, il libère le texte écrit de sa linéarité. Avec ses arrêts sur image, ses bonds en avant, ses retours en arrière, ses raccourcis, il libère la radio et la télévision de leurs grilles horaires, des contraintes de leurs chaînes ou de leurs stations. Enfin, il enrichit et internationalise la télématique des années quatre-vingt. Il permet en d'autres termes à chaque média de triompher de handicaps que l'on avait crus insurmontablesvi.
Cependant, à l'aube du XXIe siècle, le multimédia en ligne n'a pas encore trouvé ses véritables usages. Il se borne souvent à prolonger ou à compléter les anciens médias. Ainsi, Internet est souvent utilisé comme un nouveau tuyau – plus gros et moins onéreux – pour distribuer du contenu. Internet offre donc les mêmes services mais distribués autrement. Qu'est-ce qui le différencie alors des autres médias ? Peut-on encore parler d'une révolution numérique avec des incidences profondes sur les stratégies économiques et les comportements individuels ?
Internet est une nouvelle technique qui pour l'instant n'apporte pas un réel service novateurvii. Mais l'exploitation de cette technique est amenée à évoluer au fil du temps et des applications. « La technique, sans doute, n'impose rien : elle propose, et l'homme dispose, ou il composeviii. » Il existe ainsi une interaction entre technique et société. La technique apporte de nouvelles possibilités que le public s’approprie et transforme, tout comme elle naît des aspirations d’une société en mutation.
L'ordinateur est un terminal, Internet un réseau qui permet d'acheminer les services au grand public. Il est encore difficile de créer de la valeur en associant du contenu et des « tuyaux », mais la convergence des divers terminaux numériquesix apparaît très prometteuse pour l’avenir, à travers notamment l’offre triple play qui associe ordinateur, télévision et téléphone à Internet.
Distribution payante de films par Internet : l’avenir reste à faire !
Regardons maintenant les diverses stratégies de distribution de films par Internet qui ont été mises en place. Alors que l'idée de regarder un film sur un ordinateur est séduisante, les stratégies de distribution par Internet ne sont pas très convaincantes. Cela peut être attribué à plusieurs facteurs. Le manque de confort pour regarder un film pendant une heure, assis au bureau devant l'écran d'ordinateur. Le visionnage en streamingx qui nécessite une connexion à haut débit (solution qui ne cesse de se répandre). Le visionnage individuel devant l'écran d'ordinateur, moins convivial qu'au cinéma. La technologie, pas encore adaptée (la résolution n'est pas parfaite, l'ADSL et le câble demeurent instables).
L'explosion du partage de films sur les réseaux P2Pxi montre cependant qu'il existe véritablement une demande pour le visionnage de films par Internet. Les différentes offres de distribution de vidéo via Internet s'efforcent de répondre aux diverses attentes d'un public toujours plus varié. Mais il ne faut pas confondre ce qui devient possible grâce à la technologie et ce qui est utile, qui répond à un besoin, et peut donc être la base d'une activité rentable.
On a assisté à l’apparition de la télévision interactive (TVi), de la VODxii, du cinéma numérique (D-Cinema) et des sites Internet proposant la vente par correspondance de DVD, le téléchargement ou le visionnage en streaming de films. Sans rentrer dans le détail, hormis la vente de DVD et la VOD, les modes de distribution de films ne semblent pas avoir rencontré le succès escompté. Les stratégies doivent vraisemblablement être mieux adaptées aux mutations socio-économiques induites par Internet. La transmission avec la TVi ne change pas de nature, elle est simplement rendue plus performante ou véhiculée via de nouveaux tuyaux. Pour le D-Cinema, la demande est réelle, mais il reste à régler les économies d'échelle et le cadre juridique. La généralisation de l'utilisation des systèmes d'échange et de partage P2P incite alors à considérer les nouveaux comportements des internautes comme le symptôme d'une culture qui veut naître et une source d’inspiration possible pour les stratégies à développer.
Le peer-to-peer : source d’inspiration pour les stratégies à venir
Le P2P est une forme de distribution décentralisée très intéressante. Pour les multinationales c'est « un instrument diabolique qui a mis le piratage à la portée de tousxiii ». Pour d'autres, un nouveau moyen révolutionnaire d'accès à la culture. Cette technologie, qui se développe depuis plus de cinq ans de façon fulgurante, a été rapidement adoptée pour procéder au partage illégal de fichiers. Il s'agit d'une véritable révolution sociale, économique et juridique. Le P2P est une technologie jeune et en constante évolution. De multiples études sur le sujet, parfois contradictoires, ouvrent la voie à une nouvelle perception du public, des pratiques et de l'économie.
La gratuité, le libre accès à l'information a été promu tout au long de l'évolution d'Internet comme une de ses qualités essentielles. Les promoteurs de cette « culture du gratuit » à ses débuts sont ceux-là mêmes qui la dénoncent aujourd'hui. Le coût élevé du matériel informatique et la prospérité du commerce en ligne montrent cependant que l'internaute n'est pas forcément un pirate en quête de gratuité. Les internautes sont prêts à payer et sont d'ailleurs consommateurs de DVD ou vont au cinéma. Il ne s'agit donc pas de l'émergence d'une culture de la gratuité mais d'une autre façon d'appréhender la rétribution de la création et du travail intellectuel : la considération, la fierté de contribuer à une œuvre collective, l'échange en nature, etcxiv.
Parmi l'ensemble des éléments avancés par les utilisateurs des réseaux P2P, trois causes principales sont souvent évoquées comme justifiant le téléchargement d'œuvres. Un grand nombre d'internautes critiquent le coût de vente, dans les circuits de distribution actuels, des œuvres cinématographiques. Autre argument avancé : le choix proposé sur les réseaux P2P. Les utilisateurs découvrent des films peu connus qu'il est impossible de se procurer et d'acheter dans le commerce. De plus, le besoin de tester les nouveaux produits incite à télécharger. Cela précède, en théorie, l'achat.
Par ailleurs, on voit que le public a du mal à faire abstraction du support. Il est toujours possible de graver les fichiers téléchargés sur CD, mais les services associés qu'offrent les DVD sont déterminants. Il ne faut donc pas négliger la valeur de services comme le support physique, les compilations à la demande, la recherche, le filtrage, etc. Ce sont autant de pistes pour développer des systèmes payants de distribution de films par Internet. En outre, la production et la mise à disposition d'un contenu coûtent de moins en moins cher. La distribution en ligne est un acte assez simple. Reste à créer notoriété, crédibilité et trafic, ce qui est sans doute l'une des justifications majeures de la présence et du coût de l'intermédiaire.
Certains industriels perçoivent le P2P comme un nouveau réseau diffusant des versions gratuites destinées à engendrer, par un relèvement de l’espérance d’utilité, un consentement à payer pour des versions payantes. Cependant, les réseaux numériques diffusent des contenus en contournant les droits de propriété intellectuelle. Les réactions des industriels sont donc de plus en plus répressives. Le risque de procès est censé abaisser l’utilité du gratuit et doit idéalement relever le consentement à payer du consommateur pour des offres payantes en ligne. Il est néanmoins illusoire de prétendre réprimer tous les utilisateurs de P2P.
Les différents secteurs tentent alors de trouver des solutions intermédiaires pour faire payer les utilisateurs de P2P. On a pu voir l’année dernière, lors du vote en France de la loi DADVSIxv relative au droit d’auteur sur Internet, un fort engouement pour légaliser les systèmes de P2P en échange d’une répartition des droits à l’image de la radio (licence globale)xvi. Le P2P révèle l'évolution du rôle du public, aujourd'hui beaucoup plus actif dans l'acte de « consommation » des films. On est loin de la vision classique d'un public se contentant passivement de regarder une œuvre.
Web 2.0 : l'Internet nouvelle génération
Afin de développer des solutions payantes de distribution de films par Internet adaptées au média et aux attentes, il est essentiel d’anticiper les usages en perpétuelle évolution. Ainsi, le Web 2.0 est un exemple intéressant de (ré)appropriation des outils par les usagers. Sachant qu’il n’existe point de régime stable de l’usage, les industriels doivent penser les produits comme des plateformes d’innovation.
Le Web 2.0 est un terme inventé pour désigner une certaine évolution d’Internet. Il ne s’agit point d’une rupture technologique pure mais d’une transformation vers des modèles contributifs horizontaux. Même si l’on sait bien qu’Internet n’a pas attendu le Web 2.0 pour évoluer, les industriels gagneront à intégrer ces changements dans leurs modèles économiques.
Ainsi, à l’image de sites de partages de vidéos comme YouTube ou Dailymotion, le Web 2.0 montre une dynamique d’autoproduction très forte, un déplacement du curseur de la sphère publique-privée et un nouvel « individualisme communicationnelxvii ». Cette grosse machine à recycler permet à l’individu de se mettre en valeur, de créer son identité et d’élargir son réseau social (social networking). « De simple consommateur, l’internaute est passé au statut de contributeur », explique Didier Rapport, cofondateur du site Dailymotion, dans un article du Monde. Ainsi, « plus il y a de vidéo, plus y en a d’autres et plus il y a d’internautes ».
Cependant, cela pose un problème éthique. Ces sites fournissent du contenu aux majors pour un coût pratiquement nul, sans rémunération des droits d’auteur. De plus, l’information est externalisée et traitée par quelqu’un d’autre que l’internaute. On voit cependant apparaître, lors de la diffusion TV de morceaux choisis tirés de ces sites, le commencement d’une rémunération des contenus amateurs. Des logiques verticales ne risquent-elles pas à terme de freiner ce mouvement de libre contribution ? Quoi qu’il en soit, l'industrie a bien compris qu’elle doit désormais s'adapter à un client devenu actif et qui a son mot à dire. L’industrie et le public doivent être en perpétuelle interaction. Là est certainement l’avancée majeure du Web 2.0.
Notes
Étant au film ce que le Mp3 est à la musique, le DivX (Digital Video Express) permet la compression de fichiers vidéo, quel que soit leur format, à environ 15 % de leur taille. Ainsi, un film en qualité DVD, soit 4 ou 5 giga-octets, devient un fichier de 650 ou 700 méga-octets, presque l'équivalent d'un CD-Rom, ce qui permet son téléchargement sur le Web en quelques heures avec une connexion à haut débit.
L'accès à Internet rapide est possible en choisissant l'une des trois solutions suivantes : le satellite, le câble, les solutions Digital Subscriber Line (DSL, High Speed DSL : HDSL, Asymmetric DSL : ADSL, Very High Speed DSL : VDSL, Symmetric DSL : SDSL ) et la boucle locale radio.
Le terme pair-à-pair, en anglais peer-to-peer (P2P), désigne une classe d’applications informatiques dédiées aux échanges point-multipoint. La première application en fut Napster dont la mise en service remonte à juin 1999. Toutefois, Napster n’était pas un pur système de P2P car sa gestion s’appuyait sur une centralisation des fichiers dans un serveur ouvert. Ceci a conduit à sa fermeture pour enfreinte au droit d'auteur un an après sa mise en service. Néanmoins, les énormes flux de trafic engendrés par son succès auprès des utilisateurs ont incité des ingénieurs et des financiers à développer de nouveaux systèmes de plus en plus décentralisés. Ceux-ci se déploient depuis sous diverses marques (KaZaA, Grokster, iMesh, Morpheus, eDonkey, e-Mule) mobilisant des techniques convergentes dans des modèles économiques et juridiques différents. Le logiciel utilisateur, téléchargeable sur un site public, permet d’accéder aux listes de contenus disponibles, d’effectuer des requêtes, et de charger des contenus directement sur son ordinateur, connecté à Internet.
Le Web 2.0 représente une avancée dans l'utilisation des technologies sur le Web. Le terme Web 2.0 a été forgé en 2004 par Dale Dougherty et popularisé par Tim O’Reilly avec qui il travaille dans la société de publication et de consulting informatique O’Reilly Media. Depuis, l’expression s’est répandue très largement, sans pour autant que sa définition ne fasse consensus, ni même qu’elle parvienne à être éclaircie.
Définition tirée du dictionnaire de la langue française Le Petit Robert, édition de 2001.
Voir BALLE Francis, Les médias, Évreux : Flammarion, 2000, p. 51-52.
En ce qui concerne le secteur du cinéma, les solutions de distribution payante de films par Internet restent encore trop calquées aux modèles de distribution des médias traditionnels : télévision interactive & télévision analogique, cinéma numérique & cinéma argentique, site de téléchargement & vente par correspondance ou vidéo club.
Il est maintenant possible de se connecter à Internet avec son téléphone portable, de recevoir Internet sur son écran de télévision par le biais de consoles de jeux ou de set-top boxes. Des appareils ménagers, tel un réfrigérateur, peuvent même être connectés au Net.
2007-03-28 11:29:47
Ce texte a été publié dans l'ouvrage collectif L'Autre Campagne, aux Editions La Découverte. Il est par ailleurs disponible [sur le site de l'Autre Campagne->http://www.lautrecampagne.org/article.php?id=58]. Merci aux responsables du volume et à leur éditeur de nous autoriser à le reproduire ici. C'est le terme de crise qui résume le mieux l'état dans lequel se trouvent aujourd'hui les institutions, les acteurs et les modes de production et de circulation des savoirs. La crise manifeste en l'occurrence l'affrontement devenu paroxystique entre des acteurs, des logiques, des pratiques entrant directement en collision. Les nouvelles technologies ne sont pas un vecteur neutre de la diffusion des savoirs comme on l'a cru pendant très longtemps. Pour tout un ensemble de raisons à la fois techniques et historiques, elles sont porteuses d'une nouvelle configuration culturelle. Plus précisément, elles remettent en cause, par leur simple existence, l'exclusivité ou la domination d'un modèle daté, que l'on caractérise souvent par la notion d'industries culturelles. La logique des industries culturelles repose sur l'inscription généralisée de biens informationnels sur des supports de diffusion matériels faisant l'objet de procédés de reproduction et de diffusion mécanisés. Elle a pour conséquence l'intégration complète des conditions de pratique artistique, éducative, scientifique et même du débat public dans un système économique global qui s'est par ailleurs doté de ses propres règles et autonomisé par rapport aux autres dimensions de la vie sociale. Le propre des nouvelles technologies est de déstabiliser cette relation établie par le capitalisme moderne entre la culture et des supports de diffusion assujettis à un mode de production industriel. Le changement induit par la dématérialisation de l'information se manifeste à tous les niveaux : technique, économique, juridique et entraîne l'émergence de nouvelles pratiques culturelles qui viennent heurter de front l'ordre établi par les industries de la culture. Le résultat est connu : l'échange horizontal entre usagers des réseaux peer-to-peer, les pratiques de communication désintermédiarisées, la montée en légitimité et qualité des productions culturelles amateures, mais aussi les chutes de profitabilité touchant des pans entiers des industries culturelles (presse, musique, édition) sont le signe de leur profond affaiblissement au profit d'autre acteurs. Dans ce contexte brouillé et en mouvement, l'action politique doit trouver les moyens d'action pour que les objectifs que l'on souhaite poursuivre en matière culturelle (accès de tous aux savoirs, développement de la diversité culturelle, libre circulation des idées, présence au niveau international) puissent être atteints. Si le souci de l'accès universel aux savoirs conduit naturellement à évoquer ce qu'il est convenu d'appeler la fracture numérique, il faut prendre garde à ne pas se contenter de considérer uniquement l'équipement matériel des familles, mais s'intéresser en priorité aux compétences dont chacun dispose pour en tirer le meilleur profit. Et sur cette question, il est nécessaire de ne pas se contenter des compétences de lecture et de compréhension, comme on le fait souvent, mais aussi de se préoccuper de celles qui permettent de contribuer à la production et à la circulation des savoirs. Cela suppose un aggiornamento radical de la manière dont l'Ecole aborde la question, alors que de récentes études mettent en évidence son absence totale en matière de formation aux usages des nouvelles technologies. Autrement dit, dans un environnement où le modèle cognitif dominant est mieux représenté par une encyclopédie collaborative comme Wikipedia que par une encyclopédie traditionnelle comme Britannica, il est nécessaire non seulement de savoir accéder aux savoirs et les assimiler, mais aussi de savoir en produire, mieux, en co-produire au sein de collectifs informels, et en maîtriser la circulation dans un espace public mondialisé. Mais la question de l'accès universel aux oeuvres culturelles n'est pas épuisée par l'équipement informatique et la formation aux usages. Car les propriétés techniques du document numérique doivent elles aussi faire l'objet d'une attention particulière. L'importance de ce que les économistes appellent les externalités de réseau créent le besoin d'une régulation forte qui empêche un acteur de verrouiller par l'intermédiaire d'un format, d'une système informatique ou d'un protocole de communication un marché sur lequel il est dominant. Plus encore, la mise en place de mécanismes de protection sur les oeuvres, récemment légalisés par le loi sur le droit d'auteur et les droits voisins dans la société de l'information menace considérablement leur libre circulation et réduit à néant les droits du public (à user des oeuvres, à les conserver, à les transmettre) au bénéfice des seuls ayants droit. La loi DADVSI, dont la préparation et l'adoption s'est faite dans des conditions ubuesque constitue un exemple paradigmatique d'une politique sacrifiant l'avenir pour préserver les intérêts ponctuels d'une industrie mourante. Elle doit être abolie dans les meilleurs délais. Les industries qui tirent profit des changements évoqués, sont les fournisseurs d'infrastructures de communication et de services informatiques. Si ces industries proclament une neutralité de principe par rapport aux contenus qu'elles traitent, l'observation de la réalité conduit à un tout autre constat. La montée en puissance de fournisseurs de services d'information grand public comme Google, progressant selon les lignes d'une intégration horizontale d'une multitude de services associés, le développement de fournisseurs d'accès comme Free, progressant par intégration verticale depuis l'installation de réseaux physiques à très haut débit jusqu'à la fourniture de bouquets de services de communication à l'usager, constituent de véritables menaces pour le pluralisme de l'accès aux savoirs et à la culture. Il est nécessaire de mettre en œuvre une politique industrielle qui garantisse le maintien d'une diversité d'acteurs, en particulier en favorisant le développement d'initiatives innovantes et concurrentielles susceptibles d'améliorer l'état d'équilibre de marchés perpétuellement menacés par la formation de monopoles.
2007-05-23 23:40:00
Jusque là, celui qui voulait regarder un film pouvait soit aller au cinéma, soit regarder la télévision, soit se rendre au vidéo club ou bien acheter le DVD. Avec l'arrivée d'Internet, plus besoin de sortir, d'affronter la foule et les embouteillages, de se plier aux grilles horaires. Désormais, on peut tout aussi bien allumer son ordinateur, où que l'on se trouve dans le monde, télécharger le film de son choix et le visionner sur l'écran de sa télévision sans bouger de chez soi, le transférer vers son baladeur numérique pour pouvoir le regarder dans les transports, ou même l'avoir sur son téléphone portable. Avec la généralisation des connexions haut débit et l'évolution des technologies vers plus de confort, d'interopérabilité et de mobilité, l'idée de télécharger un film via Internet ne semble plus aussi saugrenue. D'ailleurs, l'explosion du partage de films sur les réseaux P2P a démontré qu'il existe une réelle demande pour le visionnage de films sur le Net. Les différentes offres s'efforcent de répondre aux attentes d'un public toujours plus varié et en mutation. Mais il ne faut pas confondre ce qui devient possible grâce à la technologie et ce qui est utile, qui répond à un besoin et peut donc être la base d'une activité rentable. L'industrie cinématographique a d'abord perçu Internet comme une menace. Une fois le film disponible sur le Net, comment empêcher qu'il ne soit massivement piraté ? Comment s'assurer d'un retour sur investissement ? Comment être sûr que le nouveau média ne fasse pas de l'ombre aux autres modes de distribution ? La réaction des majors a donc été défensive. L'objectif n'était pas de comprendre la nouvelle dynamique entre le public et la technologie mais de stopper l'hémorragie. Les majors semblent avoir réalisé l'impasse dans laquelle elles se trouvaient. L'industrie musicale a montré l'exemple, avec l'iTunes Store d'Apple et son iPod, devenus une référence incontournable pour la vente de musique en ligne. Les enjeux économiques n'étant pas les mêmes pour l'industrie cinématographique, celle-ci avait besoin d'un peu plus de temps. Désormais, le marché de la vidéo en ligne commence à s'organiser. De nouveau acteurs émergent et les modèles économiques évoluent. Les alliances se forment. Les initiatives laissent entrevoir une certaine maturité de l'offre de distribution de films par Internet. Cette offre se développe à partir de 1998 aux Etats-Unis, avec des sites comme MovieFlix ou Netflix. Pour des questions de droits, les sites américains ne sont pour la plupart accessibles qu'aux internautes localisés aux Etats-Unis. Ces sites sont bien entendu accessibles de n'importe quel ordinateur connecté au réseau, partout dans le monde. Mais s'il y a paiement par carte de crédit, seuls les utilisateurs avec une adresse bancaire américaine peuvent effectivement bénéficier du service. Ainsi, dans un univers numérique où les barrières géographiques sont supposées s'estomper, certaines spécificités nationales persistent. L'Amérique du Nord, grâce à une industrie cinématographique puissante et une avancée historique dans le développement du nouveau média Internet, apparaît bien positionnée sur le marché du téléchargement de films. A travers l'étude du marché américain, est-il possible d'établir une typologie de l'offre de films sur Internet ? Sur quels sites aller pour télécharger un film - non pas une vidéo amateur comme on peut en trouver sur YouTube, mais un long métrage ? Comment s'y retrouver parmi les différentes formules proposées ? Quels sont les acteurs et modèles économiques émergents ? Typologie de l'offre Aux Etats-Unis, la distribution de films en VOD (vidéo à la demande) par le câble et le satellite rencontre un vif succès. A défault d'offres innovantes, la distribution par Internet a longtemps été marginale, voire illégale. Mais désormais, être présent sur le Web n'est plus une option, c'est une nécessité. Il faut aller là où l'audience va. L'internaute a clairement indiqué qu'il voulait pouvoir télécharger des films. De plus, avec l'essor de la publicité en ligne et le développement de services attractifs, l'industrie du cinéma réalise qu'il y a de l'argent à gagner. L'étude de l'offre américaine permet d'avoir une vue d'ensemble des différents modèles économiques. Tout d'abord, il y a les services de VOD, qui permettent de s'abonner, louer, acheter et graver sur DVD. Puis, les magasins hybrides qui allient commande en ligne et distribution postale. Viennent ensuite les magasins en ligne, de type iTunes Store. Enfin, les portails vidéos, qui offrent une plate-forme pour des contenus amateurs et professionnels. Les modèles économiques varient, mais ils ont tous en commun un même défi : prouver à l'internaute qu'acheter ou louer un film en ligne est plus convivial et moins contraignant que de se déplacer au vidéo club. Ils doivent également rivaliser avec le téléchargement illégale qui demeure important. Service de VOD La spécificité et l'intérêt des services de VOD résident dans la large gamme des services proposés. CinemaNow représente la palette la plus complète avec 5 possibilités d'obtenir un film : l'abonnement, la location, l'achat, la possibilité de graver sur DVD et le contenu gratuit. Fondé en 1999, ce fut le premier site Internet à offrir le contenu des majors sur Internet et de graver le film sur DVD. Il a su développer les différentes formules attendues par les internautes, même s'il n'est toujours pas possible de transférer le contenu sur un baladeur numérique. Le service de location demeure le service le plus représenté. Lorsque l'internaute loue un film, il a 30 jours pour commencer à le visionner, ou bien 24 à 48 heures après le début du visionnage. L'utilisateur ne peut voir le film que sur 1 ordinateur, qu'il peut désormais relier à son poste de télévision (avec l'Apple TV d'Apple ou le Media Center de Microsoft). Pour l'achat, il reçoit sur son ordinateur un fichier haute résolution qu'il peut lire sur jusqu'à 3 ordinateurs, et une copie basse résolution pour jusqu'à 2 baladeurs numériques. Il peut ensuite (avec Amazon Unbox et Movielink) effectuer une copie de sauvegarde sur DVD, lisible uniquement sur l'ordinateur ayant téléchargé le film. Avec CinemaNow, l'usager peut télécharger le DVD, le visionner sur l'ordinateur et graver une copie sur un DVD vierge qui peut ensuite être lu sur n'importe quel lecteur, avec toutes les options de navigation et bonus présents sur un DVD. Les prix de l'abonnement mensuel varient grandement : entre $30 sur CinemaNow, $10 sur Vongo, et $8 sur MovieFlix. Par contre, le prix à la location semble avoir trouvé un équilibre, entre $3-4. Idem pour l'achat, qui se situe autour de $20 pour les nouveautés et passent ensuite à $10 pour les films plus anciens. La qualité de l'image varie également beaucoup entre les différents services : entre 1-3 Mb/s (ce qui ne permet pas d'avoir une bonne qualité en grand écran) et 25 Mb/s sur Amazon Unbox (qualité DVD). Ces services de VOD correspondent à une tentative de la part des majors pour offrir une alternative légale et payante aux services de P2P qui étaient les premiers à offrir des films sur Internet. Ces sites correspondent au "Web 1.0", sans réelle compréhension des attentes du nouveau public. Ainsi, le contenu gratuit n'est pas vraiment représenté. De plus, le choix proposé n'est pas très large. La compatibilité Mac-PC est également très rare ; seuls MovieFlix et BitTorrent permettent aux utilisateurs de Mac d'utiliser leur service. En outre, seuls Amazon Unbox et Peer Impact (seulement avec le contenu de Warner Bros) offrent la convergence vers les baladeurs numériques. Enfin, pas d'interaction possible, étant donné que les internautes ne peuvent pas laisser de commentaire ou proposer leur propres vidéos. Cependant, l'utilisation de la technologie P2P (avec Peer Impact et BiTtorrent) pour limiter les coûts de bande passante paraît très prometteuse. Magasin hybride Les magasin hybrides sont un mélange de vente par correspondance et de location DVD sur Internet. Netflix et Blockbuster, deux grandes chaînes de vidéo clubs, commencent la distribution de DVD en ligne, respectivement en 1998 et 2004. L'internaute doit s'inscrire sur le site Internet. Il choisit entre plusieurs formules d'abonnement. L'abonnement le plus populaire sur les deux sites est l'abonnement illimité à $17,99, qui permet d'avoir jusqu'à 3 DVD à la fois. Il est également possible d'acheter un film sur le site. Les DVD sont ensuite envoyés par la poste, avec enveloppe pré-payée pour renvoyer le film une fois visionné s'il s'agit d'un abonnement. L'avantage des magasins hybrides réside dans la richesse du catalogue (jusqu'à 70 000 films sur Netflix). La qualité et le confort de visionnage sont optimaux puisqu'il s'agit d'un DVD physique. Ces services rencontrent un vif succès aux Etats-Unis. Mais cela reste encore très proche de la vente physique ou de la location en vidéo club. Là encore, il s'agit plutôt d'un site Web 1.0, sans contenu gratuit ni interactivité. Blockbuster et Netflix n'ont pas d'autres concurrents. Ils ont donc tenté de se différencier. Par exemple, Blockbuster offre la possibilité de rendre les DVD également dans les magasins physiques. Netlix, quant à lui, propose un abonnement illimité à $47,99, avec jusqu'à 8 DVD à la fois. Mais la grand nouveauté demeure Netflix, qui propose désormais le streaming gratuit pour tous ses abonnés. Netflix affirme ainsi une volonté de ne pas se laisser dépasser par les évolutions de la technologie Internet et du nouveau public. Magasin en ligne Les magasins en ligne se sont développés dans la lignée du succès de l'iTunes Store d'Apple avec son célèbre iPod, pour la distribution numérique de musique. Il s'agit d'un magasin virtuel sur Internet, où l'internaute va pouvoir acheter ou louer des films. Ces offrent sont issues des deux géants du monde informatique, Apple et Microsoft. Wal-Mart, une chaîne de grande distribution, a lancé son magasin en ligne en février dernier afin d'être présent sur Internet et de rivaliser avec l'iTunes Store. Les prix varient entre $8-15, ce qui est proche du prix d'une place de cinéma aux Etats-Unis. Apple et Microsoft ont tous deux élaborés des systèmes propriétaires. Ainsi, seul l'utilisateur de la Xbox 360 connectée à Internet, peut accéder au Xbox Live Marketplace et louer des films qu'il pourra ensuite regarder sur sa TV reliée à la console. Chez Apple, on verrouille l'offre avec l'iPod, et bientôt l'iPhone. L'iTunes Store est le magasin en ligne qui propose le service se rapprochant le plus de la génération Web 2.0. Ainsi, il est possible de laisser des commentaires, de voter. L'interface est très conviviale et il y a du contenu gratuit. Mais il est à déplorer un catalogue encore trop pauvre, avec seulement 500 longs métrages. Portail vidéo Les portails vidéos sont des acteurs émergents qui rencontrent un vif succès. Les modèles économiques sont basés sur du contenu gratuit financé par la publicité. Même si l'offre de longs métrages n'y est pas très représentée, ces sites sont désormais des acteurs incontournables. Ainsi, le célèbre portail vidéo YouTube, symbole du Web 2.0, permet de visionner et de partager des films partout dans le monde via Internet. Sur le même modèle, Google Video permet en plus d'acheter et louer des films pour une somme modique, avec le premier prix à $0,99. AOL Video, quant à lui, est un point de passage vers des vidéos gratuites via un moteur de recherche ainsi que vers du contenu payant via des chaînes de VOD. Joost, projet de plate-forme TV interactive dont le lancement est attendu cet été, permettra à l'internaute, selon le pays où il se trouve, d'accéder gratuitement à des chaînes de TV en ligne. Tout l'attrait des portails vidéos réside bien évidemment dans la gratuité, mais également dans la possibilité de poster son propre contenu (sauf pour Joost et AOL Video), faire des commentaires, voter, participer à des forums. Ce qui représente la génération Web 2.0. La qualité et le confort de visionnage sont cependant plutôt médiocres, comparés aux autres services. Le Web 2.0 est collaboratif, participatif, collectif, interactif. Le modèle du gratuit financé par la publicité s'impose. La rétribution des contenus amateurs de qualité commence à se généraliser. Il s'agit de rétablir l'équilibre entre culture du gratuit et appropriation de cette culture par l'industrie. Plus qu'un outil marketing pour l'industrie, les sites de partage vidéo permettent de découvrir des talents et de construire des communautés de fans. Le récent dépot de plainte de Viacom contre YouTube, en mars dernier, pour "violation massive et intentionnelle des droits d'auteur", si cela va jusqu'au procès, sera décisif pour l'avenir de la distribution vidéo en ligne aux Etats-Unis mais également en Europe. Vers un modèle unique ? Alors que l'enjeu du Web 1.0 était l'accès, le défi du Web 2.0 est désormais d'anticiper les comportements et attentes d'une nouvelle génération. On l'appelle "la génération Y" ou encore "les Millennials". Ils se distinguent avant tout par un mode de vie qui intègre les nouvelles technologies. Ils ont grandi avec l'avènement du numérique et ne peuvent donc pas se souvenir de l'époque où le monde n'était pas relié numériquement. Pour eux, ils est absolument naturel de communiquer sur les réseaux, avec la promesse d'un partage instantané des informations. Les Millennials développent une véritable relation émotionnelle avec leur ordinateur, leur téléphone portable, leur baladeur numérique. Internet fait converger ces différents supports. Il est donc essentiel pour l'industrie de se positionner sur le Web et d'adapter son contenu aux différents supports afin de toucher cette nouvelle audience, à tout moment, en tous lieux. Une nouvelle tendance se dessine. Nous sommes désormais à l'ère de la culture à grignoter, du divertissement par petites bouchées. La "culture snack", comme l'a décrite le magazine Wired, révèle une société de l'instant, de la consommation fragmentée. Le format court apparaît comme mode de vie des générations haut débit. On passe alors de l'album, au single, à la sonnerie ; du film, à la série, au "minisode". Ce n'est pas la fin du long métrage mais le début d'un morcellement de l'offre. Le contenu doit s'adapter au support et miser sur la valeur du service. Dans un récent communiqué de presse, l'institut Forrester Research a prédit la fin du modèle payant sur Internet. La VOD serait "une voie sans issue", comme on peut le lire sur Ratiatum. Selon leur étude, le modèle du gratuit financé par la publicité sera le seul capable d'attirer un public de masse. Apple devrait ainsi abandonner son offre d'achat de films en ligne, et se tourner vers la diffusion gratuite des films sponsorisés par les annonceurs. Les portails vidéos, décris plus haut, et dont le cabinet Forrester chante les louanges, sont en effet une catégorie émergente très prometteuse. Le marché de la publicité en ligne semble s'adapter et pouvoir s'assurer une nouvelle audience réelle. Les internautes sont friands de sites communautaires et gratuits. Mais ne faut-il pas craindre une nouvelle bulle de la publicité. De plus, la qualité a un prix. Si l'on prend le public des Millennials, un public encore jeune, ils n'ont pas forcément les moyens d'acheter des films, même en DVD. Cependant, d'ici quelques années, ils seront à l'âge où l'on préfère mettre le prix pour avoir une qualité de service et d'offre. Le fait que les offres VOD n'aient pas su attirer le grand public, n'est-il pas le signe que les services doivent évoluer et s'adapter à la demande, vers des logiciels de visionnage plus conviviales, des DRM plus souples, une convergence des terminaux encore plus facile, une diversité des formules (gratuit et premium), des catalogues plus riches, une attention particulière vis-à-vis du "user-generated content" et des contenus associés, des moteurs de recherche plus efficaces, une certaine qualité de la ligne éditoriale…? -------------------------------------- Copie intégrale d'un article (sous Creative Commons) rédigé par Sophie Boudet-Dalbin et déja diffusé sur Ratiatum :
2007-06-14 06:05:40
Convertir une vidéo téléchargée ou montée soi même, l'adapter aux formats d'écran et de fichiers de son téléphone portable ou de son ordinateur, c'est vite compliqué ! Heureusement, les logiciels de conversion vidéo et audio existent. AVS4YOU.com http://www.avs4you.com/fr/index.aspx garantit des logiciels de qualité et innove avec une nouvelle façon d’y accéder : l'abonnement !
Un site : 28 logiciels. On ne paye qu'une fois et c'est tout ! Le principe ?Il est très simple. Le visiteur s'inscrit une seule fois. Il a le choix entre deux tarifs : abonnement annuel ou illimité, il ne paye qu'une fois. Il peut alors accéder aux 28 logiciels, les télécharger et les utiliser à volonté. Tous les logiciels peuvent être testés avant de s'abonner, sans restriction de fonctions. De plus, pas besoin de s'abonner une deuxième fois pour profiter des nouveaux programmes ou de nouvelles mises à jour! Simplicité d'utilisation A l'origine d' AVS4YOU.com, apporter des solutions simples à tous ceux qui veulent faire du traitement vidéo et audio : possesseurs de baladeurs vidéo, de téléphones portables, de caméra vidéo qui, souvent, ne sont pas compatibles entre eux. La solution ? Les logiciels AVS Video to GO, to iPod, to PSP, to Archos qui transfèrent et encodent la vidéo selon les formats des marques les plus utilisées de portables. Autre exemple, le logiciel AVS iDevice Explorer permet de transférer des fichiers d'un portable sur un autre sans les copier sur le disque dur. L'abonné peut même travailler avec deux iPods ou un iPod et un téléphone mobile etc. Un film de vacances vite monté : mode d'emploi En trois étapes, le film de vacances est prêt au visionnage grâce à AVS Video Editor. Première étape : l'utilisateur capture une vidéo provenant de HDV/DV, micro DV et caméscopes numériques (VHS, TV, Hi8, 8mm), VCR, TV tuner et WEB cams. Ensuite, il édite sa vidéo et coupe les passages inutiles. Grâce à AVS Video Editor, il peut appliquer des effets et des transitions mais aussi superposer les images et le texte, ajouter des diaporamas numériques et de la musique. Il ne lui reste plus qu'à graver son film sur différents formats : CD-R/RW, DVD+/-R, DVD+/-RW, DVD-RAM. L'utilisateur peut les transférer vers la plupart des lecteurs portables dont Sony PSP, Apple iPod, Archos DVR, Creative Zen Vision, téléphones et lecteurs DVD portables. Amélioration constante des logiciels Créée en 2004, c'est la société Online Media Technologies Ltd, fournisseur de solutions multimédia qui a lancé en 2006 le projet en ligne AVS4YOU.com. Forte de son succès, elle est en train de rendre compatibles ses logiciels avec le CPU Intel Core 2 Duo,et l'HD DVD, elle développe par ailleurs des supports pour portables comme l'iPhone, le Blackberry ou le Zune. Bonne nouvelle, tous leurs logiciels sont déjà compatibles avec Windows Vista . Affaires à suivre ! Vous voulez en savoir plus ? Connectez vous sur le site AVS4YOU.com http://www.avs4you.com/fr/index.aspx Online Media Technologies Ltd. représenté par Alexandra Malyshkina alexandra.malyshkina@avsmedia.com
2007-07-18 11:55:27
Depuis sa création, Wikipedia est un véritable sujet de polémiques, en particulier au sein des milieux académiques qui se sentent menacés par la popularité de cette encyclopédie ouverte, sans doute parce que, éditable et amendable par tous, elle remet en question ce qu'ils estiment relever d'un monopole légitime. Pour preuve, la récente " étude " diffusée par plusieurs étudiants de Science Po, cherchant à mettre en évidence la faillibilité de l'encyclopédie, sur la base d'erreurs qu'ils y ont volontairement introduits. Au delà d'interrogations un peu puériles sur la qualité ou l'absence de qualité intrinsèque de cette encyclopédie qu'on aborderait comme un " produit " fini, il peut être intéressant de se pencher sur le mode de fonctionnement de cette entreprise, considérée cette fois comme un système social, un lieu de coordination et de coopération entre plusieurs milliers de participants ; amendable par tous, éditable indéfiniment, Wikipédia n'est en effet jamais " finie " - pas plus que ne l'est le savoir d'ailleurs, en perpétuel renouvellement. De ce simple fait, il est bien plus pertinent de s'interroger sur la manière dont le travail de co-construction des connaissance s'accomplit en permanence, que sur la " verité " de tel ou tel énoncé qui y serait produit. C'est exactement ce que fait Sylvain Firer-Blaess dans cette série de trois articles qu'il a accepté de publier pour Homo Numericus. S'appuyant sur les travaux de Foucault, mais pas ceux auquel on s'attendrait, il développe une analyse politique percutante de Wikipedia comme lieu où s'exerce et refuse de s'exercer en même temps une certaine forme de pouvoir. Pour lui, et il l'expliquera dans ses deuxième et troisième parties de cette série, Wikipédia est traversé d'une tension qui lui est propre et qu'il tente de qualifier en démontant à la fois les moeurs et les mécanismes de régulation de cette communauté très particulière. Pour l'heure, il nous la présente, dans ses dimension techniques et historiques. Ce travail est issu d'un mémoire de fin d'étude présenté à l'IEP de Lyon.
On appelle wiki une interface informatique permettant l'édition commune de pages web. Le concept de Wiki est élaboré par Ward Cunningham dans son site WikiWikiWeb, lancé en 2000. Wikipédia n'est donc qu'un des projets utilisant cette technologie, il existe de nombreux autres sites utilisant le wiki.
La technologie Wiki permet au visiteur d'un site d'éditer c'est-à-dire de créer ou modifier lui-même une page web via une interface aisément utilisable. Chaque page sur un site Wiki contient en effet un lien hypertexte, qui renvoie l'utilisateur à une interface d'édition lui permettant de modifier la page. Une fois les modifications effectuées, le visiteur devenu éditeur sauvegarde la page modifiée, qui remplacera en ligne immédiatement l'ancienne version. L'interface d'édition est assez simple pour être utilisée par quiconque, même s'il faut apprendre une codification simple pour bien utiliser les possibilités d'éditions -création de tableaux, etc.- .
Dans la plupart des sites wikis, dont Wikipédia, on a la possibilité, soit de s'inscrire sur le site, c'est à dire de créer un profil d'utilisateur, soit de rester anonyme. Si on reste anonyme, les modifications seront alors "signées" du numéro d'IP (identifiant individuel de la connexion internet utilisée). La plupart des Wikis (dont Wikipédia) disposent de systèmes d'archives qui enregistrent toutes les versions successives d'une même page, ce qui permet un retour aisé à une version antérieure. La facilité de modifier une page est ainsi contrebalancée par une même facilité d'annuler les modifications d'un tiers, ce qui permet notamment qu'aucun dommage permanent, dans le sens, par exemple, d'une suppression du contenu de la page ou de l'ajout de contenu inapproprié, ne puisse être infligé à une page par une mauvaise modification.
La Wikipédia contient de même quelques spécificités importantes ; ainsi Wikipédia permet aux utilisateurs inscrits de disposer d'une "liste de suivi " leur permettant de s'enquérir directement des modifications des pages qu'ils souhaitent surveiller de près, notamment par l'envoi d'un email dès qu'une page suivie est modifiée. De même, Wikipédia lie à chaque page/article une page de discussion, elle aussi modifiable selon la technologie wiki, qui permet à tous de discuter de l'article et des choix de modification de la page/article.
Le projet Wikipédia (Wp) a été lancé exactement le 15 janvier 2001, par Jimmy Wales, homme d'affaires dans les nouvelles technologies, doctorant en philosophie1, créateur et propriétaire du projet, et Larry Sanger, docteur en philosophie travaillant pour Wales et responsable du projet. Wikipédia était à la base le sous-projet expérimental d'un autre projet d'encyclopédie en ligne s'appelant Nupédia, créé le 9 mars 2000 par les mêmes personnes. Nupédia, comme aujourd'hui Wikipédia, se voulait une encyclopédie libre de droits d'auteurs, sous une licence créée par le mouvement des logiciels libres, appelée GFDL. Nupedia prenait le système d'organisation classique de formation d'une encyclopédie : les articles devaient être écrits par des experts, et étaient publiés après un long processus de vérification.
Wikipédia utilisa en revanche, dès le début, le système d'édition permis par la technologie Wiki, collaboratif, et sans processus de vérification. Tandis que le contenu de Wp augmentait rapidement -22 000 articles à la fin de la première année ! - la progression de Nupedia restait elle particulièrement lente : d'octobre 2001 à avril 2003, seuls deux nouveaux articles étaient publiés en ligne. Le projet Nupedia fut clôturé en 2003, à cause d'une panne du serveur hébergeant le site, ainsi que du manque de volonté affiché des responsables et contributeurs pour remédier au problème ; ce qui laissa à Larry Sanger et Jimmy Wales l'occupation d'un seul projet encyclopédique, Wikipédia.
Devant le succès croissant de Wp, Sanger et Wales décident de créer, le 20 juin 2003, la fondation Wikimedia, organisation à but non lucratif détenant le projet, et chargée d'organiser et de promouvoir Wikipédia et ce qu'on appellera bientôt les "projets sœurs " (" sister projects "). Ces derniers visent à transposer le système qui a fait le succès de Wikipédia à d'autres types de savoir. En décembre 2002 est par exemple lancé Wiktionary, un projet de dictionnaire en ligne, puis ce sera en juin 2003 Wikiquote, une collection de citations, et un mois plus tard Wikibooks, une collection de livres sans droits d'auteurs.
Depuis sa création, le contenu de Wikipédia a connu une progression quasi exponentielle, du moins pour sa version anglaise. Wikipédia comporte aujourd'hui 160 éditions différentes en langues "actives " (plus de 100 articles), et totalise en septembre 2006 plus de 5 millions d'articles, dont 1,4 millions en anglais, 460 000 en Allemand, et 355 000 en Français.
Wikipédia est, incontestablement, un grand succès populaire : il fait partie des 10 sites les plus fréquentés au monde ; il suffit d'ailleurs de taper un mot sur Google pour remarquer que sa définition dans Wikipédia fait partie des premières réponses. Pour ce qui est de la qualité "objective " de l'encyclopédie, les informations nous manquent. Certes, le mode d'édition Wiki donne un contenu instable (pouvant donner des différences d'édition dans le temps) par rapport à ses consoeurs Universalis ou Britannica, et certains "scandales "2 ont éclaté suite à des biographies qui s'étaient révélées être fausses et polémiques à un certain moment. Néanmoins, le contenu général ne semble pas en reste par rapport à ses concurrentes : un article publié dans la très sérieuse revue Nature en décembre 2005 soutient que Wikipédia et l'encyclopédie Britannica sont jugées comparables en ce qui concerne la qualité des articles scientifiques3. Enfin, si la réussite est incontestable en popularité et sa qualité certainement convenable, le projet encyclopédique pèche par sa problématique absence de légitimité auprès du monde scientifique et éducatif, malgré l'article cité précédemment qui ne change rien à la nature nouvelle et déroutante de l'encyclopédie : l'encyclopédie libre dérange par sa non reconnaissance des traditionnels producteurs de savoir ; il semble ainsi plutôt logique que les personnes dont le rôle n'est plus reconnu à leur valeur habituelle (je parle ici des scientifiques, qui n'ont pas à la base plus de reconnaissance qu'un utilisateur lambda dans la Wp)) ne reconnaissent pas, en réaction, un projet de ce côté-là plutôt subversif.
L'organisation de la Wikipédia ne connaît pas vraiment de hiérarchie. Elle est auto-organisée dans le sens où ce n'est pas une structure supérieure qui prend les décisions, mais où toutes les personnes intéressées et volontaires les prennent. Cette auto-organisation s'accompagne d'un très grand dynamisme au vu du grand nombre de pages créées et des modifications éditées par jour, ainsi que d'une grande efficience si l'on en croit l'article de Nature évoqué plus haut.
Pour comprendre l'organisation de Wikipédia, il faut connaître ses débuts, cruciaux car ils posent les bases de sa structure. Nous nous sommes basés pour cela sur le long écrit de Larry Sanger, " The Early History of Nupedia and Wikipedia: A Memoir ", publié en 2005 dans le magazine en ligne Slashdot.
De la création de Wikipédia en janvier 2001 jusqu'au départ de Larry Sanger en mars 2002, nous pouvons voir deux phases distinctes dans l'organisation de Wikipédia : une phase primaire où les wikipédiens sont exclusivement des experts, que Larry Sanger appelle l' " Eden Anarchiste " puis une phase d'ouverture populaire, qui peut être qualifiée d'une véritable " invasion barbare " selon la vision du même Sanger, et qui s'accompagnera d'une crise.
Un Eden anarchiste ?
Quand le projet Wikipédia est créé, il est dès le début ouvert à tous, néanmoins sa population reste majoritairement circonscrite aux experts de Nupedia, qui travaillent sur les deux projets simultanément. Cette population primaire est donc une population d'experts du savoir, majoritairement des universitaires. Cet état de fait perdure jusqu'à ce que Wikipédia gagne en popularité, ce qui lui vaut l'arrivée de vagues successives de nouveaux acteurs, la première arrivée massive se déroulant dans l'été 2001.
Cette première période, de janvier à août 2001, prouve la grande efficacité du système wiki : 600 articles sont rédigés à la fin du mois de janvier, 1300 en mars, 2300 en avril, 3900 en mai4. Sanger parle alors de l'organisation du projet comme d'une "saine anarchie "5 ("good-natured anarchy ") et d' "une sorte d'état de nature rousseauiste numérique ", voulant sûrement indiquer que la communauté était composée de bonnes personnes qui ne souhaitaient pas de troubles, et que l'organisation était en paix, exempte de conflits.6
Lors de ces tous premiers temps, il n'y a absolument aucune règle écrite ni organe de régulation : les conflits, de nature éditoriale, sont réglés par la discussion et le consensus. Il n'y a ni chef véritable -Même si Sanger est responsable du projet, il a renoncé à prendre le titre de rédacteur en chef et des pouvoirs supplémentaires-, ni hiérarchie, ni règles précises. L'homogénéité de la population (quasiment tous des universitaires) et son faible nombre (environ 200 participants actifs) facilitent sûrement les choses.
Une certaine tension, qui s'amplifiera par la suite, semble néanmoins déjà présente dans les débuts. Elle concerne le fait que le but et la forme de Wikipédia sont quelque peu en contradiction : son but est de former une encyclopédie, et en ce sens des règles sont nécessaires sur son contenu, son édition et sa syntaxe ; en revanche, sa forme, le wiki, est lié à une "culture wiki " qui supporte mal l'institution de règles : dans les wikis existant, la liberté est totale et l'on peut généralement éditer ce qu'on veut, comme l'on veut. La structure technique a généralement mené à des pratiques anarchiques, dans le sens de chaotique (par exemple le wiki everything27). De cette pratique découle un principe qui sera repris par un certain nombre de personnes dans Wikipédia, et qui est celui d'éviter de mettre en place toute règle. Nous appellerons les personnes se reconnaissant dans cette vision les " Wiki-anarchistes ". Attention, le wiki-anarchisme est bien différent d'autres doctrines anarchistes auxquelles nous sommes habitués. L'idée principale ici est que n'importe quelle règle pour un wiki serait néfaste, alors que, par exemple, l'anarchisme selon Proudhon ne fait pas des règles un mal, au contraire.
évidemment pour Sanger et Wales, l'objectif premier est de créer une encyclopédie, le mode d'organisation wiki étant soumis à cet objectif : pas question de faire passer le wiki-anarchisme comme une fin en soi, il est subordonné à la réalisation du projet et peut donc faire l'objet de "dérogations ", comme la mise en place de règles. Une autre école, qui va devenir majoritaire, se met alors en place. Ce sont ceux qui, comme les créateurs, pensent que le but premier est de faire une encyclopédie, et que pour mener à bien cette mission la mise en place de règles est essentielle. Nous les appellerons alors "Encyclopédistes-réglementariens ".
Ce conflit, entre "encyclopédistes-réglementariens ", majoritaires, et "Wiki-anarchistes ", est prédominant dans les premiers débats sur la structure de pouvoir de Wikipédia, et semble avoir été un enjeu essentiel pour Larry Sanger. Les premiers mois sont donc marqués par quelques "luttes " ("some struggle ") afin de mettre en place des normes ("policies ") que chacun devra respecter. Les encyclopédistes-réglementariens sont arrivés à imposer leurs vues, et des normes écrites vont ainsi être mises en places. Les règles générales sont tout d'abord inscrites dans l'article "What Wikipédia is not " (qui existe toujours aujourd'hui), et qui définissent de façon négative ce qu'est le projet encyclopédique (par exemple "Wikipédia n'est pas un dictionnaire " ou "Wikipédia n'est pas un recueil de journaux intimes "...). Cette règle est un compromis entre les deux écoles en quelque sorte ; ainsi elle ne dit pas précisément ce qu'est la Wikipédia, mais ce qui est prohibé, laissant une très large capacité d'action tout en imposant des limites.
Dans le même temps, s'instaurent aussi des normes de syntaxe, et de contenu. La plus célèbre8 norme de contenu, et la plus importante pour le fonctionnement de l'encyclopédie, est sans aucun doute celle du "Neutral Point of view " (Point de vue Neutre). Elle consiste à tenter de désamorcer les conflits sur le contenu des articles en demandant, pour chaque désaccord sur un point donné, que tous les avis provenant de sources scientifiques soient inclus dans l'article (nous verrons cela plus précisément dans la partie 3). Ainsi l'on espère d'une part éviter les conflits d'éditions entre partisans d'une idée ou d'une autre, et surtout de donner au lecteur toutes les clés pour saisir un problème.
L'esprit wiki-anarchiste reste néanmoins très présent dans l'organisation, comme le montre la publication de deux règles "anti-règles " établies ironiquement par le plus fervent de l'encyclopédistes-réglementarien, Sanger lui-même. La première, appelée malicieusement "Ignore All Rules ", stipule : " si les règles vous rendent nerveux ou vous dépriment, et ne vous vous donnent pas envie de participer, alors ignorez-les simplement et faites ce que vous voulez faire " (traduction de la Wikipédia francophone). L'idée, pour le réglementarien Sanger, est que la jeune communauté doit d'abord apprendre par elle-même et par l'expérience les bonnes pratiques, qu'il faudra par la suite institutionnaliser. En effet, Sanger affirme que dès le début du projet, il ne pense pas que la structure originelle doive perdurer, et qu'une structure normative plus stricte devra être mise en place.
La seconde règle "anti-règle " se nomme "Be Bold in Updating pages ", que l'on peut traduire par "n'hésitez pas à modifier les pages! ". L'un des mécanismes contribuant à la réussite de Wikipédia est en effet le fait que la pratique individuelle se fait avant le contrôle par la communauté : une bonne édition fait l'objet d'un consensus "passif ", c'est à dire acceptée par défaut. Ainsi les éditions considérées comme bonnes font l'économie d'un débat et d'un processus de décision actif, seules celles qui portent à critique seront discutées à posteriori. On retrouvera d'ailleurs assez tôt sa règle corollaire "Don't bite the newbies ", "ne mordez pas les nouveaux ", qui demandent aux wikipediens de laisser faire les nouveaux entrants, et de ne pas être trop méchants lorsqu'ils font des erreurs.
Toutes ces règles sont, encore dans un principe wiki-anarchiste, respectées par consensus. Sanger décrit précisément ce consensus qui consiste en trois points : pour qu'une règle soit dite acceptée dans les débuts de Wikipédia, il faut : 1. Une pratique majoritaire de la règle, 2. La présence de nombreux wikipédiens faisant du "prosélytisme " de la règle, c'est à dire y faisant souvent référence lors de discussions sur les articles ou dans des débats de la communauté, et 3. Pas d' opposants à la norme ou de façon très minoritaires.
Ainsi " l'ordre sans le pouvoir " semble merveilleusement bien marcher dans les huit premiers mois de Wikipédia. Nous voyons que la mise en place d'une auto-organisation a demandé l'introduction de normes, des normes néanmoins qui restent lâches sous la pression des wiki-anarchistes. Cette "primo-communauté " et les pratiques mises en place ont été, selon Sanger, primordiales dans l'existence de Wp telle qu'on la connaît aujourd'hui. Elle a en effet mis en place de nombreuses règles et coutumes qui sont encore d'actualité.
Ainsi dans cette première phase, des normes sont établies, respectées grâce à un consensus global. Cet état d'"Eden anarchiste " va prendre fin progressivement à partir d'août 2001. Wikipédia devient en effet connue dans l'internet, et un afflux de nouvelles personnes va arriver, augmentant considérablement le nombre d'éditions et d'articles du projet encyclopédique, mais remettant aussi en cause son équilibre initial.
Les invasions barbares
Wp va ainsi devenir de plus en plus connu, d'une part suite à des publications dans des revues électroniques, mais surtout grâce à un "effet google "9 qui renvoie de plus en plus de monde sur le site. Le fait est que comme nous l'avons vu Wp reçoit des visiteurs qui peuvent être simples lecteurs de l'encyclopédie, mais qui peuvent aussi grâce à la technologie wiki devenir très facilement participants. Selon la volonté des créateurs, la participation est en effet ouverte sans restriction. Quand une certaine masse critique de participants fut dépassée, le modèle de normes lâches et acceptées par consensus instituée par la primo-communauté montra ses limites. Sanger décrit alors les troubles qui ont suivi.
La première conséquence de l'arrivée en masse de nouveaux participants, la plupart, à la différence des personnes constituant la primo-communauté, ne détenant pas de doctorat -on peut d'ailleurs parler d'une "vulgarisation " de la communauté wikipedienne- est la dissolution, sinon la disparition, de cette primo-communauté composée d'universitaires : Sanger explique que certains nouveaux arrivants, sans expertise sur les articles qu'ils modifient, peu respectueux des règles en vigueur et portés à des débats agressifs sur les pages de discussion, découragent et frustrent les participants de la première heure. Ainsi, nombre d'entre eux quittent le projet10. Les docteurs déçus ont semble-t-il été surpris par la rapidité du changement, et n'ont pas réagi à temps pour changer à leur avantage les règles du jeu.
Seconde conséquence, la remise en cause des normes établies par la primo-communauté. Comme nous l'avons vu, ces normes demandent un consensus supporté par une grande majorité de la communauté, or cette majorité tend à disparaître, et rien ne présuppose que les nouveaux arrivants vont adhérer à ces normes. Ainsi la Wikipédia fait face à un nombre croissant de pratiques violant les règles de la Wikipédia, et par conséquent compromettant la qualité de l'encyclopédie.
Enfin dernière conséquence, l'arrivée de ce que j'appellerai, en utilisant un vocabulaire foucaldien, de "déviants antisociaux ", participants ayant comme volonté de nuire au projet. On peut les diviser en deux groupes : d'une part les "vandales ", dont la démarche consiste à modifier les articles afin d'amoindrir leur qualité - suppression de tout ou partie d'un texte, ajout de grossièretés, de stupidités, ou plus sournoisement de fausses informations - ; et d'autre part les "trolls ", personnages bien connus du folklore des forums de discussion par internet et autres chats, et qui définissent des personnes provoquant volontairement des disputes dans les débats.
L'arrivée en masse de nouveaux participants amène ainsi un changement de nature de la communauté, une remise en cause des règles et l'apparition d'agents perturbateurs, alors que l'ancienne organisation se révèle incapable de réguler ces problèmes. Larry Sanger et ses proches vont alors proposer une première série de solutions.
Si ces propositions n'ont pas été suivies, il est intéressant de les connaître, ne serait-ce que pour comprendre leur refus. A l'issu de cet échec, ajouté au fait qu'il n'était plus payé par la société Bomis, Sanger démissionne du projet, et fondera quelques années plus tard le projet concurrent à Wikipédia, "Citizendium ".
Pour ce qui est du premier point, la "vulgarisation " des wikipédiens, il est pour la majorité des intéressés inacceptable que l'on établisse des barrières à entrées pour résoudre le problème : l'encyclopédie collaborative se veut ouverte à tous. La proposition de Larry Sanger est alors de donner un statut spécial aux personnes disposant d'un doctorat, qui leur permettrait d'avoir plus d'autorité. Nous connaissons l'égalitarisme profond du projet et il n'est pas étonnant de découvrir que cette idée fut mal accueillie par la communauté, et par conséquent pas mise en place. Notons que l'"anti-élitisme " de l'encyclopédie, décrié par Sanger, est pour lui à la base de tous les problèmes de Wikipédia. Citizendium, le projet concurrent de Sanger, ouvert au public fin mars 2007, se présente ainsi comme un "double " de Wikipédia mais avec une structure de pouvoir basé sur cette idée de hiérarchie distinguant les personnes plus "sages " - disposant d'un grade universitaire - et les autres. Au moment où j'écris ces lignes Citizendium contient moins de 2000 articles, ce qui montre une progression bien inférieure aux début de la Wikipédia.
Le deuxième point, la remise en cause des consensus, est le problème principal auquel est confronté Sanger. Il a en effet refusé la dénomination de "rédacteur en chef " de l'encyclopédie et la possibilité de statuer unilatéralement sur les règles, ainsi que de prendre des mesures de coercition. Il ne dispose en tant que responsable du projet que d'une autorité morale qui suffisait avec la primo-communauté, mais maintenant son autorité est remise en cause par certains nouveaux arrivants. Afin de faire accepter les normes aux nouveaux, Sanger lance l'idée de les "wikifier " (les nouveaux) en créant un "comité d'accueil de Wikipédia ", chargé d'accueillir les nouveaux et de leur apprendre les bonnes manières. Mais cela n'empêche en aucun cas à un certain nombre de personnes de défier les règles défendues par Sanger. Ce dernier contrebalance son manque d'autorité en discutant longuement avec ses détracteurs, ce qui s'avère peu rentable comparé à l'énergie dépensée. Afin de sauver certaines règles de base de Wp, Sanger va ainsi en novembre 2001 demander à Jimmy Wales, ayant plus grande autorité puisque propriétaire du projet (et de plus, semble-t-il, considéré un peu comme un sage dans la communauté), de déclarer certaines règles obligatoires et non discutables, ce qui aura semble-t-il pour effet de donner plus de poids aux "wikifieurs ". On voit néanmoins la difficulté pour des "chefs " de faire valoir leur autorité.
Enfin, à propos des saboteurs, Sanger voulait appliquer une technique appelée "name and shame ", qui consiste à publier le nom du vandale, ce dernier recevant par la suite la désapprobation publique de la communauté. Si cette mise à dos publique ne suffit pas, l'utilisateur est automatiquement banni. Mais cette technique n'est pas acceptée par la communauté, Sanger explique ce refus par un état d'esprit publiquement encouragé par Jimmy Wales et provenant de la pensée "wiki-anarchiste ", appelée le Wikilove11. Le Wikilove demande de traiter chaque membre de la communauté avec respect et amour. Sûrement bonne en soi, cette règle devient contre productive lorsqu'on l'applique à tous sans distinction, même aux présumés vandales, ce qui semble avoir été le cas. Ainsi le fait de traiter quelqu'un de vandale et de l'afficher publiquement a été mal perçu par la communauté, et le présumé vandale se retrouve souvent défendu par une partie de la communauté du seul fait qu'il ait été "attaqué ". Ainsi le bannissement des vandales ne se fait qu'après de "longues et pénibles " discussions.
A force de débattre en faveur des normes et contre les vandales, Sanger devient peu à peu une personne controversée au sein de la communauté. De plus, la société de Wales, Bomis, qui finance Wikipédia, subit le contre coup du crack boursier des valeurs internet, et ne peut plus payer Sanger. Ainsi Sanger démissionne du projet Wikipédia en mars 2002, soit un an et trois mois après sa mise en place.
Dans des débuts sans problèmes puisque modestes, la communauté Wikipédia institue des normes plutôt lâches tout en restant utiles, les normes étant respectées par consensus. Les décisions sont prises sans hiérarchie. Mais quelques mois plus tard le projet Wikipédia voit, par sa popularité grandissante, le nombre de ses participants augmenter considérablement, ce qui permet à l'encyclopédie de croître rapidement, mais met aussi le projet en face de nouvelles difficultés : la fin de l'hégémonie universitaire, la remise en cause des quelques norme établies, enfin l'apparition de pratiques de destruction. Néanmoins l'idéologie première de Wikipédia reste fidèle à elle-même, et la communauté refuse les propositions de hiérarchisation, de mise en place d'un chef ou encore de violence symbolique.
Nous ne connaissons pas les détails de la suite des événements, mais l'on connaît en gros les changements qui ont permis à la Wikipédia de survivre. Pour résumer, une codification des normes bien plus précise va être menée afin de rationaliser la pratique d'édition ; le consensus sera bien souvent remplacé par le vote pour ce qui est des choix sur cette codification, enfin une multitude de statuts vont être mis en place, permettant à certains wikipediens de disposer de nouveaux pouvoirs, notamment de coercition.
Notes
1 Jimmy Wales n'a en effet jamais rédigé sa thèse de philosophie
2 En décembre 2005, John Seigenthaler, journaliste, découvre que depuis mai 2005 sa biographie sur wikipedia soutient qu'il aurait eu part à l'assassinat du président Kenedy. Seigenthalet ne s'est pas privé d'ameuter les médias afin de dénoncer publiquement le projet encyclopédique
3 http://www.nature.com/news/2005/051212/pdf/438900a.pdf
4 Les articles en questions ont malheureusement étés perdus, il n'est donc pas possible de connaître leur longueur ni leur qualité
5 Nous laissons bien sûr à Larry Sanger le choix de ses mots, légitimes ou non. Il fait sûrement référence ici à la structure auto-organisée.
6 La comparaison s'arrête là car dans l'état de nature de Rousseau, si la terre est en paix c'est parce que les êtres humains ne se rencontrent que rarement, et n'ont donc pas de projets en commun (Rousseau:1755).
7 Everything2 est un wiki qui permet de déposer des billets sur n'importe quel sujet ; c'esr rapidement devenu un grand n'importe quoi : http://everything2.com/
8 C'est celle dont on parle le plus dans les médias, et la première dont vous entendrez parler quand vous entrerez dans la "communauté ".
9 Le moteur de recherche Google liste ses résultats de recherche selon la popularité de la page web. Plus la page a fait l'objet d'une référence par une autre page (par un hyperlien), plus la page gagne en popularité google. Plus wikipédia est connue gràce à google, plus les gens lui font référence dans leurs sites web, plus wikipedia est donnée première dans les résultats google, et ainsi de suite.
10 Nous verrons que ce mécanisme de "démission " existe toujours aujourd'hui, et qu'il a pour bon côté d'éviter la formation d'une oligarchie.
11 http://fr.wikipedia.org/wiki/Wikilove
Crédits photo : Path to knowledge, par Fictures, sur Flickr en CC By 2.0
2007-07-25 11:20:00
Une communauté ?
Reprenons la définition du mot " communauté " dans deux dictionnaires :
Dans le dictionnaire de sociologie Le Robert - Seuil : "La communauté est l'ensemble social dont les membres partagent des valeurs et se reconnaissent des liens forts d'appartenance de chacun avec chacun et avec le tout communautaire ".
Selon le dictionnaire d'économie et de sciences sociales (Nathan 2004) : la communauté est une "collectivité caractérisée par des liens internes intenses, une forte cohésion (esprit de corps, objectif commun), un esprit de solidarité vis à vis de l'extérieur sans pour autant exclure des tensions internes. "
A partir de cette définition, peut-on dire que le projet Wikipédia constitue une communauté ? Il est clair qu'on ne peut dire que chacun écrivant dans Wikipédia en ferait partie ; il existe de nombreuses personnes n'éditant que très sporadiquement sur Wikipédia, par exemple une personne se contentera de corriger une faute d'orthographe lors de la lecture d'un article, et ne gardera donc que peu de liens avec le projet.
S'il faut chercher une communauté, c'est donc déjà dans les personnes qui participent de façon active à la construction du projet, i.e. qui éditent de façon conséquente et régulière. Procéder à de nombreuses éditions implique l'intériorisation progressive des règles d'éditions de la Wikipédia, et donc le partage entre les éditeurs de ces normes que l'on peut rapprocher des "valeurs " de la première définition.
Il n'y a pas que l'apprentissage des anciennes normes, il y a aussi leur élaboration. Les normes de la Wikipédia, comme nous l'avons brièvement vu dans notre chapitre historique, ne viennent pas d'une autorité supérieure mais sont décidés par un processus de vote ouvert. On peut penser que les personnes proposant et votant les normes ne sont pas étrangères à la construction du projet encyclopédique et qu'elles participent aussi grandement à l'édition des articles. Il existerait néanmoins des personnes qui s'intéressent bien plus au débat politique interne qu'à l'édition d'articles. Néanmoins ces personnes restent rare.
Les "liens internes intenses " de la seconde définition peuvent aussi être vu, en plus du partage de normes, par les communications entre les personnes intéressées. Dans Wikipédia, la communication se fait à plusieurs niveaux et à travers plusieurs médias : il y a bien sûr les pages de discussions liées à chaque article. Mais ces pages de discussions ne montrent qu'un intérêt pour des articles particulier et pas vraiment pour l'ensemble du projet. A un niveau plus global, plusieurs médias sont destinés à la communication pour des sujets concernant l'ensemble de Wikipédia, que cela soit pour la gestion qualitative de l'encyclopédie (wikification, chasse aux délits), de l'organisation interne ou de diverses politiques. Cette communication, abondante, se fait par les "chats " IRC, par mailing lists, ainsi que dans la Wikipédia même, où se matérialise un "portail " créé comme espace de discussion et d'organisation de l'action communautaire (WP:WPA).
S'est de même créé, particulièrement dans la Wikipédia anglophone, un certain nombre de "clubs " regroupant des personnes aux buts commun. Pour montrer la diversité de ces groupes, voici ci-dessous quelques exemples :
- the Welcome comittee, club visant à aider les nouveaux arrivants (380 membres)
-The Association of Member's Advocate (AMA) est une association de membres donnant assistance et conseil à des wikipédiens pris dans un conflit (une quarantaine de membres)
-Esperanza, association ayant pour but de fortifier l'esprit de communauté dans Wikipédia, avec comme actions : laisser des mots gentils, des smileys, donner des étoiles (sorte de médailles) aux personnes avec un fort antécédent mais sans être connu pour cela, etc. (690 membres actifs)
-Concordia, association militant pour les "devoirs civiques " des wikipédiens : esprit d'équipe, politesse, wikilove... (154 membres actifs)
- Wikipedia Youth Foundation, fondation d'aide et de protection des utilisateurs de moins de 17 ans
- Kindness campaign groupement pour la promotion de la gentillesse et du Wikilove sur Wikipédia
- Department of fun, groupe de promotion de l'amusement sur Wikipédia, créations d'hymnes, blagues, bêtisiers... (60aine de membres)
S'ajoutent à ces clubs toute une série de groupes s'occupant de telle ou telle partie de la Wikipédia, par exemple le "projet philosophie " de la Wikipédia francophone, dont le but est d'organiser les articles relatifs à la philosophie.
Ou un réseau ?
Néanmoins, la " communauté " Wikipédia n'est pas homogène. Elle n'est tout d'abord pas homogène dans " l'espace " : certaines personnes ne vont s'intéresser qu'à un type de sujet bien précis, et n' interragiront sûrement jamais avec d'autres wikipediens s' intéressant à d'autres sujet. La communauté n'est ensuite pas homogène dans l'intensité : certaines personnes surveilleront, éditeront tout les jours, alors que d'autres ne le feront que sporadiquement.
Pourtant les wikipediens -ceux qui éditent souvent du moins - , ont le sentiment d'appartenir à une communauté : d'après l'enquête réalisée par mes soins, sur un panel de 80 wikipédiens très actifs, 80.5% des interrogés pensent qu'ils font partie d'une communauté (12.2 sans opinions, 7.3 pensent qu'il n'y a pas de communauté). De la question sur les possibles liens de cette communauté, c'est la " volonté commune de développer le projet " qui est souvent évoqué, avec des échanges de nature " cordiales ". L'idée de " sous-communautés ", par thèmes encyclopédique, est elle aussi souvent évoquée ; elle est à rapprocher du fait que les wikipediens interrogés affirment que le travail est spécialisé thématiquement (un wikipedien travaillera plutôt sur un ou plusieurs thèmes, pas sur tous, question 10). L'idée d'un groupe " des administrateurs " est aussi là. Une contribution m'a tout particulièrement intéressé et pourra nous aider : l'interrogé parle de la communauté comme d'un " réseau de cellules, groupées par intérêts, avec des électrons libres allant d'une cellule à l'autre et permettant de faire circuler les informations et la ‘culture de groupe' ". On pourrait donc considérer la société Wikipédia comme une série de sous-groupes, reliés les uns les autres par des personnes appartenant à plusieurs groupes. Certaines pages wiki ne sont pas des plates formes de sous-groupes proprement dits, mais permettent aux wikipédiens de parler de choses générales : il s'agit des différents 'bars', et surtout du 'Bistro', forum généraliste où les habitués viennent souvent se parler.
L'idée de réseau est très intéressante, car elle nous permet de schématiser les différences " géographiques " et les différences d'intensité de participation entre wikipediens. Dans la schématisation en réseau, chaque individu constitue un noeud, les discussions et interactions entres utilisateurs représentantent les liens. On pourrait de même pondérer les liens, on considérant que certains seraient plus forts que d'autres : les " gros " liens seraient en fait constitués d'une multitude de petits liens représentant chacun une interaction (une discussion, une modification d'une édition d'un wikipedien par un autre...). On verrait alors apparaître une multitude de liens entre des personnes précises, qui formeraient alors un " sous groupe " thématique, l'apparition d'un sous groupe ne se faisant que par la création d'une multitude de liens entre les personnes intéressées. Un sous groupe est parfois matérialisé dans la Wikipédia par une page wiki de présentation, comme la page du portail philosophie1, qui sert à la fois de présentation et de plate forme de discussion pour les wikipédiens travaillant sur les articles de philosophie. Les sous groupes de la Wikipédia seraient reliés par des liens moins nombreux entre des personnes appartenant à différents sous groupes. Au " centre " de ce réseau, la catégorie des administrateurs, et la " patrouille RC "2, sous groupe ayant pour tâche de vérifier les modifications récentes ; qui eux ne spécialisent pas leur tâche de surveillance par thème, mais surveillent et peuvent punir l'ensemble des utilisateurs formant le réseau Wikipédia.
Nous avons ici dessiné un petit schéma ; nous l'avons simplifié, pour une meilleure lecture, en changeant les liens entre wikipédiens par des liens wikipédiens/projet ; on considérera que plusieurs wikipédiens liés à un projets entretiennent de multiples liens entre eux.
L'idée d'appliquer le modèle du réseau n'est pas nouveau, mais il est récent. D'un usage relativement spécialisé ou marginal, la notion de réseau a fait l'objet, depuis les années 70 et surtout après les années 90, d'une grande attention, et se trouve maintenant au coeur d'un nombre élevé et diversifié de travaux dans de nombreux domaines, notamment en économie , en sociologie des groupes ou en théorie des organisation (Boltanski et Chiapello, 1999, p.209). C'est, pour ces derniers auteurs, le développement considérable des NTIC qui a pu stimuler l'imagination connexionniste, le réseau n'étant pas un phénomène nouveau. Mais il permet aussi de conceptualiser des structures à l'époque en développement, " faiblement, voir pas du tout hiérarchique, souples et non limitées par des frontières tracées a priori. " (p.156) 3.
Boltanski et Chiapello, dans Le nouvel esprit du capitalisme, voient dans le développement de la notion de réseau l'apparition d'une nouvelle cité, c'est à dire d' un nouveau système de valeurs4, qu'ils appelleront cité par projet. Cette nouvelle cité est un référentiel important du nouvel esprit du capitalisme, mais elle dépasse le capitalisme, puisque elle sert aussi de référentiel à des projets qui n'ont pas pour vocation l'accumulation du capital. Ce concept est intéressant puisqu'il nous permet ainsi de voir que Wikipédia s'inscrit dans un mouvement de société plus global, atteignant tant les sphères marchandes que les sphères non-marchandes. La cité par projet est composée de deux paradigmes : elle utilise comme forme d'interactions le réseau, la communication et la relation, mais elle a pour but des projets, regroupements temporaires de personnes qui vont travailler ensemble pour une fin précise (p.161).
L' "organisation par projets " est ainsi une " entreprise dont la structure est faite d'une multitude de projets associant des personnes variées dont certaine participent à plusieurs projets ". Le " projet Wikipédia ", comme on l'appelle, n'est donc pas, dans ce paradigme, un projet, mais une " entreprise " que j'appellerai méta-projet. En effet, Wikipédia est toujours sujet à modification et à expansion, ce qui n'est pas dans la nature d'un projet : " La nature même de ce type de projets est d'avoir un début et une fin, les projets se succèdent et se remplacent, recomposant, au gré des priorités et des besoins, les groupes ou équipes de travail " (p.158). Wikipédia serait donc un meta-projet sans fin, constitué d'une multitude de projets, qui sont les articles de l'encyclopédie.
Mais même ainsi la notion de projet de Boltanski et Chiapello ne colle pas très bien à la Wikipédia, puisque le travail sur les articles, lui non plus, n'a virtuellement jamais de fin. Ces articles gardent néanmoins des caractéristiques du projet, puisqu'il associe des personnes pour un but donné. On pourrait parler alors de projets à fin relative : En effet, l'association de personnes ne va pas durer pour toujours, il existe une fin relative du projet en ce qu'un réseau de personnes, dans Wikipédia, va se désactiver lorsqu'il pense avoir fait du bon travail sur un article, les wikipédiens vont alors se " séparer ", et arrêter de travailler dessus pour passer à un autre article-projet.
Mais très souvent les personnes ayant travaillé sur un projet d'article vont tout de même garder un lien avec celui ci. Un wikipédien va en effet avoir envie de connaître l'évolution d'un article auquel il a contribué. En cochant l'option " surveiller cet article ", Wikipédia peut notifier à l' utilisateur les changements opérés ; il pourra ainsi " réparer " un article vandalisé, voir revenir dans le débat lorsqu'une autre modification ne lui plait pas. Pour le wikipédien, on passe alors d'un travail de production -écrire l'article- à un travail de surveillance ; bref, les personnes faisant partie du réseau désactivé gardent un lien avec le projet " quasi-fini ". Quasi fini car à chaque fois qu'une nouveauté sur le sujet de l'article se manifeste, ou qu'un nouveau wikipedien va discuter l'article pour le modifier, le réseau pourra se réactiver, et réactiver par la même occasion le projet-article. Les projets wikipedien, à la différence de la notion de Boltanski et Chiapello, ne connaissent donc jamais de fin, mais plutôt une désactivation temporaire, et qui peuvent être à tout moment réactivés.
Pour Boltanski et Chiapello, l'émergence de la cité par projet s'accompagne d'une mutation des organisations, qui passent d'une structure hiérarchique à une structure plus " auto-organisée " (p.178, 210). C'est ce thème de l'auto-organisation que nous allons maintenant développer, en nous concentrons sur ses méthodes de régulation et de contrôle.
Notes
1 http://fr.wikipedia.org/wiki/Portail:Philosophie
2 RC pour " Recent Changes ".
3 Pas besoin de montrer ici que cette définition sied très bien à la Wikipédia.
4 Boltanski et Chiapello se servent ici de la " grammaire " paradigmatique développée dans l'ouvrage De la justification (Boltanski, Thévenot, 1991) qui présente différents modèle de valeur de nos sociétés, regroupés en " cités " : cité inspiré, marchande, du renom, domestique, industrielle.
Crédits photo : Line up, line up, par PDR en CC by 2.0 sur Flickr
Bibliographie générale
Barou Jean-Pierre, Perrot Michelle, Foucault Michel, Jeremy Bentham et Le Panoptique. Précédé de L'Oeil du pouvoir, Belfond, 1977
Boltanski Luc, Chiappello Eve, Le nouvel esprit du capitalisme, Gallimard, 1999
Boltanski Luc, Thévenot Laurent, De la justification, Gallimard, 1991
Foucault Michel, Surveiller et punir, Gallimard, 1975,
Fraser Nancy, "Michel Foucault : A 'Young Conservative' ?" , Ethics n°96 ,October 1985, p. 165-184
Lévy Pierre, L'intelligence collective , La découverte / Poche, 1997
Potte-Bonneville Matthieu, Michel Foucault, l'inquiétude de l'histoire, PUF, 2004
Sanger Larry, "The Early History of Wikipédia and Nupedia : a Memoir", Slashdot, 2005,
http://features.slashdot.org/article.pl?sid=05/04/18/164213&tid=95
Viegas, Wattenberg, Dave, Studying Patterns of Cooperation and Conflict with History Flow Visualizations
http://alumni.media.mit.edu/~fviegas/papers/history_flow.pdf
Pages Web :
-WP:DSR page de discussion Ségolène Royal
WP:NdPV neutralité de point de vue
http://fr.wikipedia.org/wiki/WP:NdPV
Wp:WWIN What Wikipédia is not
http://en.Wikipédia.org/wiki/WP:NOT
Wp:WpWikipédia
http://fr.Wikipédia.org/wiki/Wikipédia
Wp: WPA acceuil du portail communautaire
http://fr.Wikipédia.org/wiki/Wikip%C3%A9dia:Accueil
2007-08-01 12:11:00
Lire aussi : - [Wikipedia : présentation et histoire->http://www.homo-numericus.net/spip.php?article273] - [Wikipedia : entre communauté et réseau->http://www.homo-numericus.net/spip.php?article274] - [Wikipedia : hiérarchie et démocratie->http://www.homo-numericus.net/spip.php?article276]
Régulation et Surveillance : la technologie hyperpanoptique
L'interface wiki permet un travail collaboratif étendu sur un très grand nombre de pages et intégrant un très grand nombre de personnes, et cela sans structure hiérarchique. Le problème principal d'un projet collectif sont les comportements déviants, les actions mettant en cause le(s) but(s) du projet. Pour un projet d'encyclopédie, ces comportements seront par exemple l'ajout d'informations fausses, la suppression de tout ou partie d'un bon article, etc. A cela s'ajoutent les irrégularités de pratiques faites par des personnes de bonne intention, mais qui ne suivent pas ou mal les règles établies. Les actions déviantes ainsi que les entorses à la norme doivent pouvoir être repérées, réparées, et optionnellement réprimées, rapidement et facilement. Une structure de surveillance et de régulation est ainsi obligatoire pour tout type d'organisation où le mal et l'erreur existent, et Wikipédia ne déroge pas à la règle. Pourtant elle ne connaît pas de structure centrale se chargeant de cela.
Pour expliquer cet état de fait singulier, nous avons utilisé un mode d'organisation théorique qui peut être calqué sur l'organisation de Wikipédia. Nous appellerons ce mode d'organisation un hyperpanoptique. Cet idéal type est dérivé des travaux de Michel Foucault sur le panoptisme, et d' un texte de Nancy Fraser, philosophe féministe et post-structuraliste à la New School, qui pose dès les années 80 la question d'une possibilité de radicalisation du modèle panoptique, et de ses conséquences éthiques.
Michel Foucault, dans son ouvrage Surveiller et Punir, présente le projet de prison du philosophe Jeremy Bentham, le panoptique, afin de donner exemple d'une épistémè de la modernité axée sur la quête progressive du contrôle de la population par un nouveau pouvoir disciplinaire.
"Le panopticon de Bentham [..., o]n en connaît le principe : à la périphérie un bâtiment en anneaux; au centre, une tour ; celle-ci est percée de larges fenêtres qui ouvrent sur la face intérieur de l'anneau ; le bâtiment périphérique est divisé en cellules, dont chacune traverse toute l'épaisseur du bâtiment ; elles ont deux fenêtres, l'une vers l'intérieur, correspondant aux fenêtres de la tour ; l'autre, donnant sur l'extérieur, permet à la lumière de traverser la cellule de part en part. Il suffit alors de placer un surveillant dans la tour centrale, et dans chaque cellule d'enfermer un fou, un malade, un condamné, un ouvrier ou un écolier. [...]. Le dispositif panoptique aménage des unités spatiales qui permettent de voir sans arrêt et de reconnaître aussitôt1." Foucault, 1975, p.201-202).
Ainsi l'architecture facilite la surveillance d'autant plus qu'elle est perçue par les détenus comme omniprésente : le détenu ne sait jamais si le gardien, installé dans la tour centrale, le surveille ou non. Ce mode de contrôle s'applique, pour Foucault, dans toutes structures disciplinantes de la société : prisons, mais aussi casernes, hôpitaux, écoles, usines et manufacture. Si la forme matérielle du panoptique est bien rare (quelques prisons dans le monde sont basées sur panoptique de Bentham mais n'en sont pas des copies conformes), l'esprit est là : volonté de surveillance du plus grand nombre par le plus petit nombre. Cet " esprit " est défini par Foucault comme étant la discipline.
Le panoptisme est en effet ancré dans une technique de pouvoir particulière de la modernité qui est la discipline :
" La 'discipline' ne peut s'identifier ni avec une institution ni avec un appareil ; elle est un type de pouvoir, une modalité pour l'exercer, comportant tout un ensemble d'instruments, de techniques, de procédés, de niveau d'application de cibles ; elle est une 'physique' ou une 'anatomie' du pouvoir, une technologie. [...] On peut donc parler au total de la formation d'une société disciplinaire dans ce mouvement qui va des disciplines fermées, sorte de 'quarantaine' sociale, jusqu'au mécanisme indéfiniment généralisable du 'panoptisme'. " (220)
Le panoptisme serait donc la modalité moderne du type de pouvoir disciplinaire.
" [L]es disciplines sont des techniques pour assurer l'ordonnance des multiplicités humaines.[...] Le propre de la discipline, c'est qu'elles tentent de définir à l'égard des multiplicités une tactique de pouvoir qui réponde à trois critères : rendre l'exercice du pouvoir le moins coûteux possible[...], avec le maximum d'intensité [...] lier enfin cette croissance 'économique' du pouvoir et le rendement des appareils à l'intérieur desquels il s'exerce ; bref faire croître à la fois la docilité et l'utilité de tous les éléments du système " (220)
L'organisation de Wikipédia a à voir avec la discipline dans le sens où elle cherche à assurer " l'ordonnance des multiplicités humaines " dans un but propre, mais elle n'est pas un panoptisme. Tout d'abord, bien sûr, parce qu'il n'y a pas de structure de surveillance transcendant la communauté wikipédienne. Ensuite, parce que le panoptisme ne permet pas à ses assujettis de communiquer ensemble (le détenu est "objet d'une information, jamais sujet dans une communication " p.202). Dans un panoptisme les rapports sont toujours davantage -si ce essentiellement- verticaux et unilatéraux, la tour centrale surveillant et ordonnant à l'assujetti, tandis que dans Wikipédia les rapports interpersonnels sont horizontaux -entre les membres du groupe- et multilatéraux.
Comprendre le panoptisme est intéressant, car il est à la structure médiévale de pouvoir ce que l'hyperpanoptisme sera au panoptisme, c'est à dire une rationalisation des dispositifs disciplinaires:
"Ville pestiférée [une structure médiévale de pouvoir], établissement panoptique, les différences sont importantes. Elles marquent, à un siècle et demi de distance, les transformations du programme disciplinaire. Dans un cas, une situation d'exception : contre un mal extraordinaire, le pouvoir se dresse ; [...] ; il construit pour un temps ce qui est à la fois la contre cité et la cité parfaite [...]. Le panopticon doit au contraire être compris comme un modèle généralisable de fonctionnement ; une manière de définir les rapports du pouvoir avec la vie quotidienne des hommes. " (p.206).
Le panoptisme devient alors un formidable instrument permettant une hausse de productivité qui permettra le processus d'accumulation capitaliste :
"En chacune de ses applications, il permet de perfectionner l'exercice du pouvoir. Et cela de plusieurs manières : parce qu'il peut réduire le nombre de ceux qui l'exercent, tout en multipliant le nombre de ceux sur qui on l'exerce.[...] Parce que, dans ces conditions, sa force est de ne jamais intervenir, de s'exercer spontanément et sans bruit, de constituer un mécanisme dont les effets s'enchaînent les uns aux autres. Le schéma panoptique, sans s'effacer, ni perdre aucune de ses propriétés, est destiné à se diffuser dans le corps social ; il a pour vocation d'y devenir une institution généralisée. La ville pestiférée donnait un modèle disciplinaire exceptionnel [...]. Le panopticon au contraire a un rôle d'amplification ; s'il aménage le pouvoir, s'il veut le rendre plus économique et plus efficace, ce n'est pas pour le pouvoir même, ni pour le salut immédiat d'une société menacée : il s'agit de rendre plus fortes les forces sociales - augmenter la production, développer l'économie, répandre l'instruction, élever le niveau de la morale publique ; faire croître et multiplier." (p.209).
Le système panoptique permet ainsi une très grande augmentation de la productivité des masses humaines ; l'hyper-panoptique ira dans le même sens, pour transformer un pouvoir efficace mais étouffant (le panoptique) en un pouvoir encore plus efficace, développant grandement le potentiel de créativité et de travail collectif. On passe d'une structure de pouvoir à une autre, comme le pouvoir médiéval, coûteux, encadrant avec une faible productivité les masses, a été dépassé par le pouvoir moderne panoptique.
"Si le décollage économique de l'Occident a commencé avec les procédés qui ont permis l'accumulation du capital, on peut dire, peut être, que les méthodes pour gérer l'accumulation des hommes ont permis un décollage politique par rapport à des formes de pouvoir traditionnelles, rituelles, coûteuses, violentes, et qui bientôt tombées en désuétude, ont été relayées par toute une technologie fine et ajustée de l'assujettissement. De fait les deux processus, accumulation des hommes et accumulation du capital, ne peuvent pas être séparés ; il n'aurait pas été possible de résoudre le problème de l'accumulation des hommes sans la croissance d'un appareil de production capable à la fois de les entretenir et de les utiliser; inversement les techniques qui rendent utiles la multiplicité cumulative des hommes accélèrent le mouvement d'accumulation du capital. " (222)
L'hyperpanoptique ne sert -en tout cas pour notre sujet-, pas l'accumulation du capital puisque Wikipédia n'a pas pour but le profit et -pire-, il prend des parts de marché aux encyclopédies dirigées par des entreprises à vocation de profit. Ici l'hyperpanoptique aura pour fonction non pas l'accumulation du capital, mais l'accumulation de la connaissance.
Pour résumer, le panoptisme est une technologie de discipline, une structure de pouvoirs impliquant la domination de quelques uns sur les autres, permettant la mise en place du système capitaliste. L'hyperpanoptisme de Wikipédia est une structure de pouvoir sans domination, elle permet l'accumulation du savoir.
Avant de passer à l'explication de ce qu'est l'hyper-panoptisme, je souhaiterai rapprocher l'idée de panoptique avec celle de hiérarchie. Les entreprises, les administrations, toutes les bureaucraties, sont majoritairement caractérisées par une structure pyramidale de hiérarchie. On pourrait appeler cette structure un " panoptime déconcentré " : en effet, nous n'avons pas dans ces cas une grande tour centrale contrôlant les faits et gestes de chacun ; néanmoins l'idée d'un contrôle central est toujours là : toute personne, dans la hiérarchie, va avoir pour mission de surveiller -et de punir ou récompenser- les personnes se trouvant en dessous d'elle dans la pyramide hiérarchique, jusqu'à la base qui elle ne surveille et ne punit personne. Ainsi la tour centrale est décomposée en niveaux de contrôle, telle une série de cercles concentriques qui multiplient et hiérarchisent le pouvoir de surveillance et de punition/récompense.
figure a : modèle panoptique
figure b : modèle de panoptisme déconcentrée : pyramide hiérarchique.
Les cercles représentent les agents, les flèches indiquent la surveillance (unilatérale) entre eux.
L'hyperpanoptisme va faire disparaître ces cercles, pour n'en laisser plus qu'un, celui de la base. Wikipédia ne connaît ni pouvoir centralisé -si ce n'est une cour de justice-, ni système de hiérarchie, et aucun surveillant. Ou plutôt, il n'existe aucun surveillant puisque tout le monde est un surveillant en puissance. La structure hyper-panoptique n'est pas une absence de pouvoir bien sûr, mais le pouvoir, par rapport au panoptisme, s'est transféré, s'est dissolu, d'une classe de surveillant à la société toute entière. J'utiliserai le terme de dissolution car, comme le sucre qui se dissout dans l'eau, le pouvoir reste présent dans le système panoptique, mais il est invisible, et atomisé.
Afin de passer du panoptique à l'hyperpanoptisme, nous utiliserons un texte de Nancy Fraser, publié en 1985 dans la revue Ethics, intitulé Michel Foucault : A "Young Conservative"?. Dans son article, Fraser discute l'affirmation de certains universitaires -notamment Habermas- qui estiment que la pensée de Michel Foucault est intrinsèquement "anti-moderne ", c'est-à-dire allant à l'encontre des idées humanistes des Lumières. Après avoir placé le débat sur le plan philosophique et conceptuel, puis sur le plan "stratégique " (matérialiste, utilitariste), et ayant conclu que sur ces plans l'accusation contre Foucault n'avait pas lieu d'être, la philosophe New-yorkaise pose finalement le débat sur ce qu'elle appelle les "bases normatives " de la pensée foucaldienne ; et de là affirme qu'en effet ici Foucault pourrait peut-être être considéré comme ayant un penchant "anti-moderne ". L'intellectuel étant mort trop jeune et trop tôt, aucune conclusion définitive ne pourrait néanmoins être faite. Ce qui nous intéresse ici, c'est que Nancy Fraser, dans son développement analytique, va construire - sûrement sans le savoir- le début d'une structure théorique qui radicalise en quelque sorte la technologie panoptique :
" on pourrait imaginer une société disciplinaire parfaite dans laquelle le pouvoir serait devenu si omniprésent, si finement habituel ('attuned'), si pénétrant, intériorisé, et subjectivisé, et par conséquent si invisible, qu'il n'y aurait plus du tout besoin de confesseurs, de psychanalystes, de gardiens, et ainsi de suite. Dans cette société totalement 'panopticisée', la domination hiérarchique, asymétrique de quelques personnes sur d'autres serait alors devenue superflue ; tous se surveilleraient et se contrôleraient les uns les autres. Les normes disciplinaires seraient devenues si minutieusement intériorisées qu'elles ne seraient pas expérimentées comme venant de nulle part ('coming from without'). Les membres de cette société seraient, par conséquent, devenus autonomes. Ils auraient appropriés l'Autre ('the other') comme leur et fait de la substance un sujet ('and made substance subject'). La domination de classe aurait cédé la place à la fin de l'histoire ( 'to the kingdom of ends'). La situation idéale de discours/langage ('speech') aurait été réalisée. Mais, selon cette interprétation [d'Habermas sur Foucault], cela ne serait pas de la liberté. " (178-179)
Nous avons ici une définition de l'hyperpanoptique : une " société totalement panopticisée " , où " tous se surveilleraient et se contrôleraient les un les autres ". De là à dire que la société hyperpanoptique menèrait au " royaume des fins ", nous ne le ferons pas et laisserons cela à Nancy Fraser. Cette dernière, d'ailleurs, ne considère pas son modèle d'hyperpanoptique comme une possibilité matérielle, mais seulement comme jeu conceptuel servant à son raisonnement (179).
Fraser se pose finalement la question de l'éthique de l'hyper-panoptisme, et montre ici des capacités prédictives qui vont nous intéresser par la suite. En effet :
" [ Si l'hyperpanoptisme peut faire peur] , pourquoi ne pas le décrire à l'inverse comme une forme de vie [sociétale] développée sur les bases de nouvelles, émergentes compétences de communications, compétences qui, quoique n'étant peut être pas construites dans la logique de l'évolution [de l' histoire], sans pour le moins permettre pour la première fois dans l'histoire la socialisation d'individus orientés dans des pratiques politiques de dialogue[!!] ? " (179)
Fraser pense donc qu'un hyper-panoptique pourrait se baser sur de nouvelles technologies de communication et que, sans devenir une pratique majoritaire, elle permettrait pour la première fois de mener des activités essentiellement basées sur le dialogue.
Dans Wikipédia, grâce à la technologie wiki, les choix d'éditions des articles se basent sur le dialogue. Et, pour tous les choix, collectifs ou individuels, tout le monde peut contrôler tout le monde. En effet, l'accès à l'information est particulièrement aisé et rapide à trouver. Toute personne, inscrite ou non, ainsi que toutes ses actions, sont enregistrées dans les serveurs de la grande machine wikipédienne. Ses informations personnelles, s'il a décidé de les partager sur sa "page utilisateur ", sont accessibles de suite, mais le plus important est que toute édition, toute modification d'un article, jusqu'à l'ajout de la plus petite phrase, la suppression de la plus simple virgule, sera codé, enregistré, analysé, trié par une multitude de robots2, qui renverront ensuite les informations récoltées vers des pages wiki créées had hoc, afin d'être analysées par les utilisateurs. Ce sont en fait cette multitude de robots, ces minuscules intelligences créées par le programmateur démiurge, qui sont le coeur technologique de l' hyper-panoptique Wikipédia.
Ce sont les pages wikis éditées par ces robots qui vont permettre que tous connaissent chaque agissement de chacun. Ainsi les outils sont nombreux pour connaître les changements effectués, et par qui. Suis-je un wikipédien consciencieux, traquant toute tentative de déviance ? Il me suffit de consulter la page "modifications récentes ", accessible dans l'onglet de gauche de chaque page Wikipédia, afin de connaître en temps réel toutes les dernières modifications faites. Suis-je intéressé par un contributeur que je trouve suspect, ou au contraire, que j'admire? Je pourrai consulter toutes ses éditions, heure et date incluses, accessibles à partir de sa page utilisateur -cela même s'il n'est connu que par un numéro IP-. Me suis-je enfin proclamé gardien d'un ou plusieurs articles précis, ou simplement intéressé par ces derniers? Ma page "liste de suivi " me permettra de connaître en un clin d'oeil toute modification faite sur un article précis.
Ainsi dans le pouvoir disciplinaire wikipédien, l'architecture panoptique est remplacée par un système de récolte de l'information. Il n'y a plus de tour centrale utilisée par quelques surveillants, ni de pyramide de surveillance hiérarchique, mais des pages web listant les faits et gestes de chacun, et accessibles à tous. Le panoptisme est radicalisé, chacun devenant un surveillant en puissance. La surveillance atteint ainsi une dimension supplémentaire, d'où le suffixe " hyper " accolé au mot panoptique. Enfin, nous ne considérons pas la structure hyperpanoptique de Wikipédia comme une simple structure de surveillance, mais aussi comme une structure de production de contenu et de décision, qui ne sont pas non plus soumises à hiérarchie mais implique tous les wikipédiens à un niveau d'égalité, c'est le côté auto-organisationnel de l'hyperpanoptique. Nous parlerons donc d'hyperpanoptique lorsque nous parlerons seulement du mode de surveillance, et d'hyperpanoptique auto-organisé pour parler de la surveillance, du système production de contenu et du système de décision.
Les conséquences vont bien plus loin qu'une radicalisation de la surveillance ; l'hyper-panoptisme auto-organisé va en effet remettre en cause la place du pouvoir dans une structure de discipline.
La nouvelle technologie disciplinaire qu'est l'hyper-panoptisme conduit des changements importants du point de vue éthique. Nous allons ici utiliser la pensée de Pierre Lévy, philosophe québécois spécialisé dans l'étude des NTIC.
Indirectement, Lévy nie la rationalité des technologies panoptiques. Pour lui, ce sont des technologies "molaires ", à remplacer par une technologie "moléculaire ":
"Les techniques moléculaires, fines, à température ambiante, s'opposent aux techniques molaires, massives, brûlantes ou glacées, aux anciens procédés qui visaient indistinctement des populations entières, lents à se réorganiser, usant de tris incertains, [...], accumulant donc les déchets et les rebuts. Dans la maîtrise du vivant, comme dans celle de la matière ou de l'information, nous tendons vers des modes d'actions fins, ciblés, précis, rapides, [...], discrets, calculés et mis en oeuvre 'au plus juste', à point nommé, collant à l'évolution permanente des objectifs et des situations. Or, nous proposons de faire triompher une évolution du même style dans la conduite des affaires humaines." (Lévy, 1997, p.59).
Les techniques " molaires " renvoient donc à des technologies " lourdes ", gâchant les capacités de création individuelle, comme les bureaucraties. Les techniques " moléculaires " sont celles du " cyberespace ". Levy garde un ton extrêmement théorique dans ses écrits, et n'explicite pas ce que pourraient être précisément ces techniques du cyberespace. On pourra considérer que l'hyper-panoptisme wikipédien en est une matérialisation.
La première amélioration de cette technologie moléculaire est, pour Pierre Lévy, utilitariste, dans le sens de l'augmentation de la productivité : " On atteindrait une telle finesse, une telle justesse, une telle économie dans le traitement des signes et des choses [...] ". Le but premier est donc la maximisation des capacités humaines. Pour les technologies "molaires " comme pour les "moléculaires ", l'enjeu est la rationalisation, l'augmentation de productivité des masses humaines. Panoptisme ou Hyperpanoptisme, la fin ici est la même.
Mais la dernière technologie disciplinaire contient aussi, et c'est là le changement, des capacités émancipatrices pour l'individu. Il permet tout d'abord un plus grand individualisme : " Comment ne pas traiter les femmes et les hommes de manière entropique, en gros, en masse, comme s'ils étaient interchangeables dans leur catégorie, mais, au contraire, considérer chacun comme un individu singulier? Comment rendre évident pour tous que l'autre est un porteur unique de savoir-faire et de créativité? [...] " (p.60)
Ce sont des choses que les technologies hiérarchiques, panoptiques, disciplinaires, ne peuvent faire, ne peuvent gérer. Elles pallient justement leur incapacité en renforçant leurs qualités hiérarchiques et asymétriques :
"On fait appel aux technologies politiques de la transcendance lorsque le groupe devient trop nombreux pour que les individus se connaissent par leur nom et puisse comprendre en temps réel ce qu'ils font ensemble. Alors les leaders, chefs, rois et représentants divers unifient et polarisent l'espace du collectif. Les institutions lui font un espace continu. La bureaucratie devient son organe séparé de gestion et de traitement de l'information. Une stricte division du travail, et notamment la coupure entre exécution et conception, est censée assurer la meilleure coordination des activités. Les technologies de la transcendance passent par un centre, un point haut et, de cette extériorité, séparent, organisent et unifient le collectif. Il s'agit bien de technologies molaires car, pour obéir aux nécessités de la gestion des masses des humains, les personnes n'y sont pas considérées pour ce qu'elle sont en elles-mêmes [...], mais pour leur appartenance à des catégories, (castes, races, rangs [...]) au sein desquels les individus sont interchangeables. " (p.61)
Tout le contraire de ce que Lévy appelle de ses voeux :
"Pour la politique moléculaire, en revanche, les groupes ne sont plus considérés comme des sources d'énergie à faire travailler, ni comme des forces à exploiter, mais comme des intelligences collectives qui élaborent et réélaborent leurs projets et leurs ressources, raffinent et continuent leurs compétences, visent indéfiniment l'enrichissement de leurs qualités. Se réorganisant en temps réel, minimisant les retards, délais, et frictions, le groupe moléculaire évolue à température ambiante, sans ruptures brutales. [...] [La politique moléculaire] promeut une ingénierie du lien social qui fasse travailler ensemble, entrer en synergie les créativités, les capacités d'initiatives, la diversité des compétences et les qualités individuelles sans les enfermer ni les limiter par des catégories ou des structures molaires à priori3. La politique fine [...] suscite un lien social immanent, émergeant de la relation de chacun à tous. " (p.62)
C'est donc ici les " créativités, les capacités d'initiatives " et autres " qualités individuelles " qui sont au centre de la nouvelle technologie de gestion des masses. Elle influent donc sur le bonheur non pas cette fois grâce à une plus grande production, mais parce qu'elle permet à chacun, dans son travail, de se réaliser, d'accomplir sa transcendance. Et pour mener à bien cette nouvelle politique, le " cyberspace " est le salut : "la multiplication des collectifs moléculaires suppose un déclin relatif de la communication médiatique au profit d'un cyberspace accueillant aux intelligences collectives. [...] L'intelligence collective en temps réel et à grande échelle nécessite donc l'infrastructure technique adéquate. " (p.62)
Si nous tenons compte des dires de Pierre Lévy, on peut penser que l'avènement de cette infrastructure est manifesté notamment par le Wiki. Et Wikipédia est le cyberspace permettant la politique moléculaire. La Wikipédia est un espace de création collective très efficace ; c'est une création qui individuellement procure un plaisir certain. Plaisir de voir sa création directement visible et utilisable par tout internaute passant par là, plaisir aussi de voir sa création discutée, modifiée, perfectionnée -bref sublimée - par les autres wikipédiens. L'impression de puissance4 ici est réelle, puissance de création individuelle et puissance de création collective.
Enfin, le changement radical entre panoptisme et hyperpanoptisme se trouve dans les modalités de concentration du pouvoir. L'un des effets du panoptique est la polarisation de celui-ci, donnant tout pouvoir au personnel de la tour centrale, et rien à ceux de la périphérie. Le panoptisme déconcentré distribue lui le pouvoir en cascade selon la pyramide hiérarchique, passant de la plus grande à la plus faible concentration de pouvoir, du sommet à la base hiérarchique. La structure hyperpanoptique va elle tendre à dissoudre le pouvoir, à le capillariser pour le distribuer équitablement entre tout les agents. D'où une impression d'autonomie dans le travail sur la Wikipédia, et le plaisir de pouvoir prendre des décisions entre égaux.
Reste à poser une question. Dans un système où il n'y a pas de pouvoir pour donner des ordres, ni de police à proprement parler pour faire respecter les règles, où la surveillance se fait par tous, on doit se demander comment un ensemble de règles peut être respecté. Si la pression ne vient pas directement - ou pas assez - de l'extérieur, comme c'est le cas dans la Wikipédia, il faut qu'il vienne de l'intérieur même de la personne ; c'est à dire qu'il intègre les normes dans son schéma de pensée et dans les pratiques qui vont en découler. On pourra appeler cela une subjectivation, c'est à dire un remaniement des schémas de pensée internes qui, pour Foucault, vont servir les normes. La subjectivation est, dans Surveiller et punir, contenue dans ce qu'il appelle la " microphysique du pouvoir ". C'est cette microphysique dans Wikipédia que nous allons brièvement étudier.
Les wikipédiens, eux, ne sont bien sûr pas "toujours déjà là " dans la Wikipédia, mais découvrent peu à peu le projet, s'y intègrent petit à petit et pas à pas. Les normes, elles, mouvantes certes, existent par contre avant leur arrivée. On peut ainsi se demander comment elles sont intégrées, intériorisées par le jeune rédacteur/utilisateur.
Comme nous le disions, pour que l'hyperpanoptique fonctionne, les normes, dont il est en même temps la raison d'être et le garant, doivent donc être intériorisées par une majorité d'agents, c'est-à-dire qu'elles doivent être non seulement acceptées et appliquées , mais il faut aussi qu' elles soient promues, supportées par les agents, c'est à dire qu'elles doivent être explicitées par ces derniers lors de débat, et qu'une personne ne les appliquant pas recevra la désapprobation des wikipédiens, wikipédiens qui sont eux-mêmes des rouages de l' hyperpanoptique. Le mécanisme de subjectivation doit donc se faire par les anciens wikipediens, sur les nouveaux entrants.
Dans la pratique, ce sont les habitués de Wikipédia, cette "catégorie " de personnes -un bon millier dans la Wikipédia anglophone, quelques centaines pour la francophone- qui passe un temps énorme sur le projet, qui édite abondamment, et qui joue pour la plus grande partie dans ce mécanisme de subjectivation. On pourra d'ailleurs commencer par là pour faire la critique de la dissolution hyperpanoptique du pouvoir : si une hiérarchie se crée, ce sera d'abord en considération du temps passé, de l'apport quantitatif et qualitatif des éditions des agents.
Mais revenons à notre processus de subjectivation. J'ai cerné pour l'instant deux processus : un processus de wikification, ainsi qu'un processus d'éducation.
La wikification (le terme provient du jargon wikipédien) est toute pratique de modification des articles selon les normes de Wikipédia, c'est à dire l'action sur des articles auparavant mal édités afin de les mettre aux normes. Cette wikification, considérée socialement comme positive (c'est à dire que l'on félicitera les personnes qui l'ont faite), montre aux néophytes et aux "in-normés " le "bon exemple " ; l'action wikificatrice sera repérable d'une part par le fait d'avoir été éditée par une personnes plus ou moins réputée (de façon positive!), d'autre part par le fait qu'on ne fera pas de critique légitime de la wikification. La wikification étant socialement marquée comme positive, un processus d'imitation par les nouveaux va se mettre en place : afin d'être bien considéré, il faut faire comme ceux qui sont bien considérés. L'imitation s'accompagne alors automatiquement de l'assujettissement à des règles qui, suivies, permettent de se faire bien voir.
Le second processus, d' éducation, est lui plus actif, plus direct. Si un utilisateur a de mauvaises pratiques, par exemple celle, au hasard, de faire un copier-coller d'une autre source qui viole un copyright ; ces mauvaises pratiques lui seront notifiées par un message explicitant qu'il a eu une mauvaise attitude, mais aussi qui lui expliquera ce qu'il faut suivre comme règles, et comment les suivre. Voici un exemple de ce type de message que l'on peut recevoir :
Message reçu dans ma page personnelle, le 5 avril 2006 :
"
Bonjour Karibou,
Vous avez découvert combien il est facile de modifier et compléter l'encyclopédie Wikipédia, libre, universelle et gratuite.
Merci cependant d'éviter d'en enrichir le contenu par le biais d'articles sous copyright provenant d'autres sources qui n'ont pas donné d'accord explicite comme sur les pages Jean-Paul Sartre : Biographie politique (entre autres).
Gardez à l'esprit que les pages qui enfreignent un copyright seront probablement supprimées, et que continuer à en créer est une perte de temps pour vous comme pour ceux qui se chargeront de les effacer.
Si vous désirez contribuer par vous-même ou avec l'accord des éditeurs du contenu que vous ajoutez, n'hésitez pas à vous créer un compte (facultatif), afin d'apporter votre contribution sur tous les sujets qui vous intéressent.
Enfin, le bac à sable est à votre disposition pour tester la syntaxe de Wikipédia."
On remarquera le smiley en début de message, à l'image du précepte de " wikilove ", et de la règle " ne mordez pas les nouveaux ".
Avec l'aide de Nancy Fraser, nous avons pu concevoir un nouveau modèle de discipline, c'est à dire de gestion des masses humaines : l'hyperpanoptisme. L'hyperpanoptisme radicalise l'ancien modèle panoptique foucaldien de l'époque moderne dans le sens où il permet une plus grande efficacité, à un coùt moindre. Il est en effet plus efficace car il décuple quantitativement les capacités de surveillance, tout le monde surveillant tout le monde, alors que dans l'ancien système panoptique le nombre de surveillés dépassait amplement celui des surveillants ; la possibilité de dévier de la norme s'en trouve ainsi nettement amoindrie. L'hyperpanoptisme augmente de même la productivité du travail communautaire, puisque la gestion des masses, se surveillant cette fois elles même, ne demande pas la mise en place d'un coùteux dispositif de surveillance transcendant celles-ci.
La productivité s'en trouve aussi accrue directement, parce que les agents, gràce à cette technologie « moléculaire », libérés des carcans hiérarchiques et bureaucratiques, peuvent développer d'autant plus leurs créativité. L'hyperpanoptisme offre ainsi un changement du point de vue éthique car il permettrait à l'individu de se réaliser dans son travail. Enfin, le pouvoir n'est plus concentré mais atomisé, parcellisé, amoindrissant alors les phénomènes de domination.
Ainsi l'auto-organisation hyperpanoptique de wikipédia permet la création et la modification de milliers de pages à caractère encyclopédique par jour par des milliers de personnes, et garde un dynamisme et une qualité qui n'aurait pu se faire avec un système panoptique de surveillance centralisé ou déconcentré. Mais dans un système disciplinaire, la surveillance ne suffit pas. Il faudra aussi savoir arrêter des conflits inévitables dans tout travail collectif, et savoir punir ceux qui restent récalcitrant à la norme. Ici le modèle hyperpanoptique va montrer ses limites, et d'autres structures vont se mettre en place pour juger et punir.
Notes
1 Je souligne
2 Robot : dans le jargon wiki, le terme désigne de petits programmes toujours actifs, composés d' algorythmes chargés d'effectuer des tâches relativement simples et répétitives. Il en existe un grand nombre, chacun étant spécialisé dans une tâche définie. Pour simplifier, disons qu'un programme informatique est un gros robot.
3 L'auteur souligne
4 Dans le petit Robert : " Caractère de ce qui peut beaucoup, de ce qui produit de grands effets ".
Bibliographie générale
Barou Jean-Pierre, Perrot Michelle, Foucault Michel, Jeremy Bentham et Le Panoptique. Précédé de L'Oeil du pouvoir, Belfond, 1977
Boltanski Luc, Chiappello Eve, Le nouvel esprit du capitalisme, Gallimard, 1999
Boltanski Luc, Thévenot Laurent, De la justification, Gallimard, 1991
Foucault Michel, Surveiller et punir, Gallimard, 1975,
Fraser Nancy, "Michel Foucault : A 'Young Conservative' ?" , Ethics n°96 ,October 1985, p. 165-184
Lévy Pierre, L'intelligence collective , La découverte / Poche, 1997
Potte-Bonneville Matthieu, Michel Foucault, l'inquiétude de l'histoire, PUF, 2004
Sanger Larry, "The Early History of Wikipédia and Nupedia : a Memoir", Slashdot, 2005,
http://features.slashdot.org/article.pl?sid=05/04/18/164213&tid=95
Viegas, Wattenberg, Dave, Studying Patterns of Cooperation and Conflict with History Flow Visualizations
http://alumni.media.mit.edu/~fviegas/papers/history_flow.pdf
Pages Web :
-WP:DSR page de discussion Ségolène Royal
WP:NdPV neutralité de point de vue
http://fr.wikipedia.org/wiki/WP:NdPV
Wp:WWIN What Wikipédia is not
http://en.Wikipédia.org/wiki/WP:NOT
Wp:WpWikipédia
http://fr.Wikipédia.org/wiki/Wikipédia
Wp: WPA accueil du portail communautaire
http://fr.Wikipédia.org/wiki/Wikip%C3%A9dia:Accueil
2007-10-11 12:19:00
Des structures complexes : hiérarchie punitive et juridicisation des conflits.[[Cet article est le dernier d'une série de quatre publiés par l'auteur sur Wikipedia. Paru au cours de l'été 2007, l'article a été remanié en octobre de la même année pour corriger plusieurs erreurs factuelles portant sur les mécanismes de régulation interne propres à cette encyclopédie (NDLR) Lire aussi : - [Wikipedia : présentation et histoire->http://www.homo-numericus.net/spip.php?article273] - [Wikipedia : entre communauté et réseau->http://www.homo-numericus.net/spip.php?article274] - [Wikipedia, modèle pour une société hyperpanoptique->http://www.homo-numericus.net/spip.php?article275] ]] Larry Sanger l'avait bien fait remarquer, le modèle qu'il appelait « anarchiste », dans le sens d'une absence totale de structure de contrôle et de répression, confrontait Wikipédia à de graves dysfonctionnements depuis que sa communauté s'était grandement élargie, hétérogénéisée, et ouverte à d'inévitables éléments perturbateurs. Ainsi la communauté mit en place, après le départ de Sanger, des systèmes de défense à structure hiérarchique, permettant d'une part la répression de ces éléments perturbateurs, et d'autre part la régulation des conflits d'édition. La première réponse est la mise en place d'un statut spécial d'utilisateur appelé « administrateur » (« administrator », « system operator », ou « sysop »). L'accès à ce statut spécial est soumis à des règles rappelant la démocratie directe : pour devenir administrateur, un utilisateur doit faire sa présentation et poser sa candidature sur une page dédiée. La communauté décide alors par un vote ouvert à tous si l'utilisateur est digne de devenir administrateur[[Les règles peuvent différer d'une wikipédia à une autre. Sur la wikipedia francophone, le vote est réservé à ceux qui ont un compte et plus de 50 contributions significatives au jour de la création de la page de vote. Sur la wikipedia anglophone, ce sont tout les contributeurs qui disposent d'un compte qui peuvent donner leur avis. _ Je ferai généralement référence à la wikipedia anglophone. Néanmoins, des références à la wikipédia francophone seront parfois faites (ce qui sera alors notifié ) afin d' illustrer un exemple, ou de chiffrer une information qui n'a pas pu être trouvée sur la wikipedia anglophone.]], le critère étant l'intensité de l'implication dans le projet (nombre de modifications faites aux articles, qualité de celles-ci...). Après le vote effectué (il dure environ une à deux semaines), le candidat est soit remercié, soit mis en possession de ses nouveaux pouvoirs juridiques et technologiques. Il existe à l'heure où j'écris 1347 administrateurs dans la Wikipédia anglophone[[ [->http://en.wikipedia.org/wiki/Wikipedia:Administrators] ]]. Les administrateurs ont pour rôle principal de réprimer les auteurs de vandalisme et les personnes ne respectant par les règles, qu'ils auront détectés par eux-mêmes ou (plus souvent) par délation. Ils disposent pour réprimer d'une « arme » informatique appelée le « blocage » (« block »). Le blocage est une action permettant à l'administrateur d'empêcher un utilisateur d'éditer les pages de la Wikipédia. Le blocage doit être limité dans le temps. Si le vandale continue ses méfaits après avoir été débloqué, la communauté (c'est à dire, concrètement, toute personne ou groupe de personne fatiguée des actions du vandale) peut décider de mettre en place une procédure de « bannissement » (« ban »). Si le bannissement est accepté par la communauté (par consensus ou par vote), le vandale est bloqué pour un temps illimité. Le bannissement est une action grave et rare. Le bannissement peut aussi être décidé par d'autres organes, tel que le Comité d' Arbitrage (que nous décrirons plus tard) ou encore, plus rarement, la Fondation wikimedia ou le « gentil dictateur » Jimbo Wales[[ [->http://en.wikipedia.org/wiki/WP:BAN#Community_ban] Je ferai généralement référence à la wikipedia anglophone, parfois à la wikipedia francophone pour illustrer un exemple ou chiffrer une information qui n'a pas été trouvée sur la wikipedia anglophone.]] On assiste dans Wikipédia à une séparation entre surveillance et punition. La surveillance est exprimée par les mécanismes hyperpanoptiques, tandis que la répression va être, elle, mise en place par une « hiérarchie », l'instauration d'une différence de pouvoir entre d'une part la plupart des wikipediens, d'autre part quelques autres. Éviter de placer l'action de punition dans un modèle hyperpanoptique peut sembler assez sage : donner le pouvoir à tous de se « bloquer » les uns les autres aurait sûrement transformé Wikipédia en un immense champ de bataille. On assiste donc à une première « reconcentration » du pouvoir en faveur des administrateurs. Mais ce pouvoir donné est mise sous étroite surveillance de par les mêmes mécanismes hyperpanoptiques décrits plus haut : les wikipédiens ont accès à l'historique des actions des administrateurs, et peuvent s'ils le pensent nécessaire mettre en place une procédure d'impeachment à l'encontre de l'administrateur ; ce qui arrive néanmoins assez rarement. Les wikipediens ont aussi, par la suite, décidé d'atomiser cette reconcentration du pouvoir, en multipliant les types de postes, chaque poste disposant de pouvoirs qui sont entre eux complémentaires. Ainsi, en plus des administrateurs dont on connaît maintenant les prérogatives, il existe : - les « bureaucrates », un bureaucrate a le pouvoir de donner le statut d'administrateur et le statut de bureaucrate (un peu comme la reine d'Angleterre nomme le premier ministre après élection) , qui nomme le statut de robot (c'est à dire qu'il active un programme-robot), et qui peut enfin changer le nom d'un utilisateur à la demande de ce dernier. On compte au moment où j'écris 10 bureaucrates actifs dans la Wikipédia anglophone. - Les « Stewards », qui sont en quelque sorte des bureaucrates internationaux : ils gèrent les statuts de tous les wikipediens disposant de pouvoirs supplémentaires (tous ceux ayant un statut énoncés dans cette liste), sur toutes les langues, et sur tous les projets de la fondation wikimedia (Wikipédia, mais aussi wiktionnary, wikiversity, wikibooks, etc...). Ils servent donc à un niveau « global », les bureaucrates faisant leur travail au niveau « local ». Il existe actuellement 4 stewards. - Les « développeurs », qui sont les mécaniciens des projets wikimedia : ils développent les logiciels wiki, et font la maintenance des serveurs. Leurs capacités d'actions sont très étendues puisqu'ils peuvent par exemple modifier l'historique des articles ; mais ils n'ont pas le droit de se servir de leur pouvoir sans demande d'une autorité compétente, ou de la décision des wikipediens après un vote. Il existe une quarantaine de développeurs, répartis en différentes spécialités. - Enfin, Les « vérificateurs d'adresse IP », forment une police spéciale ayant pour but de dénicher les « faux nez » (ou « sock puppet »), c'est à dire les utilisateurs qui utiliseraient plusieurs comptes -donc plusieurs identités -, ce qui est en général interdit. Il n'ont pas l'initiative du processus de vérification, et doivent agir après la demande d'un wikipedien qui soupçonnerait un compte utilisateur d'être un faux nez. Si la vérification montre en effet qu'il y a faux nez, la chose est rendue publique, et de possibles mesures de rétorsion peuvent être décidées par les wikipédiens. Il a donc été choisi de multiplier et de spécialiser les statuts, afin d'éviter une trop grande concentration des pouvoirs. Notons toutefois que ces statuts sont cumulables, montrant qu'une concentration de fait pourrait se produire. Par exemple, la personne répondant sous le nom d' Anthere est à la fois administrateur, bureaucrate et stewards ; en fait c'est la présidente de la fondation Wikipédia, le phénomène reste donc rare mais il faudrait que les wikipediens restent vigilant s'ils ne veulent pas que cette séparation des pouvoirs ne devienne qu'une séparation de papier. Une seconde structure hiérarchique s'est aussi créée, spécialisée dans la résolution des conflits et autres guerres d'éditions. On pourra faire l'analogie d'un pouvoir juridique, dans le sens où une véritable cour de justice s'est développée. Cette seconde réponse de l'époque « après Sanger » aux troubles wikipédiens concerne donc les conflits d'éditions qui ont dégénéré, et qui sont généralement accompagnés d'incompréhension et d'impolitesses (c'est à dire souvent d'insultes) qui empêchent toute communication efficace et empoisonnent la résolution du conflit. Il s'est alors créée une procédure en deux temps, gérée par deux comités : le « comité de médiation » et le « comité d'arbitrage », qui participent à ce qu'on appelle le « processus de régulation des conflits ». Ce processus s'apparente à la résolution d'un conflit juridique dans la vie réelle, puisqu'elle comporte une phase de négociation à l'amiable, puis une phase de jugement.[[ [->http://en.wikipedia.org/wiki/Wikipedia:Dispute_resolution] Le processus diffère sensiblement dans la wikipédia francophone.]] Pour se mettre en action, le comité de médiation doit être appelé par une personne partie au conflit. Le comité de médiation décide alors de la légitimité du cas, et décide ou non d'intervenir. L'intervention va consister à tenter de résoudre le problème à l'amiable, en étudiant les griefs des parties au conflit, leurs discussions, et en leur proposant des solutions, qui n'ont pas de caractère obligatoire. Si cette première étape a échoué, le comité de médiation va renvoyer l'affaire au comité d'arbitrage. Ce dernier ne va pas chercher une résolution à l'amiable du conflit, mais à stopper le conflit. En étudiant les discussions des parties, elle va souvent dégager les fautes des personnes (non respect d'une règle, comme l'impolitesse, etc....) et va rendre un jugement, qui peut comporter des mesures coercitives, comme l'interdiction pour une personne de s'occuper d'un article ou d'un groupement d'articles (par exemple sur la politique). Ces mesures peuvent aller jusqu'à l'adoption d'une décision de bannissement. Toute décision d'un comité fait l'objet d'une sorte d'avis rendu, sous une forme pseudo-juridique. En voici un exemple, rendu par le comité d'arbitrage de la wikipedia francophone. Il concerne un utilisateur ayant causé des problèmes dans les articles sur les deux principaux candidats aux actuelles élections présidentielles françaises : «Arbitrage Manchot-Zzérome _ Considérant : - Que Zzerome a utilisé, notamment sur Ségolène Royal et sur Nicolas Sarkozy, des méthodes, notamment d'effacement de texte systématique, qui ne sont pas admissibles dans Wikipédia et qui étaient sans proportion avec le fait que Zzerome avait parfois raison sur le fond ; - Que de multiples rappels faits par des contributeurs tiers au litige n'ont pu ramener Zzerome à de meilleures disposition ; Le Car [comité d'arbitrage] : _ 1. Rappelle à Zzerome que Wikipédia est un projet encyclopédique collaboratif. Il lui est donc vivement conseillé de lire ou relire les règles de savoir-vivre de Wikipédia, notamment Wikipédia:Ne pas adopter une attitude agressive, Wikipédia:Esprit de non-violence ; _ 2. Interdit à Zzerome de contribuer sur Ségolène Royal et sur Nicolas Sarkozy autrement que sur la page de discussion ou pour maximum une modification par 24 heures pendant une période de probation définie au point 3 ; _ 3. Impose à Zzerome une période de probation qui durera le temps qu'il fasse 400 contributions d'intérêt général (avec un maximum de 8 mois à dater de la décision du CAr). Par contribution d'intérêt général, on entend catégorisation précise, wikification, révocation de vandalisme, ainsi que toute autre modification pertinente sur des articles autres que Ségolène Royal et Nicolas Sarkozy, le tout applicable à partir de la première re-contribution de Zzerome ; _ 4. Demande aux administrateurs d'assurer le respect de cette décision, et autorise les administrateurs à bloquer Zzerome (ou tout faux-nez ou nouveau pseudonyme de ce contributeur) sans préavis en cas de non respect de cette décision. _ (Wp : DSR)» Le style, la forme, se rapprochent beaucoup, comme on peut le voir, des décisions juridiques, par exemple le fait de faire une liste des considérations, puis une liste des décisions. On peut l'analyser comme une volonté pour le comité d'arbitrage d'imposer son autorité de par 1. La volonté de statuer sérieusement, pour se légitimer, et 2. Prendre des décisions ayant la symbolique des décisions de cour de justice, afin d'en tirer une légitimité. Wikipédia contient donc deux sortes de structures disciplinaires : une auto-organisation hyperpanoptique, et une structure hiérarchique de punition et de résolution des conflits. Nous tenons à le rappeler, la structure hiérarchique de Wikipédia n'a que peu d'importance par rapport à la structure hyperpanoptique auto-organisée. En effet, la structure hiérarchique ne concerne que la punition, une petite part de la surveillance (vérification d'IP), et la résolution des conflits d'éditions. L'hyperpanoptique auto-organisé se charge lui de la surveillance globale, de la production de contenu, c'est à dire des éditions, et de la production de normes. Comparée aux trente-cinq mille éditions faites chaque jour sur la Wikipédia francophone, le système hiérarchique a un rôle clairement minoritaire : on a compté, entre mars 2006 et mars 2007, 75 demandes de jugement par le comité d'arbitrage, donc 49 ont été acceptées. La police Wikipédia est, elle, plus active : on compte environ une dizaine de blocages par jour, qui sont à comparer aux dizaines de milliers de personnes éditant chaque jour. A côté de cette dichotomie auto-organisation/hiérarchie, nous voudrions, pour terminer, préciser les modes de décisions. Les deux types de structures répondent à la notion de démocratie, c'est à dire de pouvoir du peuple. Tandis que l'auto-organisation hyperpanoptique peut être considéré comme un mécanisme de démocratie directe, le mécanisme de hiérarchie répond lui à un mécanisme de démocratie représentative. On considérera la démocratie directe comme la démocratie d'Athènes : tout le monde2 débat, tout le monde vote et prend les décisions de façon collective. La démocratie représentative émerge quand l'on ne peut pas, ou qu'on ne veut pas, faire appel à tous les citoyens pour prendre une décision ; ces derniers seront alors représentés par des représentants qu'ils éliront, et qui prendront les décisions à leur place 1. démocratie directe C'est celle qui correspond à l'auto-organisation hyperpanoptique. Les décisions se prennent alors collectivement, l'ensemble des wikipédiens ne va pas forcément se motiver pour tous voter, mais ceux qui seront intéressés par la décision pourront le faire. Dans cette démocratie directe, on a deux modes de décisions : le consensus et le vote ouvert. La Wikipédia d'aujourd'hui conserve pour l'édition de ses articles ce qui a fait son succès, c'est à dire le consensus. On peut différencier deux modes de consensus : d'une part un consensus « passif », pour les éditions et modifications d'articles sur lesquels personne n'a rien à redire ; et d'autre part un consensus « actif », sur ceux qui font débat, les différents éditeurs en conflit devant trouver une solution en débattant sur la page de discussion attachée à l'article. Dans les faits, le consensus a parfois du mal à se former, et les éditeurs en conflit vont à tour de rôle modifier l'article pour éditer leur version. Ce phénomène s'appelle dans le jargon wikipédien une « guerre d'édition » (« Edit War »). Il apparaît que ces guerres peuvent durer plus ou moins longtemps, mais qu'elles se résolvent presque toujours d'elles-mêmes, un consensus finissant presque toujours par arriver. Néanmoins, afin de limiter ces guerres qui peuvent facilement échauffer les esprits, la communauté anglophone a mis en place une règle de limitation, appelée « règle des trois modifications » (« three reverts rule« , « 3RR »). Elle stipule que chaque utilisateur ne peut faire plus de trois modifications sur un même article dans une même journée. Cette méthode de consensus et de discussion est possible car la prise de décision n'est jamais réellement urgente, il n'y a en effet pas de dates limites pour la finalisation d'un article ; de plus la discussion, éditée sous la forme d'une page web que l'on peut lire et modifier quand l'on veut, évite le besoin de trouver une décision dans un temps limité, comme c'est le cas d'une réunion dans la « vraie vie ». La deuxième méthode de décision est le vote ouvert, ou suffrage universel direct et ouvert, qui va s'utiliser tant en démocratie participative que représentative. Pour ce qui est de la première, on va utiliser ce mode pour : - La résolution d'un conflit d'édition -bien que dans les fait je n'aie pas eu l'occasion d'en voir, on privilégie normalement la résolution par la discussion, puis il semble qu'on passe directement au judiciaire si ça ne marche pas-. - Décider de la légitimité d'un article dans la Wikipédia, bref s'il répond aux normes que s'est donnée cette dernière en matière de normes encyclopédiques. Si un article n'est pas considéré par un utilisateur comme ayant un caractère encyclopédique, ce dernier pourra ajouter un lien dans une page wiki « Pages à Supprimer » prévue à cet effet. Un vote ouvert décidera du sort de l'article. Tel par exemple a été le cas pour l'article « Bravitude » concernant l'accident néologismique de la candidate socialiste, où il a été décidé qu'il ne serait pas conservé. - Pour décider de mettre en place une nouvelle règle, ou encore pour élire une personne à laquelle on aura conféré certains pouvoirs, ce qui nous amènera à la démocratie représentative. Le vote est ouvert car tout un chacun est autorisé à prendre part au vote. Ces votes sont souvent classés par catégorie afin de les retrouver aisément, il existe par exemple une page « Réforme des Pages à Supprimer », ou encore la célèbre page « nomination des administrateurs ». On retrouve souvent le nom d'habitués dans les votes, qui font partie du « cœur » de la communauté, on trouve aussi des personnes qui ne vont voter que sur un seul sujet, par intérêt ou par hasard. 2. Démocratie représentative La démocratie représentative commence donc par l'élection au suffrage universel direct des représentants des wikipédiens pour des missions précises. Les représentants sont d'une part la police wikipedienne (administrateurs, bureaucrates...) qui prendront les décisions de punitions, et d'autre part les « magistrats », qui constitueront le comité de médiation et le comité d'arbitrage, trancheront les guerres d'éditions, et prendront aussi des mesures de punition. Si les décisions policières sont individuelles (tout en restant contrôlées), les décisions des deux collèges juridiques se feront soit par un consensus soit par un vote, qu'on appellera consensus ou vote fermé. En effet, seuls les élus ont le droit de prendre des décisions concernant leurs prérogatives, en toute indépendance. Une dernière méthode de décision se trouve en dehors de la démocratie. En effet, Wikipédia est aussi, par certains côtés, une dictature. L'article de présentation de Wikipédia explicite lui-même cet état de fait (Wp:Wp). Cette dictature n'est aujourd'hui pas effective, mais pourrait l'être par le mode de décision qu'on appellera décision unilatérale. Jimmy Wales, appelé sur Wikipédia le « gentil dictateur » (« benevolent dictator »), peut prendre des décisions sur la wikipedia anglophone qui ne peuvent être discutées. Cela a été le cas dans la période de troubles suivant les « invasions barbares », notamment en ce qui concerne la mise en place de règles ou le bannissement d'un utilisateur. Mais aujourd'hui Wales tient à laisser une liberté maximum à la communauté de Wikipédia et n'utilise plus ce pouvoir. Il se voit comme une « reine d'Angleterre », sorte de garde fou si les choses tournaient mal. Ses décisions se sont toujours faites à la demande de personnes appartenant à la communauté. Pour conclure, je terminerai sur le problème de l'accumulation du pouvoir. Nous avons vu que le fonctionnement de wikipédia marchait quasiment sans hiérarchie, néanmoins des hiérarchies informelles pourraient se créer, en fonction, d'abord, des postes spéciaux - police ou magistrature- qui donnent plus de pouvoir, mais aussi plus généralement en fonction du nombre de temps passé, du nombre de modifications faites, de leurs qualité, bref de la prestance gagné par les wikipédiens, et qui pourraient ainsi reconcentrer le pouvoir à leur avantage. Selon Robert Michels, toute organisation a tendance à sécréter une élite oligarchique. C'est ce qu'il a appelé la loi d'airain de l'oligarchie, pour souligner son côté universel. Si la wikipédia ne peut éviter des différentiels de pouvoir entre, par exemple, des wikipédiens plus anciens et des nouveaux, un mécanisme me fait penser qu'elle évite peut être cette loi d'airain. Larry Sanger décrivait, lors des « invasions barbares », les départs déchirants de vieux wikipédiens qui expliquaient qu'ils partaient parce que les nouveaux venus ne les respectaient pas assez. Il semble en fait que ces départs n'aient jamais cessé, et que régulièrement, des vagues de vieux wikipédiens claquent la porte, fâchés. Ils disent souvent qu'ils sont fatigués, que les conflits successifs les ennuient et qu'ils en ont assez de voir leurs éditions ou leurs jugements remis en cause par de jeunes wikipédiens. La société wikipédienne semble consciente de ce phénomène, souvent pour en regretter les départs, mais n'a sûrement pas vu l'une de ses conséquences. Ces « départs de vieux » en effet, éviterait à mon avis (mais ceci reste à creuser) qu'une oligarchie basée sur la longévité, le nombre d'éditions, les pouvoirs3 ne se forme. On pourrait dire alors que les tentatives oligarchiques s'usent par l'égalitarisme ambiant de la Wikipédia, et qu'une forte concentration du pouvoir se redissout d'elle même par le départ de ceux qui en ont accaparé une partie. La formation d'une oligarchie bute ainsi contre le manque de « respect » des nouveaux venus face aux ainés. Ce « turn-over » régulier va ainsi empêcher la cristallisation du pouvoir dans une oligarchie Conclusion Nous en avons fini avec l'étude de l'organisation de Wikipédia. Wikipédia est née de parents universitaires, et a accueillie dans ses premiers mois des universitaires. Elle s'est popularisée dans la souffrance mais n'a jamais trahi ses principes égalitariens et auto-organisationnels, et elle en a gagné un dynamisme et une renommée salutaire. Les personnes qui la composent forment un réseau interactionnel, une société ouverte, où la hiérarchie est inexistante et où, tous se surveillant tous, le pouvoir a été atomisé et dissous. L'auto-organisation créée est extrêmement dynamique, elle permet la transcendance des hommes par la puissance de la création, l'excitation d'une créativité libérée par l'absence de hiérarchie. Cette création est formalisée par des normes décidées par tous, qui s'impose aux nouveaux entrant par un processus de subjectivation. Enfin, l'auto-organisation hyperpanoptique est consolidée par des structures hiérarchiques, qui servent à juger et à punir ; et le tout reste fait démocratiquement, pour la société wikipédienne, par la société wikipédienne. Aujourd'hui Wikipédia se trouve concurrencée par un nouveau projet encyclopédique en ligne créé par Larry Sanger : Citizendium. Citizendium, ouvert en novembre 2006, reprend la forme du wiki et la méthode collaborative qui a fait le succès de wikipédia ; mais elle refuse l'égalitarisme de cette dernière en divisant les utilisateurs en deux « castes ». Afin d'être considérée comme plus sérieuse que wikipédia, de gagner en légitimité, Citizendium va en effet séparer les « experts » des profanes : toute personne de bonne volonté pourra devenir un « auteur », utilisateur lambda, qui pourra créer et éditer des articles. Les personnes expertes dans un sujet donné -par exemple ayant obtenu un doctorat et/ou ayant publié une série d'articles universitaires- se verront elles accordées le statut d' « éditeur », et disposeront de pouvoirs supplémentaires, notamment celui d'avoir le dernier mot sur tout débat concernant un article. Citizendium se veut aussi plus stricte que sa grande soeur wikipédia, ainsi les règles ne seront pas établies par tous mais par un « bureau consultatif » nommé par le rédacteur en chef Larry Sanger, et une politique de « tolérance zéro » sera mise en place à l'encontre de ceux qui contreviendraient aux règles. Larry Sanger semble ainsi vouloir réparer les erreurs qu'il pense avoir connu avec Wikipédia, en la concurrençant par un nouveau projet dont il est cette fois le chef incontesté. Deux projets, ayant le même but, mais des structures de pouvoir différentes, entrent ainsi en compétition. Il va être très intéressant de voir qui, de Wikipédia, égalitariste et libérale, et de Citizendium, hiérarchique et plus « sérieuse », offrira la meilleure encyclopédie libre.
Bibliographie générale
Barou Jean-Pierre, Perrot Michelle, Foucault Michel, Jeremy Bentham et Le Panoptique. Précédé de L'Oeil du pouvoir, Belfond, 1977
Boltanski Luc, Chiappello Eve, Le nouvel esprit du capitalisme, Gallimard, 1999
Boltanski Luc, Thévenot Laurent, De la justification, Gallimard, 1991
Foucault Michel, Surveiller et punir, Gallimard, 1975,
Fraser Nancy, "Michel Foucault : A 'Young Conservative' ?" , Ethics n°96 ,October 1985, p. 165-184
Lévy Pierre, L'intelligence collective , La découverte / Poche, 1997
Potte-Bonneville Matthieu, Michel Foucault, l'inquiétude de l'histoire, PUF, 2004
Sanger Larry, "The Early History of Wikipédia and Nupedia : a Memoir", Slashdot, 2005,
http://features.slashdot.org/article.pl?sid=05/04/18/164213&tid=95
Viegas, Wattenberg, Dave, Studying Patterns of Cooperation and Conflict with History Flow Visualizations
http://alumni.media.mit.edu/~fviegas/papers/history_flow.pdf
Pages Web :
-WP:DSR page de discussion Ségolène Royal
WP:NdPV neutralité de point de vue
http://fr.wikipedia.org/wiki/WP:NdPV
Wp:WWIN What Wikipédia is not
http://en.Wikipédia.org/wiki/WP:NOT
Wp:WpWikipédia
http://fr.Wikipédia.org/wiki/Wikipédia
Wp: WPA accueil du portail communautaire
http://fr.Wikipédia.org/wiki/Wikip%C3%A9dia:Accueil
2007-08-08 14:15:24
Les dinosaures, sauriens sympatiques de l'ère secondaire ont dominé les espèces durant quelques millions d'années avant de s'éteindre au pire, ou de se transformer en étourneaux, au mieux. nous sommes les grands bénéficiaires de ce désastre car les mamifères (baleines, tigres et gardiens de la paix compris) n'ont pu évoluer que lorsque les dinosaures ont libéré les niches écologiques au terme de leur destin tragique.
Si j'ai encore un lecteur au terme de cette introduction, il doit se demander à quel moment je vais enfin parler de ce qui le préoccupe tant aujourd'hui: la révolution numérique en marche. Nous pouvons, avec un peu d'imagination, décrire l'ensemble des systèmes informatiques interconnectés, l'internet en quelque sorte, comme un milieu biologique dans lequel se développent des entités soumises aux lois de la sélection naturelle: les logiciels. Je ne suis en train de soutenir que les logiciels sont vivants, mais simplement qu'ils sont régis par des lois similaires à ceux des organismes pluricellulaires: ils naissent et grandissent dans un milieu vaste mais fini, ils doivent évoluer pour s'adapter aux besoins de l'utilisateur car un logiciel sans utilisateur est un logiciel mort qui n'évolura plus. L'informatique traverse actuellement son ère secondaire, dominée par des espèces qui ont connu un succès incomparable et parmis eux le mastodonte Windows de la famille de Microsoft(tm). Son succès dans l'informatique personnel et sur le poste de travail est hallucinant. A chaque instant des millions d'écrans à travers le monde sont allumés et affiche répétitivement les mêmes fenêtres, les mêmes paysages verdoyants et sinistres, l'époque sympatique des écrans bleus étant quelque peu révolue. Est-ce mal? Je ne sais pas, je ne le pense même pas, je ne vois pas en quoi un brontausaure serait mal, sans parler de l'étrange beauté du tyranosaure rex. Mon propos est un peu différent, il s'agit de comprendre pourquoi des logiciels de qualités, souvent gratuits et pour le moins libres ne s'imposent pas plus vite dans les ordinateurs de notre vie quotidienne. Je rêve de découvrir un jour que mon voisin de paplier est un linuxien averti ou débutant mais force est de constater que les probabilités sont faibles, d'autant plus qu'il s'apprète à déménager. Donc les logiciels libres sont des logiciels de qualité, qui portent au sein de leur licence des caractéristiques qui devraient leur permettre d'évoluer favorablement, mais voilà la place est prise, bien prise par un dinosaure suradapté à son milieu et qui ne veut rien lacher. Les Logiciels Libres ne s'imposent pas malgrès des succès certains, mais cependant partiels, OpenOffice et Mozilla étant les exemples les plus cités. Face à ce constat je pense avec émotion à notre ancètre commun, mamifère et fier de l'être, regardant passer un troupeau de diplodocus et marmonant dans ses moustaches "Je porte en moi l'espoir d'une évolution qui aboutira un jour à Chantal Goya et à la finale de la coupe du monde de 1998, un tel espoir ne peut être trahi....Mais tant que les dinosaures seront là alors rien ne sera possible" et puis le mulot a regagné son terrier tristement en se disant que ce n'est pas le lendemain que les dinosaures disparaitraient.
2007-12-16 09:57:16
Les médias québécois ne sont pas suffisamment au fait de ce qui se passe réellement dans le monde du livre, ici et ailleurs dans le monde, pour commenter le futur du livre. C'est du moins la conclusion à tirer de deux articles parus en novembre dernier au Québec: Un peu de futurologie signé par Nicolas Dickner dans l'hebdomadaire culturel Voir et Le fétichisme du... livre-objet signé par Mario Roy dans le quotidien montréalais La Presse. Voici notre analyse de ces deux articles.
Un peu de futurologie, chronique Hors champ, Nicolas Dickner, 15 novembre 2007, Voir. [Lire cet article->http://www.voir.ca/blogs/nicolas_dickner/archive/2007/11/15/un-peu-de-futurologie.aspx] Dans son texte, le chroniqueur Nicolas Dickner se lance dans une tentative de prédiction du futur du livre parce qu'il ne sait pas comment entretenir autrement ses lecteurs au sujet du Salon du livre de Montréal en cours: «Que puis-je écrire sur la trentième édition que vous n'aurez pas déjà lu dans nos pages ou dans celles de la concurrence? Pas grand-chose sans doute, aussi vais-je plutôt vous esquisser un bref panorama de l'automne 2017, alors que le Salon du livre de Montréal fêtera en grande pompe sa quarantième édition.» Évidemment, monsieur Dickner s'arrête en premier lieu au futur du livre dans les médias, égocentrisme oblige. D'entrée de jeu, il écrit: «Côté médias, pas grand-chose. Voilà plusieurs années que les cahiers et émissions littéraires ont disparu pour de bon. Le livre appartient désormais à la section Divertissements, où il doit se frotter aux plus récentes productions hollywoodiennes.» Une prédiction plutôt facile compte tenu qu'il n'y a déjà plus aucune émission littéraire à l'antenne des grandes chaînes de télévision au Québec. En fait, il n'y a qu'une seule émission de télévision littéraire actuellement au Québec, [Le Livre Show->http://www.voxtv.ca/saguenay/emission/le_livre_show], diffusée à la télévision communautaire du câblodistributeur national [Vidéotron->http://www.videotron.com/services/Home.do?to=index]. Il faut savoir que tous les Québécois n'ont pas accès à cette émission littéraire puisqu'elle est réservée aux seuls abonnés de l'entreprise. Les abonnés de la télévision par satellite n'y ont pas accès. Et lorsqu'on sait que «les taux d’abonnement à la télévision par câble ont décliné au cours de la dernière décennie, mais les taux d’abonnement à la télévision par satellite ont connu une hausse marquée» ([source->http://www.crtc.gc.ca/frn/publications/reports/radio/cmri_rev.htm]), il faut conclure que cette émission de télévision littéraire n'est pas nationale puisqu'elle n'est pas libre d'accès. Pour l'instant, la stratégie de cette télévision communautaire consiste à dire que Le Livre Show est la seule émission littéraire de la télévision québécoise. Pour écrire que les émissions littéraires auront disparu «pour de bon» en 2017, le chroniqueur Nicolas Dickner doit inclure le retrait de l'émission de radio hebdomadaire [Vous m'en lirez tant->http://www.radio-canada.ca/radio/emissions/emission.asp?numero=1658] à l'antenne de la Première chaîne de Radio-Canada. L'émission n'est pas un succès de foule et il est tout à fait prévisible qu'elle disparaisse si jamais le milieu littéraire québécois baisse la garde. On a l'impression que l'émission demeure à l'antenne que pour permettre à Radio-Canada de dire qu'elle n'a pas abandonné la production d'une émission dédiée au livre. Ici, la stratégie de la société d'état consiste à soutenir que le livre est déjà partie prenante de plusieurs autres émissions de grille horaire, dont la plus populaire, [Tout le monde en parle->http://www.radio-canada.ca/television/tout_le_monde_en_parle/index.shtml]. Et ça fonctionne puisque tout écrivain préférerait et de loin être l'invité de Tout le monde en parle plutôt que de Vous m'en lirez tant. Quant à la disparition des cahiers littéraires au sein de nos médias imprimés d'ici 2017, le chroniqueur Nicolas Dickner se trompe. Ces cahiers sont là pour rester tant et aussi longtemps que les preneurs pour les espaces publicitaires, éditeurs et libraires, disposent des ressources financières pour ce faire, c'est-à-dire des subventions gouvernementales et rien ne laisse présager que ces dernières disparaîtront au cours de la prochaine décennie. Monsieur Dickner prédit aussi et une fois de plus la disparition des critiques littéraires: «La critique - dont les lecteurs se méfiaient depuis longtemps - a été remplacée par les impressions de lecture de Madame Sicotte. En 2017, le lecteur est parfaitement intégré à la nouvelle chaîne de production du contenu: n'importe qui peut soumettre ses commentaires sur tel bouquin d'Anne Robillard. Il suffit ensuite de sélectionner et publier les meilleures contributions.» On se souviendra que le chroniqueur a formulé une telle prédiction le 9 août dernier dans son texte [Les tabacs disproportionnés->http://www.voir.ca/blogs/nicolas_dickner/archive/2007/08/09/les-tabacs-disproportionn-233-s.aspx]. Visiblement obnubilé par la disparition de son métier de critique littéraire, Nicolas Dickner semble mépriser la démocratisation de la critique littéraire engendrée par l'Internet. En qualifiant celui ou celle qui se donne la peine de donner ses «impressions de lecture» de «n'importe qui», le chroniqueur du plus important hebdomadaire culturel québécois se tire dans le pied. On ne mord pas la main qui nous nourrit. Il parle de la méfiance des lecteurs face à la critique et leur reproche de préférer «l'opinion de Monsieur et Madame Tout-le-monde». Si des critiques littéraires disparaissent, ce ne sera pas à cause des lecteurs mais par leur propre faute, c'est-à-dire, parce qu'ils n'auront pas su s'adapter aux nouvelles réalités de leur futur. Il faut dire qu'avec un ego aussi gigantesque qu'un mammouth, on peut difficilement participer à l'avenir de sa profession autrement qu'en en prédisant la disparition. Peut-être que Sept ans au Tibet aiderait Nicolas Dickner à contrôler un tant soit peu son ego. Le chroniqueur traite également du futur technologique du livre, toujours à travers son chapeau: «Au chapitre des nouvelles technologies, Sony annonce un livre électronique qui révolutionnera nos vies - juré craché! Rien à voir avec les faux départs de 2015, 2014, 2010, 2009, 2007, 2006, 2004, 2001 et 1999.» Il faut être plus que mal informé pour réduire l'avenir des lecteurs portables électroniques aux péripéties d'un seul manufacturier, aussi important fut-il. Nous trouvons en cela une preuve de plus du repliement sur soi qui caractérise la perception québécoise de l'avenir du livre. On ne sait pas ce qui se passe réellement ailleurs et on tente de prédire l'avenir. Il ne faut pas se demander pourquoi la majorité des Québécois connaissent mal le nouveau monde du livre qui connaît un développement fulgurant partout ailleurs dans le monde. Quand on est mal informé, on ne peut pas bien informer la population. Voici sans doute la prédiction la plus déconnectée faite par Nicolas Dickner: «La diversité littéraire prend un autre visage: on voit apparaître un nombre croissant de livres à compte d'auteur et de chapbooks ([1->http://fr.wikipedia.org/wiki/Chap-Book]) ([2->http://web.mit.edu/21h.418/www/nhausman/chap1.html]) - ces opuscules artisanaux que l'on se passe de main en main. Les plus récents photocopieurs permettent d'ailleurs de produire des tirages réduits à faible coût.» Cela n'a rien à voir avec le futur. C'est en 1998 que la compagnie [Xerox->http://www.xerox.com/go/xrx/template/013.jsp?metrics=HDR&Xcntry=CAN&Xlang=fr_CA] a mis en marché le premier appareil capable de produire un seul exemplaire à la fois, et ce, en flux continu. Le fichier informatique du livre (pdf ou autres) est envoyé au serveur dont l'appareil est doté et, au bout de la chaîne, sort un livre relié. L'appareil requiert l'intervention d'une seule personne. Il s'agit de la [Xerox iGen3->http://www.xerox.com/digital-printing/business-development/Xerox-iGen3/frca.html] vendu au coût d'un million de dollars. Notre ancien imprimeur en banlieue de Paris disposait déjà de trois de ces appareils d'impression à la demande l'année dernière. L'appareil original a été décliné depuis en plusieurs autres appareils selon les besoins d'impression à la demande. Évidemment, le Québec ne compte aucun appareil d'impression à la demande. Mais certains pays du tiers-monde en ont un développé par la compagnie [On Demand Books LLC.->http://www.ondemandbooks.com/] ([1->http://www.technologyreview.com/Infotech/14064/?a=f]) avec l'aide financière de [Alfred P. Sloan Foundation->http://www.sloan.org/main.shtml] ([1->http://www.sloan.org/report/2005/knowledge_access.shtml]) et baptisé [The Espresso Book Machine->http://manuscritdepot.com/internet-litteraire/document-pdf.01/ebm15-brochure.pdf] ([vidéo->http://www.ondemandbooks.com/perfectbook.mov]) ([vidéo->http://www.ondemandbooks.com/EspressoWorldBank.mov]) dont le lancement a eu lieu au siège social de la Banque mondiale le 12 avril 2006 (1) (2). L'appareil a été développé pour aider les pays du tiers-monde à avoir accès à l'impression à la demande. Il coûte 38,000$ au lieu du million de dollars demandé pour celui de Xerox. On sait aussi que la [New York Public Library's Science, Industry and Business Library->http://www.nypl.org/research/sibl/services/espressobook.html] ([1->http://www.prwebdirect.com/releases/2007/6/prweb534914.htm]) expérimente cet appareil depuis juin dernier et que la [New Orleans Public Library Foundation->http://nutrias.org/foundation/noplfoundationappeal.htm] ([1->http://nutrias.org/]) vient d'obtenir une aide financière pour s'en procurer un dans le cadre de son programme de reconstruction mis en place à la suite de l'[ouragan Katrina->http://fr.wikipedia.org/wiki/Ouragan_Katrina]. L'impression à la demande d'un exemplaire à la fois n'est pas partie prenante du futur mais de la réalité d'aujourd'hui. Revenons à notre dernière citation: «La diversité littéraire prend un autre visage: on voit apparaître un nombre croissant de livres à compte d'auteur et de chapbooks - ces opuscules artisanaux que l'on se passe de main en main. Les plus récents photocopieurs permettent d'ailleurs de produire des tirages réduits à faible coût.» Monsieur Dickner se trompe dès le départ parce qu'il associe le nouveau visage que prendra la diversité éditoriale dans dix ans au nombre croissant de livres qui seront alors édités à compte d'auteur et de chapbooks. En fait, la diversité éditoriale ne prendra pas un nouveau visage que dans une dizaine d'années. C'est déjà une réalité, et ce, depuis l'avènement de l'édition en ligne sur Internet, bien avant l'an 2000. D'ailleurs, les appareils d'impressions à la demande sont nés des besoins formulés par les éditeurs libraires en ligne sur Internet ne voulant plus se limiter à offrir uniquement des versions numériques des livres de leurs auteurs. C'est aussi pour garantir une plus grande diversité éditoriale que le Conseil de l'Europe se décide à investir massivement dans la nouvelle économie du livre née avec les nouvelles technologies de l'Internet et de l'impression à la demande, et ce, dès les années 90. ---- «Le projet de nouvelle économie du livre, et son successeur la "Nouvelle économie du livre BIS "- la construction de la société de l’information, émanant l’un et l’autre du Conseil de l’Europe, sont financés par l’Initiative ADAPT du Fonds social européen. Le premier projet a débuté en 1995 dans trois pays (Italie, Allemagne, Pays-Bas). Les projets "Nouvelle économie du livre BIS" ont commencé en 1998 dans six pays : Autriche (deux projets) ; Finlande ; France; Allemagne (deux projets) ; Pays-Bas (deux projets) ; et Suède.» Édition électronique - Nouvelle économie du livre, Conseil de l'Europe, 1998 [Source->http://www.coe.int/t/f/coop%E9ration_culturelle/culture/projets_finalis%E9s/livre/NouvelleEconomie.asp#TopOfPage] ---- «Les livres et l’édition électronique sont un vecteur de la liberté d’expression, du libre accès à l’information, de l’éducation, de la culture, de la démocratie et des droits de l’homme au sein de la société. Ils jouent en outre un rôle essentiel dans la promotion de la diversité culturelle et linguistique, et de l’expression pluraliste.» Edition électronique - Législation, Conseil de l'Europe, 1998 [Source->http://www.coe.int/t/f/coop%E9ration_culturelle/culture/projets_finalis%E9s/livre/legislation.asp#TopOfPage] ---- En France, le développement de l'édition en ligne sur Internet fut si fulgurant que le ministère de la Culture s'est vu dans l'obligation de tenir une «Commission de réflexion sur Le livre numérique» en... 1998! ---- «L’objectif de la commission est d’identifier les effets du développement d’Internet et de la numérisation sur la politique du livre et de la lecture, de préciser les positions des différents partenaires et de proposer des règles du jeu favorables à une meilleure coopération.» [Source->http://www.culture.gouv.fr/culture/actualites/rapports/cordier/lettre.htm] ---- Comment le chroniqueur québécois Nicolas Dickner peut-il qualifier cela de «culture souterraine» et de «banal phénomène secondaire»: «Cette culture souterraine, peu représentée dans les grands salons du livre, fait l'objet de foires informelles dans les arénas et les centres commerciaux. Certains spécialistes y voient l'avenir de la littérature, d'autres, un banal phénomène secondaire appelé à s'évaporer dès la prochaine hausse du prix du papier.» Pour affirmer une telle chose et, qui plus est, la présenter comme une prédiction de ce qui nous attend dans dix ans, il faut que le chroniqueur soit complètement coupé du monde réel. Il aurait avantage à se sortir le nez de ses livres où plutôt à lire les bons livres. Je lui recommande: Gutenberg 2.0 - Le futur du livre de Lorenzo Soccavo chez M21 Éditions, paru un peu plus tôt cette année en France. Évidemment, ce livre n'est pas disponible au Québec. Bref, le futur du livre est ailleurs! Le fétichisme du... livre-objet Mario Roy, La Presse, 17 novembre 2007 [Lire cet article->http://www.cyberpresse.ca/article/20071117/CPOPINIONS03/711170993/6742/CPOPINIONS] Dans son article «Le fétichisme du... livre-objet» paru dans l'édition du 17 novembre dernier du quotidien montréalais La Presse, l'éditorialiste Mario Roy dresse d'emblée le constat suivant: «Bref, on croyait imminent et inéluctable le règne de l'impression à distance et sur demande, du livre électronique, de la bibliothèque virtuelle Or, ça ne s'est pas produit, ou si peu.» Et cela serait le fait de l'attachement des lecteurs au bon vieux livre papier. L'éditorialiste s'appuie sur le rapport de Sophie Barluet et commandé par le Centre national du livre en France: «Dans une étude prospective (Livre 2010/Pour que vive la politique du livre) publiée il y a trois mois, en France, l'«attachement historique au livre» en tant qu'objet est identifié comme le premier facteur freinant sa métamorphose matérielle.» [Ce rapport->http://manuscritdepot.com/edition/d.dossier-edition-en-ligne.htm#8] se trouve en libre téléchargement dans notre [Centre d'Information sur l'édition en ligne->http://manuscritdepot.com/edition/d.dossier-edition-en-ligne.htm]. Voici le passage de ce rapport auquel se réfère Mario Roy en parlant de «l'attachement historique au livre», question de replacer ses propos dans leur contexte original. ---- En 2000, avec la présentation du « révolutionnaire » e-book Cytale au Salon du livre de Paris et les espoirs du cartable électronique censé modifier la vie quotidienne de l’écolier, on pressentait une montée en puissance du numérique dans l'édition. Or, l’éclatement de la bulle Internet semble avoir écarté le monde éditorial de la révolution du numérique, contrairement à d’autres secteurs culturels comme la musique ou l’audiovisuel. Ce constat doit être nuancé dans la mesure où d’une part les éditeurs ont numérisé toute leur chaîne de production amont et où, d’autre part, le commerce électronique des livres, même s’il est en France moins développé que dans les pays anglo-saxons notamment, occupe maintenant une part de marché réelle de près de 6 %. Il est vrai cependant que la situation du livre n’a rien à voir avec celle du disque et qu’il existe encore aujourd’hui peu de livres numériques. Cette situation s’explique par l’existence d’un certain nombre de freins, rappelés par Marc Minon lors de la table ronde consacrée aux nouveaux modèles économiques du numérique. Ces freins sont notamment les suivants : -* l’attachement historique au livre, qui reste en outre, à ce jour, le support le plus agréable de lecture ; -* la technologie des terminaux de lecture dédiés, encore en évolution, la multiplicité des formats et le doute quant à leur pérennité ; -* le prix encore élevé des lecteurs ; -* le coût de production important d’un livre numérique, même et surtout, contrairement aux idées reçues, à partir d’un fichier numérique éditeur 1 ; le manque de compétences, dans les équipes des maisons d’édition, pour élaborer ces produits ; -* le surcoût de la TVA sur un livre numérique (19,6 %) par rapport à un livre imprimé (5,5 %) ; -* le problème du droit d’auteur et de la rémunération des ayants-droit, non réglé à ce jour. Malgré ces obstacles, on voit déjà se dessiner des facteurs qui pourraient rapidement favoriser le développement de livres numériques. -* Les pratiques évoluent, plus particulièrement parmi les générations les plus jeunes, qui ont l’habitude de la lecture sur écran ; -* Les supports et les réseaux se développent également : technologies nomades (wi-fi, blue-tooth…), développement de terminaux multi-applications (smartphones, blackberries…), amélioration de l’autonomie des batteries, etc. ; -* Il est aussi intéressant, pour les éditeurs, d’entrer directement en contact avec leurs lecteurs et donc de mieux connaître leur marché ; -* Enfin, les bibliothèques consacrent une part de plus en plus importante de leur budget à l’achat de contenus numériques. Rien que pour les bibliothèques universitaires, le budget de la documentation électronique est passé de 5,9 millions d’euros en 1999 (soit un peu moins de 10 % du budget global) à 16,7 millions d’euros en 2005 (soit 20 % du budget global) 2. ____________ 1 D’après l’étude de Denis Zwirn en vue de l’élaboration d’un modèle économique de participation des éditeurs à la bibliothèque numérique européenne (Europeana), le coût moyen de réalisation d’un livre numérique optimisé est environ de 80 euros à partir de sources PAO et de 60 euros à partir d’un PDF « imprimeur » pour un ouvrage de 250 pages (contre 12 à 15 euros pour la numérisation d’un ouvrage papier de même taille). 2 Source : Sous-direction des bibliothèques et de l’information scientifique. ---- À la lumière cette étude et de plusieurs autres scrutées à la loupe publiées depuis la fin des années 90, il m'apparaît que seuls les projectivistes de pacotilles ont prédit la disparition du livre papier. Les plus sérieux savent depuis toujours que l'édition électronique ou numérique est tout simplement un maillon de plus à la chaîne traditionnelle du livre papier. Et déjà, l'histoire leur donne raison. En effet, l'édition en ligne sur Internet connaissait un succès plutôt marginal avant l'apparition de l'impression à la demande (impression d'un seul exemplaire à la fois à la demande expresse de chaque lecteur) en 1998 à l'initiative de la multinationale Xerox. Autrement dit, dès que les maisons d'édition en ligne ont pu offrir à leurs lecteurs des exemplaires papier imprimés à la demande, le succès a été instantané. Dès lors, le nombre d'éditeurs-libraires en ligne est monté en flèche en un rien de temps. Un développement si fulgurant qui le ministère français de la culture a dû tenir en 1999 une commission sur le livre numérique dont le [rapport->http://manuscritdepot.com/edition/d.dossier-edition-en-ligne.htm#1] fait encore aujourd'hui autorité en la matière. Le développement de l'édition en ligne est et demeure intimement lié au livre papier. Et il est faux de prétendre que l'attachement au bon vieux livre papier nuit au développement de la nouvelle économie du livre. Les faits prouvent le contraire. Quant à la métamorphose matérielle du livre, le livre électronique ne remplacera pas le livre papier à court terme. Si le premier prend le pas sur le deuxième, ce ne sera qu'à long terme. Le passage d'un support de l'écriture à un autre ne s'est jamais fait en mode accéléré et dans l'unanimité: pierre, bois, argile séchée, poterie, cire, papyrus, parchemin, soie, peau tannée, papier. Mais lorsqu'une initiative permet une véritable évolution, elle finit par s'imposer, comme ce fut le cas lors du passage du papyrus au parchemin, du rouleau à la feuille. ---- «Dès le début du Moyen Age, si les chrétiens parviennent à imposer l'usage du parchemin c'est que ce dernier est plus résistant que le papyrus et facilite grandement la propagation de leurs écrits. L'usage du rouleau n'est plus nécessaire, car, contrairement au papyrus, on peut dorénavant plier les feuilles sans les casser. On peut maintenant consulter aisément une page précise. Le lecteurs accède au droit à une lecture sélective et silencieuse. Il peut également écrire sur les deux faces. Les mains libérées, il peut consulter plusieurs ouvrages simultanément et les annoter s'il le souhaite. Ce faisant se constituent ainsi naturellement les premiers codices (plusieurs de codex). Certains, parmi les tout premiers sont constitués d'un assemblage de planchettes de bois ou de cire. En latin, codex, signifie ''tablette à écrire''. Les premières couvertures apparaissent. Leur fonction première est utilitaire: rassembler et protéger les feuilles de de parchemin. Il n'y a pas encore de reliure et l'ensemble est maintenu fermé par un système d'agrafes ou de lacets. Si ce monde s'impose c'est qui est d'un maniement plus facile, non seulement pour la lecture, comme nous venons de le voir, mais également pour le rangement et le repérage de textes. Ce passage du rouleau au codex est la première étape importante dans l'histoire du livre. Elle est favorisée par le christianisme, qui est à l'époque un mouvement en pleine expansion et qui a besoin d'un média moderne pour diffuser ses idées. La Bible paraîtra en codex dès le IIe siècle.» [Gutenberg 2.0, le futur du livre->http://www.mm2editions.com/fr/gutenberg.shtml] Lorenzo Soccavo, M21 Éditions, pp 25-26 À voir : [Carnet de l'auteur->http://www.nouvolivractu.cluster21.com/] ---- Au Québec, ce n'est pas le fétichisme du livre-objet qui bloque le futur électronique et numérique du livre mais l'ignorance dans laquelle la population est maintenue par les médias peu bavards sur le sujet, la peur maladive de la chaîne du livre face aux changements et enfin le manque de leadership de nos gouvernements. L'éditorialiste Mario Roy aurait eu avantage à souligner les différences entre le futur du livre au Québec et le futur du livre en France. Par exemple, lorsqu'il parle de l'impression à distance et de l'impression à la demande dont le règne se fait attendre malgré les prédictions, il faut souligner que la France compte des dizaines d'imprimeurs à distance et à la demande alors que le Québec n'en compte pas un seul! En fait, la plupart des pays européens ont au moins un imprimeur à la demande, à l'initiative du Conseil de l'Europe. Ici, la Société de développement des entreprises culturelles du Québec (SODEC) soutient qu'il y a pas de demande pour l'édition en ligne, alors pour ce qui est de l'impression à la demande, on peut imaginer que la société d'état a la même attitude car l'édition en ligne et l'impression à la demande vont de pair. Autre exemple, lorsque Mario Roy ajoute que, parmi les facteurs freinant la métamorphose matérielle du livre, il faut noter «l'intervention de l'État, qui a pour effet de rendre plus coûteuse pour le consommateur l'édition électronique», il ne faut pas oublier la note en bas de page qui accompagne la déclaration: «D’après l’étude de Denis Zwirn en vue de l’élaboration d’un modèle économique de participation des éditeurs à la bibliothèque numérique européenne (Europeana), le coût moyen de réalisation d’un livre numérique optimisé est environ de 80 euros à partir de sources PAO (Publication assistée par ordinateur) et de 60 euros à partir d’un PDF « imprimeur » pour un ouvrage de 250 pages (contre 12 à 15 euros pour la numérisation d’un ouvrage papier de même taille)». Autrement dit, on parle ici de l'édition électronique des livres papier produits par les éditeurs traditionnels devant alimenter la Bibliothèque numérique européenne. En fait, il s'agit ici d'une deuxième édition de la même oeuvre et cela s'applique uniquement dans le cas où il y a un projet de Bibliothèque numérique en chantier mais ce n'est pas le cas au Québec. Lorsqu'on parle de l'édition électronique, il s'agit donc généralement de la première édition d'une oeuvre, habituellement une oeuvre refusée par les éditeurs traditionnels. Dans le contexte québécois, les coûts d'une première édition qui serait uniquement numérique représentent une économie très appréciable si l'on se réfère à l'aide gouvernementale accordée à l'éditeur québécois accrédité qui s'élève en moyenne à 5,319$ par titre édité sur support papier. Personnellement, je préfère un coût moyen de réalisation de 120.00$ (80 euros) plutôt que les 5,319$ que nous devons investir au Québec en aide gouvernementale. En moyenne, pour lancer un livre de littérature générale, un éditeur québécois devra avancer 12,360 $. Le gouvernement versera une aide de 5,319 $ et couvrira ainsi 43% de ces coûts de production du livre. En fin de compte, l'éditeur déboursera seulement 7,041$ ou 57% de ses coûts totaux. L'édition numérique nous permettrait de réaliser une économie importante dans les budgets d'aide gouvernementale à l'édition. Une telle économie nous permettrait d'investir dans une imprimerie à la demande. Mario Roy conclut son texte en ces mots :«Bref, il est clair que l'amour de l'objet livre - ou, au choix, le fétichisme du «livre-objet» comme on disait jadis la «femme-objet»! - est plus fort que tout.» C'est vrai au Québec mais en France il ne faut tout de même pas passer sous silence le développement fulgurant de la nouvelle économie du livre notamment de l'édition en ligne et de l'impression à la demande grâce à l'implication du Conseil de l'Europe qui reconnaît ainsi contribuer au futur du livre. Au Québec, quand on parle du futur du livre, il faut précisé que ce futur est ailleurs. L'édition en ligne au Québec est l'oeuvre de pionniers qui ouvrent son chemin à l'image de l'explorateur, la machette à la main et la sueur au front, dans une forêt amazonienne. Au Québec, les pionniers de l'édition en ligne lancent des appels sans même recevoir un accusé de réception alors que sur le Vieux Continent les ministres de la culture les invitent à témoigner de leurs expériences au siège même du Conseil de l'Europe. On y parle de démocratisation de l'accès à l'édition, de l'amélioration de la diversité éditoriale, de la protection de la diversité culturelle, de la liberté d'expression des auteurs, du libre choix des lecteurs et même de la formation des nouveaux travailleurs de cette nouvelle économie du livre. Au Québec, tout ce qu'on trouve à faire c'est de dire que le livre papier est plus fort que tout. En France, [Le Monde mise sur le « Kindle »->http://www.lavienumerique.com/articles/71977/monde-mise-kindle.html], [le journal Les échos est disponible sur e-paper->http://www.lesechos.fr/epaper/index.htm], pendant que [M21 Editions joue les précurseurs->http://www.industrie-technologies.com/article/page_article.cfm?idoc=123247&navartrech=1&id_site_rech=11&maxrow=72] en offrant «une bibliothèque interactive comprenant l’appareil de lecture pour livres électroniques, de nombreux livres au format e-book, ainsi que l’accès à la communauté de discussion, cluster21.com, pour échanger sur les thématiques abordées dans ces livres.» Au Québec, la Bibliothèque nationale veut utiliser un «scanner» pour numériser des livres orphelins, épuisés («out of print»). Une telle initiative revient aux éditeurs eux-mêmes, non pas à l'état. Non seulement le futur du livre est ailleurs, mais tout le monde est tout mêlé. Serge-André Guay, président éditeur Fondation littéraire Fleur de Lys TÉLÉPHONE (514) 680-1211 (Montréal, Québec, Canada) ADRESSE POSTALE Fondation littéraire Fleur de Lys, 6678, 25ème Avenue, Montréal, Québec. H1T 3L7 ADRESSE ÉLECTRONIQUE contact@manuscritdepot.com SITE INTERNET [http://www.manuscritdepot.com->http://www.manuscritdepot.com] SOURCE [Webzine de la Fondation littéraire Fleur de Lys->http://manuscritdepot.com/internet-litteraire/index.htm]
2008-05-13 07:02:30
Avec le printemps vient d'éclore le nouveau projet "Outils-réseaux" ! Une nouvelle structure : l'association "Outils-réseaux" Depuis 2004, l'[association Tela Botanica->http://www.tela-botanica.org] pilotait le programme "Outils-réseaux", en collaboration avec de nombreux intervenants et partenaires. Pour rendre plus lisible et cohérent le projet et ainsi optimiser son fonctionnement, nous avons décidé de rendre autonome le programme outils-reseaux. Une association "Outils-réseaux" a donc été créée en avril 2008, avec pour objectif d'assurer le fonctionnement du programme "Outils-réseaux" : "Outils-réseaux a pour but d'initier et d'accompagner les pratiques coopératives, en s'appuyant notamment sur des outils Internet. Son territoire d'action privilégié est la Région Languedoc-Roussillon. Outils-réseaux est en interconnexion avec des initiatives francophones comparables." (article 4 des statuts) En 2008, une part des activités restera au sein de l'association Tela Botanica aux vues des partenariats engagés, mais dès 2009, toute l'activité sera autonome. Nous étudions parallèlement la possibilité d'un passage en scop ("[Kaleïdos.coop->http://kaleidos-coop.org]"), c'est une piste que nous continuons à explorer... Une nouvelle équipe Qui dit nouvelle structure, dit nouvelle équipe : - David Delon : informaticien, formateur - Jessica Deschamps : infographiste, chargée de communication - Mathilde Guiné : coordinatrice, formatrice - Laurent Marseault : coordinateur, animateur, formateur - Florian Schmitt : informaticien, formateur Ces noms vous disent quelque chose ? Ce sont en fait les différentes personnes qui intervenaient déjà dans "Outils-réseaux" qui se sont regroupées et qui se structurent en équipe. ... et un nouveau conseil d'administration - Jean-Michel Cornu : président - Michèle Cornillon : trésorière - Daniel Mathieu : secrétaire Un nouveau site : [outils-reseaux.org->http://www.outils-reseaux.org] Le site outils-reseaux.org a été "re-looké" pour l'occasion : nouveau graphisme, nouvelles fonctionnalités, des ressources et des contenus de formation nettoyés et ré-organisés ! De nouvelles coordonnées Nous restons hébergé au même endroit mais nous changeons de numéro de téléphone. Pour nous joindre, composez le : 08 70 44 52 60 (prix d'un appel local). Un nouveau programme de formations Le programme de formations "Outils-réseaux" se poursuit, avec plusieurs dates déjà prévues pour la fin de ce semestre : - [Charte graphique de votre outil Internet->http://outils-reseaux.org/wakka.php?wiki=ModCourt160508], vendredi 16 mai 2008 - Montpellier (Lycée Agropolis) - [Atelier wikini->http://outils-reseaux.org/wakka.php?wiki=ModCourt230508], vendredi 23 mai 2008 - Alès (dans les locaux de Solid@rnet) - [Des outils et des méthodes pour le télé-travail->http://outils-reseaux.org/wakka.php?wiki=ModCourt060608], vendredi 6 juin 2008 - Montpellier (Lycée Agropolis) - [Stages sur projet : votre projet coopératif de A à Z->http://outils-reseaux.org/wakka.php?wiki=StagesOutilsInformatiques], du 16 au 18 juin 2008 - Montpellier (Lycée Agropolis) - [Des outils, des usages et des méthodes pour coopérer->http://outils-reseaux.org/wakka.php?wiki=ModCourt200608], vendredi 20 juin - Nîmes (lieu précisé ultérieurement) Pour le prochain semestre, nous souhaitons recueillir votre avis pour programmer des stages correspondant à vos besoins : répondez à notre sondage en ligne : [http://www.outils-reseaux.org/enquetes->http://www.outils-reseaux.org/enquetes] ! Un nouveau système de gestion des contacts Nous inaugurons également une nouvelle méthode pour gérer la diffusion d'informations, avec le gestionnaire de contact "phpliste". Vous pouvez complètement configurer vos préférences pour ne recevoir que l'information qui vous intéresse (ou vous désabonner) , pour cela cliquez sur [le lien suivant->http://outils-reseaux.org/listes]. A bientôt pour la suite des actions "Outils-réseaux", Coopérativement votre, L'équipe "Outils-réseaux"
2008-04-07 06:34:22
Pour ceux qui connaissent bien les différentes facettes de la révolution numérique, l'essai de Milad Doueihi n'en apprendra pas beaucoup plus. Pour ceux qui n'en connaissent que ce qu'en rapporte la presse généraliste ou, pire, les médias télévisés, il est absolument essentiel. Très bon ouvrage de vulgarisation donc, La Grande Conversion numérique fera date non pas tant par ce qu'il contient, que par la position de celui qui l'a écrit : « Je commencerai par une confession, peut-on lire dès la première page. Je ne suis pas informaticien, ni technologue. Je ne suis pas non plus juriste, spécialisé dans la propriété intellectuelle et les subtilités du copyright. Je me considère comme un numéricien par accident, un simple utilisateur d'ordinateur qui a suivi les changements de l'environnement numérique au cours des vingt dernière années ». Fractures numériques Historien des idées en Occident, Milad Doueihi est en effet ce qu'il est convenu d'appeler un lettré ; autrement dit un universitaire de sciences humaines, ce qui n'est pas sans conséquence sur le point de vue à partir duquel il examine les caractéristiques et les conséquences de la révolution, ou plutôt de la « grande conversion » numérique. Fin connaisseur de l'histoire des religions, c'est en effet par ce paradigme qu'il entre en matière. Pour lui, le concept de conversion est intéressant. Du point de vue du religieux, il exprime un changement radical de perspective ; une remise en cause fondamentale et profonde de tous les éléments constitutifs d'une vision du monde. Sous l'angle technique, il désigne l'opération par laquelle des éléments provenant de l'ancien monde, le monde analogique, sont transmutés, convertis dans le nouveau monde, numérique celui-là. La révolution numérique est donc pour l'essentiel un processus civilisateur contribuant à l'émergence d'une nouvelle culture ; la culture numérique. Comme dans toutes les périodes de changement culturel important, la nôtre est caractérisée, selon Milad Doueihi, par une multiplication de fractures et de conflits, par l'examen desquels il ouvre son premier chapitre. Les « fractures numériques » qui traversent notre époque concernent d'abord l'affaiblissement puis la disparition programmée de la culture de l'imprimé. Les nouveaux modes de lecture à l'écran, aidés d'outils d'agrégation d'information comme les flux RSS font émerger une « compétence numérique » particulière qui n'est pas partagée par tous. Seconde fracture, celle qui oppose les tenants et les opposants des [?DRM], ces systèmes de gestion informatique des droits qui limitent les usages des oeuvres numériques en fonction de la seule volonté des éditeurs. L'auteur n'a pas tort de considérer que l'une des conséquences les plus importantes des nombreuses batailles qui ont émaillé l'histoire du développement puis du reflux des [?DRM] fut de permettre une appréhension du code informatique comme une forme d'écriture définissant une nouvelle compétence lettrée aux côtés de compétences plus traditionnelles. Cette nouvelles compétence lettrée s'exprime d'une autre manière encore, par l'émergence de formes d'écriture ouvertes, collaboratives et relativement anonymes, telles qu'on peut les voir à l'oeuvre avec Wikipedia. Cette nouvelle dimension de l'écriture, ou plutôt de la lecture-écriture, Milad Doueihi la qualifie de « tendance anthologique », parce qu'elle est faite de recompositions permanentes, d'assemblages, qui s'inscrivent dans la longue tradition encyclopédique. Il reste, pour finir ce premier tour d'horizon, que ces activités se développent sur fond de « guerres civiles numériques » : vols d'identité, [?phishing], censures diverses, fichage généralisé et de plus en plus biométrique en sont les manifestations les plus éclatantes. Cité numérique Dans le chapitre qui suit, intitulé « le blogage de la cité », l'auteur explore la manière dont une véritable cité numérique, appuyée sur une citoyenneté d'un nouvel ordre est en train de se constituer par l'intermédiaire d'outils comme les blogs, les fils RSS, les wikis et logiciels sociaux. L'idée principale qu'il tente de développer est que la cité numérique emprunte aux deux modèles mis en évidence par Benveniste dans l'héritage politique occidental, à savoir la cité romaine, basée sur la solidarité réciproque des citoyens entre eux, la civitas, et la cité grecque, essentiellement fondée par une référence à l'espace, par l'autochtonie. Ainsi la cité numérique doit-elle à l'une par la blogosphère, la syndication de contenus, les trackback, et à l'autre par l'émergence de communautés construites, rassemblées sur des espaces virtuels. Finalement, l'auteur en revient, à l'occasion d'un examen plus approfondi du cas Wikipedia à ce qui l'intéresse le plus : la tendance anthologique par laquelle la frontière entre auteur et lecteur tend à s'effacer et la traditionnelle culture de l'imprimé progressivement oubliée. C'est lorsqu'il évoque les conditions juridiques dans lesquelles les activités numériques se déploient que l'argument est le plus faible. Rassemblant dans un sigle commun, le FLOSS (Free, Libre and Open Source Software) plusieurs mouvements dont la logique est très différente, il survole un paysage qui se révèle intéressant surtout dans ses détails. La situation des publications académiques et scientifiques, pourtant bien connue de l'auteur, et dont les relations avec la problématique du logiciel libre est particulièrement riche, fait l'objet d'une description finalement peu instructive et imprécise (ainsi de la confusion entre open access et open archive). La question de la propriété intellectuelle est un point de passage obligé pour tout analyste de la révolution numérique. Milad Doueihi ne semble pas trouver sur ce sujet un angle d'attaque pertinent, ne faisant que confirmer ce qu'on savait déjà : l'inadaptation sur ce sujet, du droit par rapport aux pratiques de création numériques. L'archive et Pierre Ménard Il n'en va pas de même du chapitre par lequel se termine cet ouvrage. Intitulé « archiver l'avenir », ce passage constitue une des approches les plus intéressantes sur l'impact des réseaux numériques sur notre société. Alors en effet que les questions des archives numériques font la plupart du temps l'objet de développements spécifiques, techniques et spécialisés (quel support, quel format, quelle pérénnité), l'auteur choisit au contraire de les relier à toutes les autres problématiques, évoquées dans les chapitres qui précédent. Ainsi, derrière les questions de l'archive se cache généralement la question de l'index (qu'est-ce qui est indexé, par qui, comment ?), donc des moteurs de recherche qui créent dans leur index, une archive du web. Derrière la question de l'archive se cache celle de la mémoire aussi, bien sûr, mais surtout de la mémoire des traces que nous laissons dans le cyberespace et donc de la conservation et de l'accès à toutes nos données personnelles. Finalement, l'archive, c'est aussi ce par quoi le monde analogique, et singulièrement la masse des documents imprimés, est « converti » dans le monde numérique.On ne sera pas surpris de retrouver l'inévitable Google solidement installé au centre de toutes ces problématiques. C'est cette approche par l'archive qui conduit Milad Doueihi à inscrire dans la société numérique l'héritage de Pierre Ménard. Le recours au célèbre personnage d'une nouvelle de Borgès est ici particulièrement pertinent. Car Pierre Ménard représente très bien la manière dont cette société construit nos identités personnelles par construction d'archives (conservation et indexation) d'actes d'écriture, et comment cette écriture se construit à partir d'une multiplicité d'actes de lecture (la tendance anthologique). C'est là le point d'aboutissement, à la fois passionnant et limité de La Grande Conversion numérique. Milad Doueihi n'est ni un informaticien, ni un technologue, ni un juriste spécialisé. Il est un historien des idées qui analyse finalement sous l'angle qui lui est le plus familier la révolution qu'il est en train de vivre.Et c'est loin d'être inintéressant. Mais ce faisant, il ignore les pratiques sociales, les relations économiques et les développements technologiques qui sont constitutifs d'une révolution numérique dont on voit bien qu'il est encore impossible de faire la synthèse. [Milad Doueihi, La Grande Conversion numérique, paris, Seuil, 2008, 271p.->http://www.amazon.fr/gp/product/2020964902?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2020964902] --------------------------------------- Crédit photo : [ «Good morning shadows»->http://www.flickr.com/photos/zachstern/378322049/], par Zachstern, sur Flickr en CC by-nc-sa 2.0
2008-04-02 03:14:29
Organisés par un collectif de formateurs, issus d'associations et de réseaux implantés en Languedoc-Roussillon (Tela Botanica, le Réseau Ecole et Nature, les Ecologistes de l'Euzière), les stages "Outils informatiques pour fonctionner en réseau" visent l’appropriation, par des utilisateurs peu techniques, des outils collaboratifs sur Internet (Wiki, agendas partagés, forums,...), disponibles en logiciels libres.
Pour découvrir, utiliser ou maîtriser les outils collaboratifs, inscrivez-vous vite aux prochains stages "Outils-réseaux" ! 1 stage de 3 jours en Juin, à Montpellier Un stage de 3 jours (du 16 au 18 juin 2008) pour monter un projet collaboratif de A à Z : de la conception, à l'animation en passant par la réalisation technique. _ Coût : 600€ ou 300€ (individuel) _ Voir le descriptif complet sur le site [outils-reseaux.org|site outils-reseaux.org->http://outils-reseaux.org/papyrus.php?menu=99]. 3 stages courts à Montpellier : - Vendredi 11 avril 2008 - Installer son dispositif coopératif : SPIP : en installant SPIP (Système de Publication pour l'Internet Participatif, logiciel libre pour créer un site Internet dynamique), vous découvrirez comment choisir un hébergeur, réserver un nom de domaine, installer une application par FTP, la configurer, et la personnaliser. - Vendredi 16 mai 2008 - Charte graphique de votre outil Internet : des notions techniques (CSS et squelettes html), de graphisme et d'ergonomie pour personnaliser vos mailing et vos sites Internet collaboratifs : astuces, règles, techniques à maîtriser. - Vendredi 6 juin 2008 - Des outils et des méthodes pour le télé-travail : pour désengorger les centres urbains, favoriser le choix du lieu de vie, le télé-travail apparaît comme une alternative attrayante, facilitée par le développement des outils collaboratifs. Dans la pratique, quels freins peut-on rencontrer ? Quelles solutions apporter ? --> Ces stages durent une journée de 9h30 à 17h30 et se déroulent à Montpellier, dans les locaux du Lyçée Agropolis. _ Participation aux frais : 15 euros (repas 7,50€). 2 stages courts dans le Gard : - Atelier wikini, vendredi 23 mai à Alès 2008 (dans les locaux de Solid@rnet) : utiliser Wikini, cet outil dédié à la rédaction coopérative sur Internet : qu'est-ce qu'un Wiki ? Les principales fonctionnalités de Wikini (écrire, mettre en forme du texte, créer une page, joindre un fichier), et s'initier à l'administration (suivre la vie du wiki, protéger des pages, ...). Nous mettons à votre disposition un espace prêt à l'emploi que vous pourrez conserver pendant un an. - Des outils, des usages et des méthodes pour coopérer, vendredi 20 juin à Nîmes 2008 (lieu précisé ultérieurement) : dans ce module, vous découvrirez des outils et des usages, mais aussi comment animer de tels dispositifs coopératifs : ce qui freine, ce qui facilite la participation, avec des apports théoriques, des retours d'expériences et de l'analyse de pratiques. --> Ces stages durent une journée de 9h30 à 17h30. Participation aux frais : 20 euros. Contacts, renseignements et inscriptions Mathilde Guiné _ Programme "Outils-réseaux" _ http://www.outils-reseaux.org _ Tel : 04 67 52 41 22 _ accueil@outils-reseaux.org
2008-05-27 01:34:19
Pour la 4è année consécutive, trois associations montpelliérennes organisent une rencontre MOUSTIC sur les usages innovants des TICs à forte valeur ajoutée sociale ou sociétale (Mise en Œuvre d’Usages Sociaux et sociétaux de l’internet et des TICs), en mettant cette année l’accent sur le thème "usages d’internet et coopération". D’une pièce en un acte, on passe cette année à une pièce en 3 actes. Il y sera question non seulement de projets qui n’ont pas encore été présentés mais aussi du devenir de projets qui ont déjà fait l’objet de présentations les années précédentes "que sont-ils devenus ?" En matière d’internet et de Technologies de l’Information et de la Communication (TICs), les acteurs de l’économie sociale et solidaire, se révèlent souvent promoteurs de nouveaux usages, au travers des projets qu’ils développent et des pratiques de leurs usagers. Afin de découvrir des projets de ce genre, nous vous proposons pour la quatrième année consécutive à Montpellier une rencontre MOUSTIC sur les usages innovants des TICs à forte valeur ajoutée sociale ou sociétale (Mise en Œuvre d’Usages Sociaux et sociétaux de l’internet et des TICs). Cette année, Moustic se déroulera en trois temps, "trois actes" : une rencontre en juin, un événement en juillet et deux temps en octobre - novembre ! L’acte I de Moustic 2008 aura lieu le jeudi 19 juin 2008 et sera l’occasion de partager les expériences de chacun et d’ouvrir une réflexion collective. La rencontre comportera la présentation de projets TIC avec un retour sur des projets présentés lors des précédentes éditions de Moustic et de nouveaux projets. Cet état des lieux servira de base à une discussion et à un questionnement collectif autour de la notion de coopération. La rencontre se terminera par un temps convivial d’échange entre les participants. L’entrée est libre, dans la mesure des places disponibles. Contact : Pour en savoir plus, contactez-nous par mail à l’adresse suivante : moustic2008@outils-reseaux.org, ou par téléphone au 08 70 44 52 60. Pour participer et/ou inscrire un projet Consultez [le site des journées Moustic->http://www.moustic.info/wakka.php?wiki=Moustic4Acte1]. Lieu de l’évènement Espace Martin Luther King 27 Bd Louis Blanc 34000 Montpellier Tram Louis Blanc ou Corum Programme de la journée MOUSTIC 2008 - Acte I - 14h - 14h30 : accueil - 14h30 - 16h : échange entre porteurs de projets - 16h - 16h30 : pause - 16h30 - 18h : synthèse et débats - 18h - 19h : échanges conviviaux d’expériences et démonstrations autour d’un cocktail piquant Et bientôt... - Moustic 2008 - Acte II : 9 au 11 juillet, retransmission et participation locale en visio-conférence au Forum des usages coopératifs de Brest - Moustic 2008 - Acte III : 2 évènements dans le cadre du mois de l’économie sociale et solidaire (Octobre- novembre 2008) : * une journée de présentation de projets dans le cadre d’ateliers thématiques, * une synthèse - débat avec la participation de Jean-Michel Cornu, directeur scientifique de la FING, spécialiste de la coopération. Les partenaires de MOUSTIC 2008 : - Outils-réseaux :[ http://www.outils-reseaux.org-> http://www.outils-reseaux.org] et l’association Tela Botanica :[ http://www.tela-botanica.org-> http://www.tela-botanica.org] - Observatoire des Usages de l’Internet : [http://oui.net->http://oui.net] - ECM Kawenga : [http://www.ecmkawenga.com->http://www.ecmkawenga.com]
2009-03-24 09:10:16
Comme prévu, les premiers débats au Parlement portant sur la loi création et Internet [ont été houleux->http://www.numerama.com/magazine/12306-Video-Quand-Albanel-compare-l-Hadopi-a-la-Gestapo.html]. Comme [il y a trois ans avec la loi Dadvsi->http://blog.homo-numericus.net/article49.html], le gouvernement se heurte à une opposition moins massive que virulente de la part de députés provenant aussi bien des rangs de la majorité que de l'opposition. Le sujet, pour le moins technique, n'est a priori pas propice au déchaînement des passions. Porteur de propositions destinées à permettre de lutter plus efficacement contre le téléchargement illégal - c'est à dire, clairement, la contrefaçon - sur Internet, il devrait normalement faire consensus. Car il s'agit ni plus ni moins, selon ses partisans, que de promouvoir la culture et défendre la fameuse «exception française». Mais non ; loin du consensus espéré, les protagonistes se combattent avec ardeur par colonnes de journaux et de sites interposés, ou sur les plateaux des quelques émissions radio-télévisées qui abordent le sujet. Pour une bonne part le débat actuel se situe dans la continuité de celui qu'a provoqué l'adoption de la loi Dadvsi. Il s'agit toujours de savoir s'il faut réprimer ou encourager des comportements de partage de contenus numériques qui semblent très naturels aux utilisateurs d'Internet mais sont en contradiction flagrante avec le droit de la propriété intellectuelle. D'un certain point de vue, le débat ressemble à un de ces nombreux remake de la bataille des Anciens et des Modernes dont la France a le secret. Il faut pourtant y regarder de plus près. Car les discussions qui se sont multipliées sur Internet ces dernières semaines laissent entrevoir des éléments d'évolution qui annoncent l'après-Hadopi. 1. Les véritables cibles de cette loi ne sont pas les internautes mais les industrie de télécommunication, et d'abord les fournisseurs d'accès Il n'est guère difficile de comprendre que par le dispositif de l'Hadopi, le gouvernement souhaite sortir du face à face entre le pirate individuel et les sociétés détentrices de droits, en y faisant entrer des fournisseurs d'accès qui ne se sont jamais sentis vraiment responsables des usages qui pouvaient être faits de leurs réseaux. Une récente interview de la Ministre de la Culture publiée [dans le quotidien 20 minutes->http://www.20minutes.fr/article/309163/Culture-Christine-Albanel-Non-je-ne-telecharge-pas.php] laissait entrevoir cette dimension habituellement quelque peu souterraine : «Quid des fournisseurs d'accès à Internet? Ils vont être mis à contribution. Ils devront répondre aux demandes de la Haute Autorité (Hadopi) de fournir les coordonnées des internautes dont l’accès a été utilisé pour pirater. Ils devront également suspendre l' abonnement au Web sans toucher au téléphone et à la télé, quand les foyers ont choisi l’offre triple play. Qui va payer le coût des développements techniques? C'est à discuter. Ce sont des investissements faits une fois pour toutes, réalisés par des entreprises dont le chiffre d’affaires est tout de même très considérable, malgré la crise.» La remarque sur ces entreprises «dont le chiffre d'affaires est tout de même très considérable, malgré la crise,» en dit long sur l'arrière-plan à partir duquel la loi est élaborée, et ce depuis le [rapport Olivennes de 2007->http://www.culture.gouv.fr/culture/actualites/index-olivennes231107.htm]. C'est bien à une tentative de revanche des industries culturelles sur les industries de la communication - les «telcos», que l'on assiste. Pour le comprendre, il faut relire la fameuse étude intitulée [Enjeux économiques de la distribution des contenus ->http://www.cerna.ensmp.fr/Documents/OBetalii-P2P.pdf] menée par Olivier Bomsel et Gilles Leblanc, décrivant le piratage comme un «transfert d'utilité» (et donc de valeur ajoutée) d'une industrie vers l'autre. Ce que tente de faire le projet de loi, c'est d'abord de contrarier ce transfert, non pas tellement en donnant les moyens aux industries culturelles de se développer (la croissance des offres légales est toujours aussi lente et le projet de loi ne le soutient pas particulièrement), mais plutôt en faisant peser des contraintes, techniques et financières sur les fournisseurs d'accès (FAI). Ainsi, dans un autre entretien, la Ministre affirme benoîtement que son projet de loi [diminuera les coûts de bande passante des FAI->http://www.numerama.com/magazine/12211-Albanel-les-FAI-gagneront-en-bande-passante-avec-la-riposte-graduee.html], dûs en partie aux échanges de peer-to-peer, et fait semblant d'ignorer que le développement considérable de ce secteur - notamment avec les offres de haut débit- a précisément reposé sur l'extension de ces échanges. Ainsi, le projet de loi est tout à fait cohérent avec d'autres mesures de même nature, par exemple celle consistant à [taxer les revenus de ces mêmes entreprises->http://www.zdnet.fr/actualites/internet/0,39020774,39381967,00.htm?xtor=RSS-1] afin de compenser l'absence de recettes publicitaires sur les chaînes de télévision publiques. Il s'agit encore et toujours de contrarier le déplacement de valeur d'une industrie à l'autre. Considérer les débats en cours sous cet angle change la perspective : l'internaute y apparaît davantage comme une victime collatérale d'un combat de géants sur la captation des profits qu'il génère, qu'une véritable cible. Il est à noter que les solutions de type licence globale poursuivent au bout du compte la même fin : mettre en place un mécanisme de compensation financière par lequel les «telcos» sont conduits à relayer des industries culturelles en déclin pour le financement de la création. La différence est grande cependant, entre les deux solutions en balance. Car dans un cas - l'Hadopi - l'argent collecté sert à financer un dispositif réprimant les usages ; il s'agit en quelque sorte de contraindre les utilisateurs à se maintenir dans le cadre ancien afin de redonner aux industries culturelles le contrôle qu'elles ont eu sur la création, alors que dans l'autre - la licence globale - il s'agit de libérer les nouveaux usages, synonymes, et c'est la raison pour laquelle elles n'en ont pas voulu, d'une marginalisation définitive de ces industries. Ce à quoi nous assistons, c'est donc à un mouvement de fond de «désindustrialisation» de la culture au profit d'une affirmation des industries de l'information et des communications au centre de la chaîne de création de valeur. La loi Création et Internet cherche à empêcher ce mouvement ; le pourra-t-elle ? La question reste entière. 2. Le streaming comme alternative au téléchargement Au fil des semaines, les différentes interventions ont progressivement présenté la solution du streaming légal comme une alternative salutaire au téléchargement illégal. Poussant en avant l'exemple de [Deezer->http://www.deezer.com], ils ont trouvé l'argument imparable permettant d'avancer que la loi Création et Internet n'empêchera pas l'accès de tous aux oeuvres culturelles, parce que celui-ci sera garanti par la diffusion de ces oeuvres en streaming. De manière un peu inconséquente, certains opposants à la loi critiquent celle-ci sur la base du même argument, affirmant que cette loi est obsolète puisque les usages sont en train de basculer de ce côté. Les uns et les autres semblent ignorer que ce mode de diffusion des oeuvres sur les réseaux constitue en réalité une régression considérable dans l'histoire du développement d'Internet. Le streaming est en effet un retour vers un régime médiatique bien connu : celui de la télévision, de un vers tous, basé sur une incapacité à peu près totale du récepteur de l'information à en faire quoi que ce soit d'autre que de la consommer. Cette évolution, identifiée par Benjamin Bayard comme [relevant du Minitel->http://www.ecrans.fr/Tout-le-monde-a-interet-a,5762.html], est absolument contradictoire avec les principes historiques du réseau Internet, fondé sur une égalité formelle entre participants, dont tous doivent pouvoir émettre de l'information autant qu'ils en reçoivent. Jonathan Zittrain [montre bien->http://www.amazon.com/Future-Internet-How-Stop/dp/0300151241] combien c'est cette structure particulière du réseau, dite «end-to-end», qui lui donne la capacité d'innovation dont il a faire preuve depuis le début, qu'il appelle «generative Internet», et qui est aujourd'hui menacé. Le basculement rapide des modes de circulation des oeuvres culturelles vers le streaming constitue donc un risque considérable de dénaturation des échanges sur Internet et un véritable retour en arrière vers un système de circulation de l'information bien connu. Dans la continuité des rapports de force qui s'établissent entre deux secteurs industriels, on comprend qu'il plaise autant au gouvernement qui doit voir en lui un retour rassurant vers des rivages connus et maîtrisés, ceux de la diffusion centralisée et oligopolistique de l'information, par de gros acteurs qu'il est plus facile de maîtriser que des millions d'usagers disséminés sur tout le territoire. Le [«Portrait du pirate en conservateur de bibliothécaire»->http://www.lekti-ecriture.com/contrefeux/Portrait-du-pirate-en-conservateur.html], publié récemment sur le blog Lekti-écriture explique parfaitement bien les enjeux proprement culturels qui se cachent derrière la question très technique des modes de diffusion. Les pratiques des pirates sur les réseaux peer-to-peer, argumente-t-il, sont très proches des pratiques documentaires que connaissent les bibliothèques. Ce sont donc des pratiques de maîtrise de l'information, d'organisation autonome de la culture, de patrimonialisation et donc de mémoire, de diversité culturelle aussi. Le streaming, comme la télévision du reste, représente une prolétarisation culturelle des individus, ne possédant rien en propre, dépendant des programmes imposés par les diffuseurs, et dont la mémoire est conditionnée par les catalogues actuellement disponibles sur les plateformes. Dans un cas l'individu est indépendant, dans l'autre, il est sous contrôle. La question du streaming est le complément indispensable de la question précédente : dans l'élaboration de la loi, industries culturelles et industries de la communication se disputent le contrôle. De quoi ? du temps de cerveau disponible bien sûr, avec des différences très importantes sur le moyen de le monétiser et sur le type de relation que ces industries établissent avec leur usagers. 3. A la recherche de nouveaux modèles économiques Que ce soit avoué ou non, il n'est plus guère d'acteurs à croire, même parmi ses partisans, que la loi Création et Internet constitue un modèle économique suffisant. On ne peut qu'être frappé de constater combien tous semblent partis à la recherche, quelquefois désespérée, de nouveaux modèles économiques. De ce point de vue, la situation est très différente de celle que nous connaissions lors du vote de la loi Dadvsi, authentique fétiche sur lequel toutes les industries culturelles ont voulu se reposer pour éviter de penser à une refonte de leur modèle d'affaire. Aujourd'hui au contraire, les idées fusent, et d'abord parce qu'on sait que la crise économique qui frappe ces industries est bien plus large que la simple question du piratage. De l'information à la musique en passant par le livre et le cinéma, les propositions sont multiples. Leur point commun ? Certainement la diversification des sources de revenus. Car plus personne ne semble croire à l'unicité de modèles qui reposeraient uniquement ou bien sur la diffusion payante ou bien sur la publicité (pour la presse), sur la vente de cd (pour la musique) ou les entrées en salle (pour le cinéma). Le développement de systèmes complémentaires de type «freemium» (accès gratuit pour construire une popularité et vente de services ou d'objets premium), ou de merchandising - qui ne datent pas d'aujourd'hui, mais aussi, timidement, l'apparition de systèmes de financement par souscription ([à l'exemple de Kassandre->http://www.kassandre.org/?Bientot-le-nouveau-Backstage]) ou de financement par les dons (comme [Wikipedia->http://wikimediafoundation.org/wiki/Donate]), sont autant de manifestation de cette diversification à l'oeuvre. C'est très clairement la position que prend la toute nouvelle Secrétaire d'Etat pour le développement de l'économie numérique, Nathalie Kosciusko-Morizet, qui, incapable de prendre la main sur un dossier géré directement par le Ministère de la Culture, [se positionne sur l'après-Hadopi->http://electronlibre.info/La-vraie-interview-de-NKM,289], et déclare vouloir travailler à l'émergence des nouveaux modèles. La [récente interview de Chris Anderson sur ces modèles->http://www.ecrans.fr/Chris-Anderson-A-l-avenir-chaque,6694.html] justement, reposant tous, selon lui, sur une part de gratuité, constitue un bon éclairage sur la situation actuelle. Le projet de loi Création et Internet, qui vise à faire revenir de force les consommateurs dans le cadre des «offres légales», c'est-à-dire de la vente de CD physiques ou en ligne, semble bien en arrière. C'est la raison pour laquelle la plupart de ses partisans n'en attendent pas grand-chose sur le plan économique. Comme il a été dit précédemment, il s'agit surtout de faire respecter un point de principe : le droit d'auteur est inviolable, et de contraindre ou punir les industries qui profitent des usages qui le bafouent. Pour le reste, ils savent ou doivent savoir qu'ils pourront compter uniquement sur leurs propres forces, leur savoir-faire commercial et leur imagination. Hadopi ou pas, tous ne passeront pas le cap. 4. La conquête de droits numériques positifs. Quelques règles pour l'action La loi Création et Internet est l'ultime étape d'une longue série : depuis la Loi sur la Société de l'Information, puis la Loi sur la Confiance dans l'Economie Numérique, puis la Loi sur le Droit d'Auteur et les Droits Voisins dans la Société de l'Information, sans compter les différentes lois de sécurité (Loi sur la sécurité Intérieure, Loi sur la Sécurité Quotidienne), on assiste à une diminution progressive des libertés sur Internet. Les groupes qui se sont opposées à ces lois ont toujours été placés dans une position défensive, de refus de la régulation, en situation réactive par rapport à un législateur doté de l'initiative. Aujourd'hui certains commencent à penser aux moyens d'inverser la tendance et de reprendre cette initiative en partant à la conquête de nouveaux droits. On rencontre deux situations : dans un cas, ce sont de nouveaux usages qui se développent naturellement sur les réseaux - usages de partage dans le cas présent - et qui doivent être reconnus par la loi. Cela signifie probablement qu'il ne faut pas seulement proposer la licence globale comme alternative à des projets de loi jugés liberticides, mais faire inscrire cette proposition dans les plateformes électorales de partis susceptibles d'arriver au pouvoir dans les prochaines années. Autre cas : en passant du monde physique au monde analogique, on a perdu un certain nombre de droits auparavant garantis. L'exemple type est celui des libertés du salarié, qui sont bien moins protégées dès lors qu'ils concernent les réseaux informatiques. De la même manière, le basculement des pratiques de sociabilité d'un monde à l'autre, de la conversation banale entre amis à l'échange de messages sur les plateformes de réseaux sociaux comme Facebook, s'accompagne d'une remise en cause violente et hors contrôle de tous les éléments de vie privée. Jusqu'à présent, on en est resté aux dénonciations épidermiques, aux prises de conscience effrayées, sans que de véritables programmes législatifs, cohérents et négociés voient le jour. Il semble que nous soyons arrivés au bout de cette situation. La banalisation des usages d'Internet en extension et en intensité jouent en faveur d'une réflexion à la fois proactive et globale sur la question des libertés numériques : celles qu'il faut défendre et celles qu'il faut conquérir. Parce qu'ils utilisent des ordinateurs connectés dans toutes les dimensions de leur vie quotidienne - à la fois au travail et chez eux, pour faire leurs courses, faire des rencontres, professionnelles, amicales, amoureuses, pour s'exprimer, s'informer et se divertir, pour gérer leurs dossiers administratifs, les français ne semblent plus considérer Internet sous l'angle de l'étrangeté et de l'éloignement, comme c'était le cas jusqu'à récemment. L'émergence de véritables plateformes de revendications pour la reconnaissance de droits positifs concernant le numérique est une tendance qui se développera dans les mois à venir. L'initiative du [Réseau des pirates->http://reseaudespirates.org/], appelant à signer un [«Pacte pour les libertés numériques»->http://reseaudespirates.org/?q=content/le-pacte-pour-les-libert%C3%A9s-num%C3%A9riques] dont les revendications sont très variées est un début. Cette démarche vise à peser, de l'extérieur des partis politiques, sur les élections européennes, pour commencer, afin que les listes inscrivent la question dans leur programme. Elle représente sans doute un des premiers signes d'une maturation politique des utilisateurs les plus intensifs du Réseau, qui ont cru pendant longtemps pouvoir échapper aux questions de régulation formelle. Le mythe de l'auto-régulation du réseau étant en train de s'effondrer au même titre que celui de l'auto-régulation du marché, le temps semble venu pour tous les citoyens, de s'intéresser à nouveau, mais à partir de leur position spécifique, à la fabrication des lois sur les sujets qui les intéresse. Car ce que montre le projet de loi Création et Internet, c'est que le numérique, comme l'environnement, est un sujet trop important pour être laissé entre les mains des seuls politiques. ---------------------------------------------------------- Crédit photo : [Sunrise off the bow->http://www.flickr.com/photos/joiseyshowaa/2038075453/], par joiseyshowaa, en CC by-sa 2.0
2009-05-23 02:38:02
L'adoption en deuxième lecture du projet de loi
Internet et Création, qui a pour objectif de faire cesser le
piratage sur Internet par la mise en oeuvre de la méthode dite de
"riposte graduée" clôt un cycle de plusieurs semaines de
polémiques et de débats. Pour les opposants à la loi, parmi
lesquels je me compte, c'est l'occasion de faire un retour sur ces
débats et sur ce qui fait que, loi après loi, personne ne semble en
mesure d'inverser la tendance d'un législation toujours plus
répressive pour les usages d'Internet.
Il est en
particulier important de revenir sur les stratégies de
positionnement qui ont été à l'oeuvre au cours des débats.
Ceux-ci ont été marqués par une nouvelle édition de la bataille
des Anciens contre les Modernes : d'un côté les jeunes, les geeks,
les digital natives, ceux qui comprennent et vivent Internet, de
l'autre les vieux, les migrants, les tenants de l'ancien modèle,
ceux qui ne comprennent rien à Internet, dont la Ministre de la
Culture qui voit des pare-feux dans les suites bureautiques
représentent la figure la plus accomplie. Cette opposition
classique, que l'on voit rejouée depuis que l'on se préoccupe de
légiférer sur le sujet, fonctionne, en particulier parce qu'elle
reflète un schéma historique classique, rejoué à chaque
révolution technologique, mais aussi esthétique, politique,
sociale. Elle n'est d'ailleurs pas tout à fait fausse. Lorsque
Vinvin s'amuse à répliquer en alexandrins à l'agrégée de
lettres classiques, ancienne présidente du Château de Versailles,
il fait mouche. De la même manière, les débats à l'Assemblée ont
nettement fait ressortir les faiblesses d'un projet de loi
manifestement ignorant des réalités techniques qu'il prétend
contrôler.
Les Modernes ont toujours tort
Pas
tout à fait fausse, l'opposition des Anciens et des Modernes n'est
pas non plus tout à fait vraie ; et surtout, c'est ce que je vais
tenter de montrer maintenant, il est possible qu'elle enferme les
Modernes - les opposants à la loi donc - dans une position
nécessairement perdante. D'un manière générale en effet, il n'est
jamais très bon ni malin de se réclamer de la nouveauté radicale,
de la rupture absolue et de promettre des lendemains qui chantent
dans un pays aussi conservateur que le nôtre. Sauf en des périodes
bien particulières, périodes de crise profonde courtes et rares,
l'innovation et le changement sont rarement reçus avec enthousiasme
en France. C'est bien plutôt le ricanement ou la moue sceptique au
mieux, qui les accueillent. La position de faiblesse dans laquelle
les opposants à la loi se sont laissés enfermer est par ailleurs
redoublée par la question du rapport particulier que les élites
politiques entretiennent avec la technologie en général, avec
l'informatique en particulier. Il n'est pas certain en particulier
que l'ignorance de Christine Albanel, Franck Riester ou Denis
Olivennes sur ces questions ait été jugée rédhibitoire pour
légiférer.
C'est d'ailleurs le
message que la Ministre de la Culture a clairement envoyé au
lendemain de l'adoption de sa loi, en affirmant une certaine
fierté d'avoir su résister au "fétichisme" de la
technologie. Poussée dans les retranchements de son ignorance, la
voici défendant désormais une position quasi-inexpugnable : elles
ne connaît rien à aux technologies numériques ni aux subtilités
de l'informatique. Et alors ? Est-ce que cela doit l'empêcher
d'établir des règles pour un secteur d'activité qu'elle déclare
devoir être borné au nom d'une logique plus globale ? Sans doute
pas. C'est sur ce point en particulier que le décalage entre
partisans et opposants à la loi était le plus flagrant. Parmi ces
derniers, on trouve, comme souvent, beaucoup de passionnés
d'informatique et d'Internet, de ceux qui fréquentent assidûment le
réseau, le pratiquent quotidiennement, ou participent à des
communauté virtuelles diverses. Or, ces milieux particuliers
fonctionnent souvent sur le principe méritocratique où la
compétence collectivement reconnue est source essentielle de
légitimité. On peut se demander si l'incapacité de ces milieux à
faire valoir leur point de vue ne vient pas de leur tendance à
extrapoler à tort ce principe de légitimation par la compétence
dans une arène politique où il est fortement relativisé par
d'autres principes bien plus puissants.
Fiacres vs.
automobiles
La dénonciation de la technolâtrie sur
lequel la Ministre s'est finalement appuyée pour légitimer sa
position est d'ailleurs peu contestable. Elle met surtout en lumière
les contradictions et la faiblesse argumentative des opposants à la
loi qui en dénonçaient à la fois le caractère nocif et dangereux,
et en même temps l'obsolescence et l'inutilité. Si la loi est
nocive, alors il est nécessaire de se mobiliser pour la combattre.
Mais si elle est inutile et destinée à être emportée par le flot
de l'histoire dont elle prétend contrarier le sens, alors à quoi
bon sortir de chez soi ? Autant attendre que l'histoire se réalise
et, comme certain(e)s, préparer l'après-Hadopi. Pourquoi se
fatiguer à combattre les fiacres, s'ils sont de toutes façons
destinés à être remplacés par les automobiles ? Les argumentaires
reposant sur le sens de l'histoire sont en général assez faibles.
Dans certains cas, ils deviennent franchement contre-productifs et
démobilisateurs. En l'occurrence, ils étaient construits sur un
déterminisme technologique qui présente finalement les
caractéristiques d'une illusion.
La question de savoir
si Internet est intrinsèquement porteur de valeurs particulières et
susceptible de contribuer à l'émergence, de par son seul impact en
tant que technologie, d'une société nouvelle, est aussi ancienne
que l'Internet lui-même. Elle a été très sérieusement et
fréquemment débattue aux Etats-Unis où ont fleuri en particulier
de nombreuses théories de refondation de la démocratie par les
nouvelles technologies. Pour mémoire, on peut évoquer le fameux
article publié en 2001 par D. Weinberger, l'auteur du Cluetrain
Manifesto, et intitulé "A value-free Internet" qui met en
lumière le rôle important que les valeurs politiques des ingénieurs
américains des années 60 ont joué dans la manière dont ils l'ont
conçu et architecturé. Lawrence Lessig s'est penché de son côté
sur la même question. De son analyse, en particulier dans Code, and
other laws of cyberspace, il ressort que des principes politiques,
"constitutionnels", sont en effet encapsulés, traduits
dans l'architecture technique du réseau. Mais s'il faut lire Lessig,
il est bon de lire Zittrain aussi, qui dans The End of the Internet
as we know it, montre à quel point ces principes peuvent être mis
en danger par des choix technologiques qui peuvent reconfigurer le
réseau sur des bases totalement opposées à ses principes
originels.
Autrement dit, et pour en revenir plus
directement au sujet qui nous occupe, rien ne permet de dire que les
partisans d'un maintien des pratiques culturelles dans l'ancien
cadre, celui des industries culturelles pour aller vite seront
balayés de manière inéluctable par le vent de l'histoire. Rien
n'empêche de penser qu'en France comme ailleurs, ils sont au
contraire en mesure de prendre pied sur le réseau pour le
transformer à leur avantage. Ce risque, popularisé sous le
sobriquet de Minitel
2.0, est au coeur de la bataille de l'Hadopi. Et cette bataille
apparaît désormais sous son véritable jour. Elle n'oppose pas
seulement les Anciens et les Modernes, ceux qui n'ont rien compris et
ceux qui ont tout compris, le passé et l'avenir, les incompétents
et les compétents. Elle oppose bien plutôt deux visions, deux
options politiques, deux ensembles de valeurs concernant les
pratiques culturelles, et c'est ainsi que le débat doit désormais
être posé.
Les artistes "de gauche" entrent en
scène
C'est tout le mérite de la lettre
ouverte par Pierre Arditi et ses amis à Martine Aubry que de le
poser en ces termes. Mais selon des termes justement qui semblent
totalement inversés par rapport à la réalité. Cette lettre a pour
objectif de réinscrire un débat qui divise aussi bien le PS que
l'UMP (puisqu'un certain nombre de députés de ce dernier parti ont
pris position contre la loi) dans un clivage gauche-droite
traditionnel : on aurait d'un côté une vision
"libérale-libertaire", dérégulatrice et laissant jouer
les libres forces du marché et de l'industrie lourde : les fameux
telcos jouant le rôle du renard dans le poulailler, et dont les
pirates seraient finalement les alliés objectifs. De l'autre, une
vision régulatrice, protectrice des Arts et Lettres, défendant
héroïquement la Culture contre l'appétit destructeur du Grand
Capital. Que des artistes "de gauche" en viennent à
interpréter la situation en ces termes en dit long à la fois sur
l'état de confusion idéologique dans lequel toute une partie de la
gauche se trouve actuellement - et que corroborent par exemple les
multiples débauchages dans ses propres rangs -, mais aussi sur son
incompréhension radicale des logiques économiques qui sont à
l'oeuvre. Pour le comprendre, il est nécessaire de reprendre du
champ par rapport au débat sur l'Hadopi, et même de sortir du
domaine de l'Internet stricto sensu.
L'Age de l'accès
Il
est un ouvrage qu'il est toujours bon de lire et relire pour
décrypter les évolutions économiques que nous vivons,
particulièrement en tant que consommateurs. Il s'agit de L'Age de
l'accès de Jérémy Rifkin, publié en 2000 aux éditions La
Découverte qui montre comment les bases de l'activité économique
sont en train de basculer progressivement d'une activité de vente
d'objets dont les consommateurs deviennent propriétaires, à une
activité de monétarisation de l'accès à des services dont ils
deviennent locataires. Un certain nombre de prédictions avancées
par Rifkin, en particulier sur les secteurs du logement et de
l'automobile doivent aujourd'hui être relativisés. Il est par
contre indéniable que dans les domaine de l'accès aux produits
culturels, ses analyses sont plus qu'éclairantes ; révélatrices.
C'est donc à leur lumière qu'il faut analyser le débat provoqué
par le projet de loi Création et Internet, en particulier sur la
notion de "licence globale", rebaptisée "contribution
créative". On pense souvent que le débat sur la licence
globale consiste à choisir entre ce système et le bon vieux marché
de vente des produits culturels à l'unité, que ce soit sur support
physique ou dématérialisés. Le choix se situe en réalité à
terme entre ce système et d'autre modes de distribution reposant sur
des formules d'abonnement qui ressemblent à s'y méprendre à....la
licence globale ! Car qu'est-ce que la licence globale ou
contribution créative, sinon une forme d'abonnement illimité
permettant d'accéder à un ensemble de produits culturels,
exactement comme commencent à le proposer certains fournisseurs
d'accès ou groupes de médias ? Et ce n'est pas faire preuve de
déterminisme technologique que de constater que les technologies
numériques en réseau favorisent effectivement ce mode de
distribution au détriment de l'achat à l'unité, pour une raison
simple et désormais bien connue : les coûts de fabrication et de
distribution des objets numériques sont essentiellement fixes,
structurels, et non marginaux, contrairement à ceux qui
caractérisent les objets physiques. Il n'est donc pas étonnant de
voir combien, dans le domaine des publications scientifiques, comme
dans celui de la presse, dans le domaine du film comme de la musique,
l'abonnement permettant d'accéder à un bouquet de produits, est en
train de devenir dominant.
Où est la Gauche ?
Reprenons
donc. Si les analyses développées précédemment sont justes, le
choix devant lequel on se trouve n'est effectivement pas entre
l'ancien et le nouveau, ni entre la régulation et la dérégulation,
pas vraiment non plus, finalement, entre les industries culturelles
et les telcos, pas entre l'achat et la location, pas entre l'Hadopi
et la contribution créative, mais bien plutôt entre deux formes de
licences globales : l'une définie librement par des entreprises
privées, fournisseuses d'accès et de contenus, selon le libre jeu
d'un marché dont les tendances oligopolistiques sont par ailleurs
avérées, et l'autre régulée et définie par la puissance
publique. Alors, maintenant, où est la Gauche et où est la Droite ?
Qui joue le jeu du renard dans le poulailler, et qui défend un accès
public et "socialisé" à la culture, pour reprendre le
termes proposé il y a longtemps maintenant par Hervé Le Crosnier
dans un
très beau texte que nos amis "de gauche" feraient bien
de lire ? Assurément, l'innovation technologique n'impose pas
mécaniquement à la société un jeu de valeurs dont elle serait
porteuse. Mais elle lui impose un cadre d'action, doté de règles de
fonctionnement que la réflexion politique doit prendre en compte
pour procéder aux aggiornamento nécessaires : non pas au niveau des
valeurs, qui restent les mêmes - liberté et solidarité, mais au
niveau des modes d'actions et des modes d'organisation de la société
qui doivent constamment être repensés en fonction du nouveau
contexte. La contribution créative peut représenter cet
aggiornamento pour la gauche. Elle s'oppose non pas tellement au
vieux monde qui serait représenté par Christine Albanel, mais à ce
nouveau monde que nous promet la loi Hadopi sous le terme ambigu
d'"offres légales" : la prolétarisation culturelle par le
streaming et la privatisation de l'accès à la culture par les
abonnements que déploient les industriels ; sans contre-partie ni
équilibre.
2010-01-17 12:22:20
Ce texte sera proposé en conclusion de la seconde édition du [Read Write Book->http://leo.hypotheses.org/2474]. En voici une version préliminaire.
A lire la plupart des contributions qui ont été rassemblées dans le [Read Write Book->http://leo.hypotheses.org/2474], on peut avoir l'impression que le livre, en passant du support imprimé au numérique, est en train de subir une double révolution. Sa première révolution est celle du passage du statique au dynamique. Le livre imprimé est en effet un objet inerte, dont la forme est fixée et immuable. C'est sur la maîtrise de l'opération de fixation du texte que repose d'ailleurs tout le système éditorial de l'imprimé, à la fois dans ses dimensions techniques (l'impression), économiques (la distribution et la vente) et juridique (le droit d'auteur). En deçà de cette opération, et au-delà, le texte est au contraire vivant et mouvant. Mouvant, il l'est sous la plume de l'auteur qui le rature, le modifie, le recommence sans cesse. Vivant, il l'est dans l'esprit de ses lecteurs qui interprètent le texte, le pensent, le discutent et produisent à partir de lui de nouveaux textes. Entre ces deux moments de la création et de la lecture, le moment éditorial est celui d'une immobilisation dans une forme matérielle déterminée. Le passage au numérique est très exactement synonyme pour le livre d'une abolition de ce moment fondamental de la fixation qui caractérise l'imprimé. On l'a dit et redit, ce qui caractérise le texte électronique, c'est sa fluidité, son absence de fixité. C'est d'ailleurs la première expérience que l'on fait en éditant et publiant des textes sur Internet : ceux-ci ne sont jamais définitivement établis, et d'abord pour des raisons techniques : un texte publié sur une page web est visualisé de manière très différente selon les systèmes sur lesquels elle est affichée. Autrement dit, l'édition numérique, à la différence de l'édition imprimée, consiste à encapsuler dans des fichiers, où à envoyer via des réseaux, un code informatique destiné à être interprété par des systèmes techniques sur lesquels l'éditeur n'a pas de maîtrise. Cette situation nouvelle est souvent vécue par les éditeurs de l'imprimé comme une défaite. Eux dont le métier consiste à fixer le texte, à l'enclore dans un objet matériel, à lui donner une place au sein d'une collection ou d'un catalogue porteur de sens, les voici tout simplement empêchés de faire leur métier. D'autres regardent cette absence de fixité comme une opportunité. Pour reprendre l'exemple trivial du texte jamais fixé, sa souplesse permet ainsi aux personnes mal-voyants de grossir les polices de caractère pour améliorer leur confort de lecture. Cette simple opération, absolument banale sur le web est tout simplement impossible avec un livre papier. D'autres possibilités, plus complexes, sont offertes, comme celle qui consiste à offrir des liens pointant vers d'autres œuvres disponibles dans le contexte local du lecteur. C'est le dispositif d'open url dans les publications scientifiques qui permet au lecteur, à l'occasion d'une citation rencontrée dans le texte de l'article qu'il lit, d'obtenir le texte intégral de la référence bibliographique si la bibliothèque à partir de laquelle il travaille en a acquis les droits de consultation. D'autres dispositifs suggèrent d'autres lectures à partir d'une analyse automatique sémantique du texte de référence. D'autres vont encore plus loin et profiter de la plasticité des contenus numériques pour permettre à d'autres que l'auteur de le modifier, de le compléter, de l'enrichir, que ce soit par le biais de commentaires ajoutés, ou même par modification directe des contenus. Ce sont les systèmes de publication en wiki, dont l'encyclopédie Wikipedia est l'exemple le plus accompli. Mais que devient l'éditeur dans cette évolution ? Disparaît-il totalement ? Est-il remplacé par des algorithmes, des logiciels et des machines ? Certains sont tentés de le croire. On peut à l'inverse penser que la révolution numérique constitue un renforcement de l'éditeur et non son affaiblissement...à condition que celui-ci sache redéfinir son rôle dans le nouvel environnement où il agit. Dans cet environnement, l'éditeur devient méta-éditeur : il ne fixe plus l'œuvre, il ne lui donne pas une place dans un système de classement comme une collection ou un catalogue, mais il programme les outils informatiques qui accompliront ces actions à se place. Encapsuler des contenus dans un code informatique qui va agir sur des logiciels comme des navigateurs web, des lecteurs de fichiers ou même des liseuses pour obtenir à la fois la représentation mais aussi le comportement voulu de ce contenu désormais doté de fonctionnalités précises relève donc bien du travail de l'éditeur numérique. Mais aussi : décrire ces contenus, leur adjoindre un ensemble de données informatives qui vont permettre à des algorithmes de rapprocher automatiquement des œuvres au sein de classements établis en réponse à une requête dans un moteur de recherche ou dans d'autres contextes d'usages relèvent aussi du travail de l'éditeur. Le livre-réseau La première révolution du livre numérique, est donc celle de son support : le livre imprimé emprisonne la création intellectuelle dans une forme fixe. Il en fait un objet matériel, inerte, donnant prise à manipulations et transactions sans que sa forme en soit atteinte. Le livre numérique insère au contraire la création intellectuelle dans un environnement opératoire qui ne lui donne pas de forme fixe mais lui assigne des fonctions ou opère sur elle des fonctions transformatrices produisant des résultats variés. Dans ce nouveau contexte, le travail d'édition ne consiste pas à assigner une forme à la création, mais à la faire fonctionner au sein de programmes transformationnels. La deuxième révolution du livre numérique est celle de sa socialisation. Les démonstrations avancées par [Bob Stein->http://toccon.blip.tv/file/1781125/] et [Hubert Guillaud->http://lafeuille.homo-numericus.net/2009/03/quest-ce-quun-livre-a-lheure-du-numerique.html] sont très éclairantes. Le livre numérique est d'abord et avant tout un livre en réseau, qui instaure une relation différente avec ses lecteurs que le livre imprimé. Pourquoi ? Une lecture inattentive de ces deux textes pourrait laisser croire qu'ils annoncent une fausse révolution : le livre discuté, commenté, repris ; le livre générateur d'autres livres....en un mot : le livre réseau a toujours existé. Il est sans doute aussi ancien que le livre lui-même. De l'Odyssée d'Homère à l'Ulysse de Joyce, en passant par les poèmes dits « homériques », l'Enéide de Virgile et la Franciade de Ronsard ou les Elégies de Properce, nous avons sous les yeux un exemple canonique de la manière dont la littérature fonctionne : par reprises et gloses incessantes, commentaires et interprétations, adaptations à des contextes culturels variés qui témoignent de son infinie fécondité. Autrement dit le livre, que l'on considère ici comme objet intellectuel est un objet éminemment social, ou intertextuel, si l'on veut reprendre une ancienne terminologie. Mais alors, qu'apporte donc le numérique ? Ce que Guillaud et Stein montrent bien, c'est que les technologies numériques en réseau démultiplient cette sociabilité intrinsèque du livre en effaçant les solutions de continuité qu'établit l'inscription du texte sur des objets physiques. C'est là encore le support matériel qui est en cause, dont l'effacement – la disparition du livre-objet -, permet de libérer toutes les potentialités intrinsèques du livre-(inter)texte. Les commentaires et critiques de livre ont certes toujours existé ; mais elles sont ici immédiates, partagées, visibles à tous et surtout, émises par tous les lecteurs possibles. Les références, imitations et variations d'un livre à l'autre ont toujours existé ; mais les liens qui relient les livres entre eux sont désormais immédiatement effectifs, multiples, et chacun est libre de les établir selon sa propre logique. Cette évolution pose une question fondamentale à la bibliothèque, dont la fonction séculaire n'est pas seulement de donner accès au texte, mais aussi d'actualiser l'intertextualité des livres entre eux. Jusqu'au développement des réseaux numériques en effet, la Bibliothèque était la seule institution – avec la Librairie dans une moindre proportion - en mesure de rapprocher les livres, de les rassembler en un lieu unique qui leur permettait de dialoguer entre eux. Ce pouvoir de socialisation du livre – et de la lecture [comme l'a bien dit Hervé Le Crosnier->http://homo-numericus.net/spip.php?article183] dans un texte célèbre -, n'est aujourd'hui plus le monopole de la Bibliothèque. C'est exactement ce que signifie cette métaphore récurrente des débuts de l'Internet comme « bibliothèque numérique ». Métaphore en grande partie fausse et inadaptée, mais qui a le mérite de rendre visible cette question. Plus qu'une bibliothèque, Internet est un réseau social qui ne cesse d'établir des connexions, de relier les personnes entre elles. Comment le fait-il ? En reliant les textes entre eux : par cette technologie très rustique du lien hypertexte qui en est le cœur même. Exactement comme le fait la bibliothèque, mais avec une puissance qui n'a plus rien à voir avec ce que les bibliothèques traditionnelles ont pu faire jusqu'à présent en classant des livres physiques. La même question est posée aux bibliothèques et aux éditeurs : sont-elles appelées à disparaître ? À être remplacées par La Grande Bibliothèque Internet ? Sans doute pas....à condition qu'elles se repositionnent dans leur nouvel environnement en exploitant au mieux, en travaillant avec les possibilités techniques qu'offrent les réseaux numériques. Sur cette voie, les pirates leur montrent paradoxalement le chemin, [comme le montre très bien Joël Faucilhon->http://www.lekti-ecriture.com/contrefeux/Portrait-du-pirate-en-conservateur.html]. Ces pirates qui construisent déjà des collections, qui sauvegardent, référencent, choisissent, décrivent et relient les œuvres sur support numériques, pour, finalement, construire et étendre les réseaux sociaux grâce auxquels elles vivent. Discours, programme, réseau Résumons-nous : en se dématérialisant, en s'inscrivant dans un environnement numérique, le livre-texte s'étend dans deux directions : il devient programme d'un côté, réseau social de l'autre. C'est l'application simple à un objet particulier de la double fonction contemporaine de l'ordinateur comme machine à calculer et machine à communiquer. Le livre-texte quant à lui, qui est en réalité l'essence du livre par-delà ses différents supports matériels continue d'exister et même, on l'a vu, se trouve libéré dans sa dimension sociale par la disparition de l'objet physique. Alain Pierrot et Jean Sarzana utilisent le terme de « discours » dans leur [tentative de définition du livre numérique->http://aldus2006.typepad.fr/mon_weblog/2009/11/réflexion-autour-du-livre-et-de-loeuvre-numérique.html] pour désigner le livre-texte. Reprenons le mot à notre compte, car il apporte dans le raisonnement des dimensions et des références nouvelles qui dépassent la simple notion de « texte » : le discours recouvre en effet tout un ensemble de modes d'expression qui vont au-delà du texte écrit : images, vidéos et sons contribuent à l'élaboration de discours autant que lui. Et cet élargissement convient bien au passage de l'imprimé au numérique qui permet de réaliser des œuvres entremêlant et s'appuyant sur des modes d'expression diversifiés. Si l'on veut élargir la perspective et monter en généralité donc, on pourra considérer l'environnement numérique de trois dimension complémentaires et essentielles, qui en constituent la réalité même : la dimension discursive – le discours, la dimension computationnelle - le programme, et la dimension réticulaire – le réseau social. Il est dès lors possible d'examiner non seulement le livre numérique, mais finalement tout objet numérique sous l'angle de chacune de ces trois dimensions. Tout objet numérique possède trois faces : il est un programme, il est un discours, et il est aussi un élément du réseau. Les propriétés de chaque objet font que l'une ou l'autre de ces dimensions est plus ou moins développée. Mais la particularité de l'environnement numérique fait, parce que ce sont des dimensions de cet environnement et non des propriétés des objets eux-mêmes, que chaque objet en est doté, à un niveau aussi réduit soit-il. Deux exemples Prenons un cas simple et connu de tous : le logiciel de traitement de texte avec lequel ce texte est en train d’être composé. Ce logiciel est avant tout un programme qui « génère » des documents sous forme de fichiers : toutes les fonctions qu’il offre, fonctions de mise en forme mais aussi de correction automatique, d’insertion de champs calculés relèvent de la dimension computationnelle de l'objet. Il en va de même pour les macros, les mises en forme automatiques et même la structuration type qu’il impose aux documents qu’il produit. Mais ce logiciel est aussi doté d’une dimension discursive : il est à la fois texte et architexte, par l’ensemble des intitulés de menus, par les icônes qu’il utilise pour représenter ses principales fonctions, par la représentation – sous forme de « page », « plan » et « brouillon » qu’il donne du texte lui-même, par le manuel et les discours d’escorte qui l’accompagnent. L’ensemble de ces éléments propose à l’utilisateur un discours, un « monde » ou une représentation du monde qui lui est propre. En l’occurrence, il n’est pas difficile d’y détecter – parce que c’est le contexte d’usage pour lequel il a été conçu – une présence du monde du « bureau » comme métaphore prégnante de ce type de logiciel. Par ailleurs, contrairement à ce qu’on pourrait croire, ce logiciel n’est pas dépourvu de toute dimension réticulaire : la simple prise en charge de l’enregistrement d’un document dans un fichier qui puisse être transmis, ouvert et édité sur une autre machine que celle sur laquelle il a été créé en constitue pour ainsi dire le niveau zéro. Le caractère compatible et standard du format utilisé, et plus largement toutes les fonctions d’interopérabilité procèdent de cette même dimension : elles permettent une circulation, une mise en réseau des contenus qu’il génère. Ce point est important, car il permet de voir que la dimension réticulaire des programmes informatiques est bien plus profonde et essentielle que ce qu’on en connaît habituellement, à savoir tout ce qui a trait au Web et à l’Internet. Dans l’histoire de l’informatique, la dimension réticulaire s’est développée sur deux versants, reliés entre eux, mais distincts : d’un côté, la prise en charge de la communication d’information en réseau que nous connaissons bien : la commutation de paquets, Arpanet, le protocole TCP/IP, le DNS puis Internet en sont des jalons bien identifiés. D’un autre côté, le développement de programmes informatiques indépendants des machines physiques qu’ils exploitent joue un rôle tout aussi important : la conception du système Unix puis l’invention du PC par IBM, les interfaces POSIX ou le développement de langages de programmation standards comme le C et enfin le concept de logiciel libre forment les repères d’une autre histoire des réseaux informatiques sans laquelle Internet n’aurait sans doute pas connu le développement que l’on sait, parce qu’ils constituent les éléments de base qui permettent une inter-compréhension entre les machines, exactement de la même manière que le langage et la culture permettent une inter-compréhension entre les hommes. De même que l’étude de la communication humaine – l’étude des réseaux sociaux - ne peut se réduire à l’étude de moyens de communication comme les réseaux routiers, le téléphone et le télégraphe, il en va de même pour la communication informatique – les réseaux numériques – qui exigent une « culture » commune aux différentes machines qui communiquent : normes et langages de programmation, formats d’interopérabilité, mais aussi régimes juridiques appropriés. Au bout du compte, un logiciel de traitement de texte possède essentiellement des fonctions computationnelles car il est « générateur » de contenus. Mais on a pu voir au cours de l’analyse qu’il peut aussi être soumis à l’analyse dans ses dimensions discursives et réticulaires. Examinons maintenant une page tirée d’un site Web : sa dimension discursive est constituée par l’ensemble des textes, images et sons qu’elle donne à lire. Ces contenus sont par ailleurs ordonnés sur la page, ils apparaissent d’une certaine manière et sous une certaine forme qui relève encore du discours, mais déjà aussi du programme dans la mesure où cette mise en forme, comme on l’a expliqué n’est en réalité qu’un ensemble d’instructions formalisées transmises aux logiciels de lecture : navigateurs web, mais aussi, téléphones portables, machines à synthèse vocale ou outils d’analyse automatique de contenus tels que ceux qu’utilisent les moteurs de recherche. Ce serait donc une erreur de voir cette page d’un site Web comme une sorte de page de livre imprimée sur l’écran, car elle est en réalité un programme informatique écrit dans un langage (le langage HTML) de structuration et de mise en forme qui va produire un certain nombre d’effets différents selon les machines et les programmes qui vont l’utiliser. D’autres éléments, comme l’inclusion de langages de scripts – javascript par exemple – peuvent augmenter cette (faible) dimension computationnelle de la page Web. Celle-ci peut même appeler et représenter en son sein de véritables petits programmes en Java ou en Flash. Enfin, cette page est parsemée de liens hypertexte qui constituent le véritable pilier de la dimension réticulaire du Web : les liens hypertextes relient à l’infini les pages Web entre elles et, de lien en lien, tissent la Toile intertextuelle que nous connaissons. D’autres éléments présents sur cette page, peuvent en renforcer la dimension réticulaire : des interfaces permettant aux lecteurs de s’identifier via leur réseau social et de créer des signalements automatiquement sur leur page de profil par exemple. Selon sa nature, une page Web peut présenter des éléments plus ou moins avancés dans chacune des trois dimensions : une page type du site Web d’un réseau social comme Facebook par exemple, sera fortement réticulaire : elle fourmille de liens pointant vers les pages profils d’utilisateurs ou vers d’autres contenus proposés au sein du réseau. La page d’accueil de Google est essentiellement computationnelle : un champ de recherche et des boutons d’options permettant de paramétrer sa requête. La page présentant un billet publié sur Blogo Numericus est très discursive : c’est le texte et ses illustrations éventuelles qui sont mis en avant. Le retour du Cyberespace Les objets physiques s’inscrivent dans un espace qui les dote de propriétés universelles : ils sont lestés d’une matérialité qui leur donne une masse, un volume, une position. C’est l’universalité de ces propriétés qui les fait fonctionner en système d’objets. C’est cela même qui définit l’espace physique : il rend possible la coexistence et même l’interaction des objets entre eux en leur attribuant des propriétés communes. Il en va exactement de même avec les objets numériques. Dotés de discursivité, de computation et de réticularité, ils coexistent et même interagissent au sein de ce qu’on appelle quelquefois un espace virtuel, ou plus exactement un cyberespace. « [cyberspace<-] A consen-sual hallucination experienced daily by billions of legitimate operators, in every nation, by children being taught mathematical concepts... A graphic representation of data abstracted from the banks of every computer in the human system. Unhinkable complexity. Lines of light ranged in the nonspace of the mind, clusters and constellations of data. Like city lights, receding ». On connaît la définition qu’en donne l’auteur de science-fiction William Gibson dans The Neuromancer, en même temps qu’il crée le concept d’ailleurs. La notion de cyberespace a souvent été combattue, par les meilleurs auteurs, comme un artefact, une vue de l’esprit à laquelle on ne pouvait rattacher aucune espèce de réalité. Et en parlant d’ »hallucination », Gibson semble donner prise à cette critique. Ce serait oublier que le caractère collectif de l'hallucination en fait une prophétie auto-réalisée qui n'est pas totalement dénuée d'existence. Les approches du numérique par son hétéronomie, traversé qu'il serait de contraintes matérielles, économiques, politiques héritées du monde physique qui l'a fait naître sont bien rassurantes, mais finalement très contestables. De multiples exemples montrent au contraire que plus les technologies numériques se développent, plus les objets numériques fonctionnent entre eux selon des logiques non réductibles à l'environnement physique et qui leur sont totalement propres. Le Read Write Book qui décortique et isole les propriétés du livre numérique en fait l'éclatante démonstration sur un type d'objet précis. Le livre numérique est aussi différent du livre imprimé que les avatars dans Second Life le sont des corps de chair et de sang qui les ont créés. En revanche, le livre numérique et l'avatar de Second Life sont bien plus proches l'un de l'autre parce qu'ils partagent les propriétés communes de leur environnement : tous deux sont et font parties de systèmes d'informatons communs. C'est la force de l'entreprise Google de l'avoir compris avant voire contre tous les autres, en se positionnant comme l'arpenteur universel du Cyberespace, considérant d'une même regard tous les objets informationnels numériques, quels qu'ils soient, et c'est évidemment la faiblesse de ses adversaires que de rester enfermés dans les cloisons étroites de leur typologie. Menace sur la culture ? Pour beaucoup, le basculement du livre dans le Cyberespace est synonyme de disparition. Le livre numérique ne ressemblera plus au livre tel que nous le connaissons, il se dissoudra dans le flux informationnel, soumis à la tyrannie du présent permanent et du « tout tout de suite » , vaporisé en une multitude de chaînes de 140 caractères destinées à la consommation immédiate. Ce risque me semble largement fantasmatique. L’idée de livre, qui précède le livre, en se réalisant en livre imprimé, s’inscrit dans un espace physique doté de propriétés : il se leste de matérialité, il se déploie dans le temps et l’espace. Lorsqu’il se réalise en livre numérique, il s’inscrit dans un espace virtuel qui lui attribue ses propriétés intrinsèques : discursives, computationnelles et réticulaires. Il fonctionne dans un système d’objets numériques comme le livre imprimé a sa place dans un système d’objets physiques. Mais dans l’un et l’autre cas, il échappe partiellement à son environnement : La Recherche du Temps perdu n’est pas réductible à l’une ou même à l’ensemble des objets imprimés par l’intermédiaire duquel elle peut être lue. La Recherche du Temps perdu est une Idée de livre, qui dépasse largement ses actualisations physiques. Lorsque je désigne cette œuvre, pour en faire l’éloge, la commenter ou la critiquer, ce n’est jamais l’objet que je désigne, mais le texte, qui échappe d’une certaine manière à toute matérialité. Cela ne signifie pas que l’objet imprimé ne compte pour rien dans mon expérience du texte – la lecture - ; il va jouer un rôle déterminant par ses propriétés physiques : son apparence et ses dimensions, son poids, son coût, sa résistance physique. Le système des objets dans lequel il s’inscrit va même influer jusqu’à un certain point la forme de la Recherche dans la mesure où son auteur a nécessairement anticipé les contraintes formelles (de taille, de progression, de structuration, de langue même, jusqu’à un certain point) qu’impose le système éditorial à tout texte qui prétend être publié. Mais il est évidemment impossible d’affirmer qu'elle est le pur et simple résultat de ces contraintes. Elle est essentiellement portée par une idée créatrice qui transcende cet environnement. Et que pourrait-on dire du livre numérique ? Y a-t-il une raison pour laquelle le texte serait davantage enfermé dans son environnement numérique qu’il ne l’est dans son environnement physique ? Je n’en vois pas. Il est possible voire probable que l’environnement numérique impose des formes particulières aux textes qui y sont publiés. Mais pas plus que dans le cas précédent, le texte n’est ou ne sera réductible à ces formes. Ceci a plusieurs conséquences : tout d’abord, les prophéties apocalyptiques prédisant la mort de la culture avec l’avènement de l’ordinateur sont ineptes : le livre-idée, de l’Iliade à La Recherche en passant par Le Roman de la Rose, Les Regrets et La Comédie Humaine a toujours transcendé ses formes matérielles : volumen, parchemin, journal, revue, livre. Il n’y a aucune raison qu’il ne survive pas à son actualisation numérique et n’arrive pas à la transcender. L’autre face de la même proposition consiste à dire aussi qu’il ne faut pas attendre du numérique qu’il produise nécessairement des textes d’un genre entièrement nouveau. La révolution formelle que certains attendent du simple changement d’environnement n’arrivera pas. Tout simplement car dans l’histoire des formes, les révolutions ne se déduisent jamais systématiquement des conditions matérielles dans lesquelles les textes s’actualisent. Elles sont au contraire toujours le résultat de la créativité des hommes qui les écrivent, et s'en jouent. ------------------------------- Crédit photographique : [Bogota City Blues->http://www.flickr.com/photos/coso_blues/3173483728/] par Coso Blues en CC by 2.0
2010-11-08 08:12:23
Cet article a été publié dans une version éditée dans la revue Hermès, n°57 intitulé "Sciences.com, libre accès et sciences ouvertes", p. 23-30
Depuis ses débuts, la question du libre accès aux publications scientifiques, et plus largement aux résultats de la recherche fait l'objet de débats passionnés au sein de la communauté scientifique. La présence au coeur de ce débat de figures militantes comme Stevan Harnad [ZOTERO_BREF_B2BqtpK7XEYd<-] [ZOTERO_BREF_S6Hn8HdUQkAr<-] (Okerson&O'Donnell, 1995), Jean-Claude Guédon, Harold Varmus [ZOTERO_BREF_i2bM5E0Dapwh<-] [ZOTERO_BREF_SrNuUyNYBTDv<-] (Brown, Heisen&Varmus, 2003), la succession dans le temps de manifestes-pétitions comme la déclaration de Budapest (Budapest Open Access Initiative) en 2001[[[http://www.soros.org/openaccess/read.shtml->http://www.soros.org/openaccess/read.shtml] ]], la lettre ouverte des chercheurs appelant à la constitution d'une « Public library of Science »[[[http://www.plos.org/support/openletter.shtml->http://www.plos.org/support/openletter.shtml] ]], la déclaration de Bethesda en 2003[ZOTERO_BREF_TOQW1ayYncse<-] [[[http://www.earlham.edu/~peters/fos/bethesda.htm->http://www.earlham.edu/~peters/fos/bethesda.htm] ]] puis celle de Berlin la même année[[[http://oa.mpg.de/openaccess-berlin/berlindeclaration.html->http://oa.mpg.de/openaccess-berlin/berlindeclaration.html] ]], en constituent les repères les plus marquants. Plus récemment, cette question s'est trouvée connectée et incluse comme un cas particulier du plus large débat qui traite du statut des biens informationnels comme biens communs. Ainsi Philippe Aigrain[ZOTERO_BREF_c9GlxvBJmtDl<-] établit dans son ouvrage Cause Commune une relation entre le libre accès et les débats sur les logiciels libres, mais aussi avec les brevets sur les médicaments ou encore sur le piratage musical. Pour lui, la question qui forme condition de possibilité de cet élargissement du débat est en réalité celle de l'extension à la propriété intellectuelle des accords commerciaux internationaux menés au sein de l'OMC au milieu des années 90 (accords ADPIC) (Aigrain 2005, p.161). Pour Paul Davis (Davis, 2009), les arguments avancés en faveur du libre accès, surtout lorsqu'il font l'objet de comptes rendus dans la presse, se positionnent très souvent sur un plan moral et politique. Dans les assemblées scientifiques, ce sont plus souvent des considérations professionnelles, liées aux besoins de communication de la recherche qui sont avancées. Placée sous l'égide de l'Open Society Foundation dirigée par Georges Soros, la conférence de Budapest en particulier, et la déclaration du même nom à laquelle elle aboutit, constitue un exemple abouti de jonction entre les intérêts professionnels des chercheurs et un programme politique libéral promouvant la libre circulation des idées et de l'information. La présence d'une dimension politique et philosophique dans les prises de position des différents acteurs est pourtant loin d'être uniforme. C'est dans les sciences du vivant et en médecine qu'on les retrouve exprimées de la manière la plus claire, en raison en particulier des problématiques éthiques qui imprègnent fortement les activités liées à la santé. Très présentes dans les sciences du vivant, ces motivations n'ont pourtant pas toujours la même importance dans d'autres disciplines. D'autres rationalités, de nature socio-technique ou économique par exemple, peuvent être à la source d'initiatives de publication en accès libre. Et dans le travail de reconstitution des logiques de développement du libre accès, sans doute faudrait-il réévaluer le rôle que joue le passage du système de publication scientifique de l'imprimé au numérique en réseau. Lorsqu'on tente en effet de reconstituer les séquences historiques par lesquelles le secteur des publications scientifiques passe, au moment du déploiement de la problématique du libre accès, on est frappé de la concomitance entre plusieurs facteurs de causalité potentielle non reliés entre eux : les facteurs ayant conduit à ce que l'association américaine des bibliothèques de recherche (ARL) a qualifié de « serials crisis »[[[http://www.arl.org/bm~doc/arlbr249serials.pdf->http://www.arl.org/bm~doc/arlbr249serials.pdf] ]] ont été bien identifiés : il s'agit, pour l'essentiel de la constitution d'une logique de « portefeuilles de revues » par les éditeurs de littérature scientifique qui fait suite aux fortes concentrations financières qu'a connu ce secteur à partir des années 90 [ZOTERO_BREF_90W9oAaTAQtc<-] (McCabe 2004), avec la constitution d'un marché « inélastique » du fait d'un mésusage par les acteurs scientifiques (chercheurs, bibliothécaires et institutions de recherche) de systèmes bibliométriques comme le Science Citation Index proposé par l'ISI [ZOTERO_BREF_X0npsJrVU4FM<-] (Guédon 2001). La crise de la communication scientifique ainsi déclenchée conduit alors ces acteurs à trouver des solutions. La publication exclusivement numérique et sur Internet des résultats de la recherche, que ce soit par le biais des archives ouvertes (primitivement appelées « e-print servers ») ou de revues électroniques en libre accès, apparaît alors comme une planche de salut possible. Autrement dit, dans cette séquence temporelle, le passage au numérique arrive en bout de chaîne : il est une modalité technique de la réponse que chercheurs et bibliothèques tentent d'apporter à la crise des périodiques scientifiques. Or, et c'est la thèse qui est proposée ici, il est sans doute possible de considérer le passage au numérique du système de publication scientifique comme une cause, une incitation directe en faveur du libre accès, indépendamment même de la crise du prix des périodiques scientifiques. Deux approches différentes du phénomène permettent de le montrer : sur un plan socio-technique d'abord, économique ensuite. Archives ouvertes et accès ouvert Souvent évoquées ensemble, les questions du libre accès et des archives ouvertes sont quelquefois confondues. C'est bien sûr une erreur factuelle dans la mesure où, par exemple, le protocole OAI-PMH proposé lors de la Convention de Santa Fé en 1999 et qui donne une réalité technique à la notion d'archive ouverte, n'implique pas nécessairement de libre accès aux publications qui se trouvent hébergées dans ces archives[[[http://www.openarchives.org/OAI/openarchivesprotocol.html->http://www.openarchives.org/OAI/openarchivesprotocol.html] ]]. Ce qui est « open » dans le cas de l'OAI-PMH, ce sont en réalité les métadonnées et non le texte intégral des publications auxquelles elles renvoient. Protocole d'interopérabilité à faible coût d'acquisition (« low barrier » selon les termes de ses promoteurs (Lagoze&Van den Sompel, 2001) ), OAI-PMH sert les objectifs de dissémination des contenus numériques de ses promoteurs par la libre circulation des métadonnées d'abord. C'est la raison pour laquelle il a connu depuis une adoption très large et bien au delà des seules archives ouvertes, à tout le domaine de l'interopérabilité dans le secteur de l'information scientifique. Aujourd'hui, la plupart des plateformes de revues scientifiques, quelle que soit leur position par rapport au libre accès, utilisent ce protocole pour être « moissonnées », ie indexées par les moteurs de recherche scientifique : Oaister[[[http://www.oaister.org/->http://www.oaister.org/] ]] par exemple, mais aussi Google Scholar, du moins jusqu'en 2008[[[http://googlewebmastercentral.blogspot.com/2008/04/retiring-support-for-oai-pmh-in.html->http://googlewebmastercentral.blogspot.com/2008/04/retiring-support-for-oai-pmh-in.html] ]], ou des répertoires de revues comme le DOAJ[[[http://www.doaj.org->http://www.doaj.org/] ]]. En sciences humaines et sociales, le prochain moteur de recherche Isidore qui donnera un accès unifié à l'ensemble des données disponibles s'appuie sur ce protocole pour indexer les entrepôts de données[[[http://www.tge-adonis.fr/?Lancement-de-la-premiere-phase-de->http://www.tge-adonis.fr/?Lancement-de-la-premiere-phase-de] ]]. Le développement des archives ouvertes et même du protocole OAI-PMH n'est pour autant pas totalement déconnecté de la question de l'accès ouvert. Le modèle archétypal sur lequel les archives ouvertes – dont on rappelle ici la définition comme dépôts ouverts où les chercheurs archivent leurs articles – se sont développées, est Arxiv, archive de physique des hautes énergies créée par Paul Ginsparg en 1991 au National Laboratory de Los Alamos. Cette archive, qui s'est développée depuis dans un certain nombre de disciplines connexes (mathématiques, autres domaines des sciences physiques et astronomie), et fait désormais l'objet d'un soutien de plusieurs institutions scientifiques de premier plan n'a, selon les explications que Ginsparg apporte lui-même dans un article célèbre [ZOTERO_BREF_0qehTtR5p57s<-] (Ginsparg 1994), pas eu pour objectif de répondre à la « crise des périodiques scientifiques ». Elle étendait en fait, avec des moyens nouveaux, une pratique de communication scientifique propre à la communauté disciplinaire à laquelle appartient Ginsparg. Cette tradition est celle d'une communication désintermédiée entre chercheurs sur la base de premières versions ou de projets de publications (preprints). Dans cet article, Ginsparg explique bien comment la création d'Arxiv est la continuation par d'autres moyens d'une pratique ancienne de reproduction des preprints par photocopies et distributions par envoi postal. La création de l'archive est alors considérée comme une amélioration technique permettant de développer ces pratiques de communication de manière plus efficace. Elle joue donc un double rôle : l'accès instantané de toute la communauté scientifique aux derniers résultats de recherche - c'est donc la vitesse qui joue ici - mais aussi la possibilité pour l'auteur de voir son article examiné et corrigé avant publication. L'archive joue donc bien un rôle de vecteur de circulation de l'information scientifique et en même temps de lieu où s'exerce l'évaluation par les pairs. Il lui manque une dernière fonction qui reste aux revues scientifiques classiques : la validation, ou, comme le dit Jean-Claude Guédon, le bureau d'enregistrement des découvertes. En effet, alors que l'évaluation par les pairs est ouverte (open peer reviewing) dans le cas d'une archive ouverte, ce qui en assure la rapidité et l'efficacité, elle est au contraire organisée et contrôlée dans le cas des revues, ce qui permet une validation et une certification des publications. Dans ce cas, la complémentarité entre archive ouverte (en libre accès) et revues scientifiques (en accès restreint) est fonctionnelle avec une répartition des rôles entre les deux lieux de publication. C'est à peu près la même logique qui a présidé à la création de Repec en 1996, dans la continuité de Wopec, créé 6 ans plus tôt. Comme l'explique bien Thomas Krichel (Krichel, 2000), son fondateur, le service qu'il commença à développer à partir de 1990 se situait dans la continuité d'échanges traditionnels entre bibliothèques universitaires portant sur les working papers des économistes. Ici encore, cette initiative ne se positionne pas contre le système traditionnel de revues publiées par les éditeurs commerciaux de littérature scientifique ou avec pour objectif de le remplacer, mais en complémentarité avec lui. Pour les économistes comme pour les physiciens, les revues ne jouent plus depuis longtemps le rôle de vecteur de l'information scientifique qu'elles ont pu remplir dans le passé. Des réseaux d'échanges informels et décentralisés entre chercheurs au sein de communautés spécialisées ont profité de la démocratisation des moyens de communication pour se développer et remplir à leur tour ces fonctions beaucoup plus efficacement que le système traditionnel de publication en revues. Pour autant ces dernières n'ont pas fini de jouer leur rôle dans le système scientifique, en se repliant quasi-exclusivement sur la fonction de validation et certification de la publication.A cette première étape du raisonnement, on peut donc dessiner un paysage pour la question du libre accès légèrement plus complexe que ce que donne à voir une approche exclusivement centrée sur les dimensions politiques et éthiques du sujet. De fait, le développement des archives ouvertes peuplées de preprints et de working papers s'est plutôt effectué autour des questions de rapidité d'accès à l'information scientifique, parfois avec des pratiques d'open peer review et ne constitue pas l'opposition frontale au système traditionnel de publication des revues que l'on pouvait attendre. Aux unes la nouveauté, la rapidité et l'échange communautaire – et la récente évolution d'Arxiv qui recense désormais les billets de blogs commentant les articles en est un beau témoignage -, aux autres la validation de l'information, mais aussi la certification, et finalement l'évaluation de l'activité scientifique des chercheurs. En réalité, la situation est évidemment beaucoup plus confuse et diverse, en particulier aux yeux des acteurs eux-mêmes : tout à leurs objectifs de ventes aux bibliothèques de recherche de services performants d'information scientifique, les éditeurs de littérature scientifique ne ménagent pas leurs efforts sur la rapidité de l'accès à l'information. Ainsi l'éditeur Elsevier propose-t-il aujourd'hui dans certaines de ses formules d'abonnement un accès direct aux articles en cours d'évaluation dans les revues. Certains comme le groupe Nature ont d'ailleurs expérimenté, avec des fortunes diverses, la mise en open peer review de certains articles[[[http://www.nature.com/nature/peerreview/debate/nature05535.html->http://www.nature.com/nature/peerreview/debate/nature05535.html] ]]. Du côté des promoteurs des archives ouvertes, les hésitations sont aussi nombreuses sur les filtres à mettre en place : ces archives ouvertes, surtout lorsqu'elles sont institutionnelles, c'est-à-dire adossées à une institution de recherche qui y place une partie de son crédit scientifique, doivent-elles recevoir toutes les contributions ? Faut-il instaurer un principe de modération et sur quelles bases ? Faut-il se contenter des working papers ou chercher à obtenir aussi les versions définitives des articles, malgré les politiques très diverses des éditeurs sur ce sujet ? Les lois d'airain de l'économie de l'attention On a vu que la question du libre accès aux publications scientifiques pouvait être analysée de deux manières : d'un point de vue politique comme la motivation de l'activité de recherche par la poursuite d'idéaux tels que l'avancement des connaissances et leur partage au niveau mondial ; d'un point de vue socio-technique comme la continuation des pratiques de communication scientifique par d'autres moyens. Une troisième voie d'analyse s'ouvre maintenant, qui va aborder la question sous l'angle économique.Il est en effet possible d'analyser cette fois-ci aussi bien la crise du prix des périodiques scientifiques que le mouvement pour le libre accès comme deux conséquences, deux modes opposés de régulation d'un même phénomène : la destruction brutale de l'équilibre entre offre et demande sur le marché des connaissances scientifiques. Dès la fin de la seconde guerre mondiale, un observateur aussi bien placé que pouvait l'être l'organisateur de l'effort scientifique de guerre aux Etats-Unis, Vanevar Bush, pouvait exprimer ce déséquilibre dans son célèbre article « As We may Think » [ZOTERO_BREF_uPxX4xolXU8g<-] (Bush 1945). Depuis, l'augmentation considérable des résultats de recherche produits par une augmentation significative des investissements de recherche et développement dans la plupart des pays industrialisés a été constatée et mesurée par de nombreux auteurs, dépassant les capacités de consultation d'un quelconque chercheur. Cette surabondance de l'offre par rapport à la demande sur des marchés de biens informationnels a été caractérisée par plusieurs économistes comme relevant de ce qu'ils ont pu qualifier d' »économie de l'attention » [ZOTERO_BREF_m58LmyVXTemd<-] (Simon 1971)[ZOTERO_BREF_UM9aT8sIuYuK<-] , l'information n'étant plus rare mais surabondante par rapport au nombre de ceux qui se trouvent en capacité de la consommer, ce sont donc ces derniers, c'est-à-dire la demande, qui deviennent excessivement rares. Dans une telle situation, deux modes de régulation, parfaitement opposés, peuvent être mis en oeuvre. D'un côté, il est possible de reconstituer artificiellement de la rareté en mettant en place des labellisations discriminantes qui concentrent la valeur sur une partie minoritaire de l'offre et retirent toute valeur à ce qui en est exclu. Ce n'est pas le rôle du Science Citation Index mis en place sous l'impulsion puis dans la lignée de Eugene Garfield dans les années 60 [ZOTERO_BREF_4mMSpySswp2s<-] (Garfield 1983, pp.6-19) pour d'autres fins, mais c'est le résultat effectif auquel il est arrivé. La notion de « core journal », le système du Science Citation Index, les mesures de taux d'impact ont pour résultat, sinon pour finalité, de définir un corpus clos d'un nombre limité de revues « de référence » pour une discipline donnée. Cette évolution, efficace d'un certain point de vue, crée cependant un goulot d'étranglement au niveau de la publication. S'il peut satisfaire – et c'est ce à quoi il est destiné – les chercheurs comme lecteurs, disposant d'un corpus sélectionné et pertinent, il est aussi très contraingnant pour ces même chercheurs qui, recrutés en nombre exponentiel en particulier dans les années 60, éprouvent des difficultés grandissantes à publier dans les revues labellisées – les seules qui soient reconnues par les institutions de recherche. Autrement dit, le déséquilibre entre offre et demande, résolu pour la lecture, est désormais déplacé au niveau de la publication. Ce mode de régulation d'un marché soumis aux pressions de l'économie de l'attention, qui peut être qualifié de régulation « en amont », ne fait en réalité que déplacer le problème. Il existe un autre mode de régulation cette fois-ci « en aval » et qui consiste à ne pas contrarier la pression de l'offre. Les moyens de publication numérique qui ont la propriété, on l'a dit, de baisser le prix d'accès à la publication, et qui se caractérisent aussi par des coûts marginaux de copies très faibles voire à peu près nuls, permettent de mettre en oeuvre cette politique : et cette fois-ci, ce ne sont plus seulement des archives ouvertes qui se développent, mais aussi des revues électroniques qui se multiplient. Ici, le déséquilibre est bien maintenu ou reporté sur le marché de la lecture d'articles scientifiques, désormais produits en trop grande quantité pour être tous lus. Dans ce contexte, on comprend bien que toute barrière d'accès au texte intégral de l'article devient insoutenable. Les publications scientifiques connaissent le même phénomène que celui qui frappe les médias d'information généralistes : ils doivent être (d'accès) gratuits pour avoir une chance d'être lus. Le libre accès n'est plus un but politique ni une commodité socio-technique, mais il est devenu une nécessité économique. Il s'agit d'un facteur très classique qui touche transversalement les mécanismes de distribution des biens informationnels sur Internet : la régulation sur l'usage de ces biens se fait a posteriori, par la mise à disposition d'outils performants de recherche d'information comme des moteurs fédérés permettant aux lecteurs de retrouver uniquement ce qu'ils cherchent en écartant tout bruit parasite[ZOTERO_BREF_w9eojVF2gwGT<-] (Chantepie, 2008, p.500). Dans ce cadre, le protocole OAI-PMH prend tout son sens comme brique technologique indispensable au moissonnage d'un grand nombre de sources d'information éparpillées, interrogeables grâce à lui, via une interface unique. Entre, d'un côté, le système régulé par l'amont, et de l'autre la publication ouverte, il y a bien une alternative, car les deux propositions sont fondamentalement opposées dans leur principe et leur mode de mise en oeuvre. C'est le cas en particulier en ce qui concerne les modèles d'affaires qu'ils impliquent. Le système traditionnel de publication maintenant une rareté artificielle de l'offre, continue à se développer sur la base d'un accès tarifé aux publications : c'est l'abonnement et le modèle classique des lecteurs-payeurs. D'un autre côté, le modèle du libre accès ne fait pas disparaître les coûts comme par enchantement. Ils ne peuvent être pris en charge par le lecteur et sont reportés sur les auteurs. C'est le modèle que propose Plos, facturant près de 3000$ la publication d'un article dans l'une de ses revues[[[http://www.plos.org/journals/pubfees.html->http://www.plos.org/journals/pubfees.html] ]]. La prise en charge des coûts de publication peut être collectivisée ou individualisée, selon le modèle économique adopté. Les plateformes de revues de sciences humaines françaises : Cairn, Persée et Revues.org par exemple, ne facturent pas la publication des articles aux revues qui ne les facturent pas à leur tour aux auteurs. Les coûts exsitent, ils sont importants comme pour toute publication scientifique, mais sont mutualisés entre les différents organismes de recherche et d'enseignement supérieur qui les soutiennent. Que l'on soit dans un cas ou dans l'autre, l'intérêt du modèle d'accès ouvert est qu'il ne crée pas de goulot d'étranglement : le nombre de publications possibles dépend des capacités financières des institutions de recherche et le phénomène de rareté artificielle des lieux de publication est moindre. Par ailleurs, le phénomène d'économie de l'attention provoqué par la rareté relative des lecteurs est régulé en aval par l'utilisation d'outils de recherche fédérés et de protocoles d'interopérabilité permettant aux chercheurs de trier l'information dont ils ont besoin. Les deux modèles sont opposés donc, et sans doute relativement rétifs à l'hybridation. On peut être assez sceptique sur les initiatives qui, des deux côtés, tentent d'expérimenter l'introduction de la logique économique adverse au sein de leur propre modèle d'affaire. Ainsi, les modèles « open choice » adoptés maintenant par la plupart des éditeurs commerciaux et qui permettent à un auteur de diffuser son article en libre accès au sein d'une revue qui, elle, ne l'est pas, resteront sans doute limités du fait d'un manque de cohérence en réalité préjudiciable aux niveaux économiques et techniques. De l'autre côté, les système de « barrière mobile » qui affectent les publications en libre accès partiel, surtout pour protéger leur diffusion papier lorsqu'elle existe, ne dépasseront peut-être pas la période de transition pour laquelle ils ont été conçus. Conclusion On constatera que le débat sur l'open access vu sous cet angle se rapproche fortement de tous ceux qui affectent aujourd'hui les biens informationnels et culturels dans les réseaux numériques. De la même manière que les publications scientifiques, la musique, la presse, le livre même sont au centre d'interrogations relatives à ce qu'on appelle désormais l' « économie du gratuit » (Anderson, 2009). Dans le domaine des publications scientifiques comme des autres biens informationnels, tout indique donc que le modèle de l'accès ouvert puisse perdurer et se développer : au delà des considérations morales et politiques qui sont souvent invoquées à l'appui de ce modèle, au delà des intérêts professionnels des chercheurs eux-mêmes, les conditions technologiques et économiques de circulation de l'information dans les réseaux numériques le soutiennent fortement. Mais rien n'indique par ailleurs qu'il doive remplacer le système classique de publication scientifique. On voit désormais très clairement l'élément central sur lequel celui-ci s'appuie, qui justifie son existence : il s'agit tout à la fois de la certification de la production de connaissances scientifiques, et en même temps - et c'est lié -, du contrôle de l'activité de publication ; autrement dit, de l'évaluation de l'activité scientifique. Bibliographie [ZOTERO_BREF_xpKOnlQj0hOE<-] Aigrain, P., 2005. Cause commune : L'information entre bien commun et propriété, Fayard. Anderson, C., 2009. Free: The Future of a Radical Price, Hyperion. Brown, P.O., Eisen, M.B. & Varmus, H.E., 2003. Why PLoS Became a Publisher. PLoS Biol, 1(1), e36. Available at: [http://dx.doi.org/10.1371/journal.pbio.0000036->http://dx.doi.org/10.1371/journal.pbio.0000036] [Accédé Octobre 13, 2009]. Bush, V., 1945. As We May Think. The Atlantic monthly, 176(1), 101-108. Chantepie, P., 2008. Le consommateur comme plate-forme : l'économie du marketing en ligne. Dans X. Greffe & N. Sonnac, éd. Culture Web. Paris: Dalloz, pp. 495-511. Davis, P.M., 2009. How the Media Frames 'Open Access'. Journal of Electronic Publishing, 12(1). Garfield, E., 1983. Citation Indexing - its Theory and Application in Science, Technology, and Humanities, Philadelphia, USA: ISI Press. Ginsparg, P., 1994. First Steps Towards Electronic Research Communication. Computers in Physics, 8(4), 390-396. Guédon, 2001. In Oldenburg’s Long Shadow: Librarians, Research Scientists, Publishers, and the Control... Dans ARL membership meeting proceedings. Toronto: Association of research libraries. Available at: http://www.arl.org/resources/pubs/mmproceedings/138guedon.shtml [Accédé Octobre 3, 2009]. Krichel, T. , 2000. Working towards an Open Library for Economics: The RePEc project. Dans Ann Harbor, MI. Available at: [http://openlib.org/home/krichel/myers.html->http://openlib.org/home/krichel/myers.html] [Accédé Octobre 13, 2009]. Lagoze, C. & Van de Sompel, H., 2001. The Open Archives Initiative: _ Building a low-barrier interoperability framework. Dans Proceedings of the ACM/IEEE Joint Conference on Digital Libraries. pp. 54-62. McCabe, M.J., 2004. Law serials pricing and mergers: A portfolio approach. Contributions to Economic Analysis & Policy, 3(1), 1221. Okerson, A.S. & O'Donnell, J.J. éd., 1995. Scholarly Journals at the Crossroads: A Subversive Proposal for Electronic Publishing, Washington D.C.: Association of Reseach Libraires. Samuelson, P. & Varian, H.R., 2002. The 'New Economy' and Information Technology Policy. Dans J. A. Frankel & P. R. Orszag, éd. American economic policy in the 1990s. MIT Press. Simon, H., 1971. Designing Organizations for an Information-Rich World. Dans Computers, communications, and the public interest. pp. 72, 37.[ZOTERO_BREF_xpKOnlQj0hOE1<-] (Chantepie 2008, p.500)
2010-09-05 14:01:47
Wikipédia et les projets de démocratie électronique ont en commun la mise en place d’un processus de décision à échelle de masse. La méthode wikipédienne pour débattre et atteindre le consensus - décrite dans cet article signé Sylvain Firer-Blaess - peut-elle être appliquée à différents projets de démocratie électronique ? En partie, pour autant que construire une encyclopédie libre n’est pas la même chose que de mener la vie de la cité
Depuis quelques temps de nombreux projets visant à rapprocher les citoyens des décisions politiques, par le biais d'internet, sont apparus[1->#FOOTNOTE-1]. Ces projets proviennent autant de pouvoirs publics cherchant à se rapprocher de leurs citoyens, que de petits groupes de personnes cherchant à rendre nos institutions plus démocratiques. L'idée d'une possible 'démocratie électronique' est aussi vieille que la naissance du réseau, mais sa matérialisation est aujourd'hui tout juste embryonnaire, limitée autant par des problèmes d'ordre technique (par exemple, comment donner un identifiant totalement sécurisé à chaque citoyen, quid de la protection des données?) que de l'ordre de la volonté politique. L'idée d'une agora électronique, dans laquelle les citoyens pourraient débattre et voter, est très souvent inscrite dans la volonté de rapprocher nos démocraties d'une démocratie directe, où la représentation serait complétée -voir remplacée- par un tel mode décisionnel. C'est un projet en effet très intéressant et prometteur. Mais si l'on souhaite faire passer ce nouveau mode de décision par le réseau, l'on peut aussi s'intéresser à ce qui s'est développé à partir du réseau même, et peut-être en prendre exemple. Cet article décrit les processus de décision et les pratiques qui les sous-tendent d'un produit fructueux de l'internet impliquant une collaboration de masse, à savoir l'encyclopédie en ligne Wikipédia[2->#FOOTNOTE-2]. Cet exemple est intéressant pour penser la démocratie électronique, dans le sens où elle présente les mécanismes organisationnels d'une méthode de prise de décision impliquant des millions de personnes, et qui a réussi. Comme nous le verrons, la pratique des technologies informatique dans Wikipédia a donné lieu, dans une construction pragmatique et non programmée, à un processus de décision qui s'éloigne de la démocratie directe classique (une personne = une voix, calcul numérique des votes), pour prendre une forme de débat et consensus qui, si l'on doit prendre un exemple historique, pourrait s'apparenter à l'ancienne méthode du palabre ou aux techniques modernes des milieux radicaux de gauche. Il faut bien souligner que cette pratique s'est construite peu à peu et par l'expérience, ce qui la rend d'autant plus fascinante. Le pragmatisme dont à fait preuve la communauté wikipédienne a ainsi évité la construction à l'avance d'un schéma décisionnel qui, comme toute organisation pré-arrangée, n'aurait pu prévoir les multiples difficultés auquel fait face un projet aussi complexe que la construction d'une encyclopédie collaborative.Nous décrirons en première partie ce processus de décision de débat/consensus qui a court dans Wikipédia. Dans une deuxième partie, nous analyserons la discipline, au sens foucaldien, qui sous-tend une telle pratique. Ensuite, nous montrerons en troisième partie les résistances qui se sont formées à l'encontre d'une telle discipline, et les contre-réactions qui ont fait jour. Enfin en conclusion, nous nous interrogerons sur les possibles transpositions d'un tel système aux projets de démocratie électronique. Wikipédia a développé un processus de décision original, fondé sur cette technologie d'édition électronique qu'on appelle le wiki, que nous avons décrit dans un précédent article (Firer-Blaess 2007 a). Sur cette technologie, les wikipédiens ont constitué une pratique de décision qui est fondée sur le débat et le consensus. Ce processus de décision a donné satisfaction non seulement pour l'édition des articles encyclopédiques, mais aussi, et plus étonnant, pour d'autres fonctions, comme la création des règles internes à l'encyclopédie ainsi que la nomination de wikipédiens à responsabilité augmentée. A. Dans l'édition des articles. Le meilleur moyen d'expliquer le processus de décision dans l'édition des articles est sûrement de montrer comment une page wiki marche. Il existe en fait plusieurs pages dans une page wiki, chacune d'entre elles représentée par une barre au-dessus de la page. Ainsi l'onglet 'éditez cet article' redirige vers un éditeur de texte qui permet de modifier l'article. L'onglet 'discussion' renvoie à une page wiki dédiée aux discussions entre éditeurs de l'article. La plupart du temps, le processus de décision n'est même pas communicationnel[3->#FOOTNOTE-3] . Une nouvelle modification de l'article sera acceptée ou rejetée à travers ce qu'on peut appeler un 'consensus passif' : la nouvelle édition reste en place, ou est supprimée ('reverted' : chaque version d'un article est enregistrée afin que l'on puisse rapidement revenir à une version plus ancienne), ou encore est modifiée. Ce processus non-communicationnel peut continuer indéfiniment jusqu'à ce que des utilisateurs soient en désaccord entre eux sur une version en cours. Dans ce cas, afin de résoudre leurs différences d'opinion, les wikipédiens doivent entrer dans un processus de consensus actif[4->#FOOTNOTE-4]. C'est une voie communicationnelle qui fonctionne selon ce que j'ai appelé le processus de décision par débat/consensus. Figure 1: Le processus de décision dans l'édition des articles de Wikipédia. Il prend place sur la page de discussion attachée à chaque article. A ce niveau, les parties en désaccord présentent leurs arguments et débatent sur ce que la page d'article devrait être. Il est une coutume, de même qu'une règle de Wikipédia, que les parties en conflit se doivent de trouver un arrangement par elles-mêmes et par débat visible par tous. Mais ces débats sont aussi structurés par des règles internes. En effet, un article doit suivre un certain nombre de règles de style et de contenu, et le processus de décision doit toujours finir en adéquation avec ces règles. La règle la plus structurante est certainement la règle du point de vue neutre -ou NPOV, Neutral Point Of View- qui implique qu'un article de la Wikipédia doit représenter toutes les facettes ou positions connues sur un sujet donné et de façon non partisane[5->#FOOTNOTE-5]. Nous allons justement voir les mécanismes de création des règles. Ajoutons pour terminer que cette méthode impliquant consensus actif et passif fut une réussite : des milliers d'éditions sont réalisées chaque jour par des milliers d'utilisateurs, et les conflits débordant le processus de débat/consensus, que nous décrirons plus tard, sont relativement limités par rapport aux nombre d'éditions per se. B. Dans la production des normes Les règles n'ont pas été créées ex nihilo mais sont le résultat de la pratique. Un descriptif détaillé sur la formation de la pratique en matière de création de normes se trouve dans un précédent article (Firer-Blaess 2007b). En résumé, la production des règles s'est développée à travers une tension entre la forme et le fond de Wikipédia ; la forme technique étant le wiki, et son fond, son but, étant la construction d'une encyclopédie. Le médium n'est pas le message mais il entre en résonnance avec ce dernier pour créer des pratiques et un résultat original. Tandis que le wiki privilégiait une pratique plus 'anarchique', 'let it be', de laisser les agents faire ce qui leur plaisait, le but de créer une encyclopédie renforçait plutôt le besoin de règles. C'est autour de 2003 que la structure légale de l'édition commune se met en place, formant un consensus entre pro et anti règles, et en résulte un corpus original de règles. Les règles de la Wikipédia sont décidées en commun. Leur création suivent le même processus de décision de débat/consensus que dans le processus d'édition. Ces règles portent sur les questions de style et le contenu des articles, ainsi que sur les comportements à respecter dans le processus d'édition, des questions de copyright et autres sujets de droit entre la Wikipédia et le système légal du 'vrai monde' et enfin, des questions d'application de ces règles. La plupart du temps une règle se met en place quand certains wikipédiens réalisent que quelque chose ne fonctionne pas ou pourrait être amélioré. Une proposition de règle émerge souvent d'une discussion dans le village pump, le forum général de la Wikipédia anglophone[6->#FOOTNOTE-6]. Si la communauté, dans ses remarques, a montré assez d'intéret sur le sujet, alors un wikipédien ne tardera pas à créer une page de proposition de règle et à publiciser cette page en mettant une 'publicité' (advert) dans les pages sensibles regardées par la communauté[7->#FOOTNOTE-7]. La page de proposition d'une nouvelle règle servira comme support d'un nouveau processus de décision par débat/consensus. Petit à petit, les wikipédiens intéressés vont ajouter leur point de vue sur la page de proposition et débattre ensemble. Le processus de création de règle est normalement assez long (plusieurs mois) et implique de longues discussions. Une fois que la communauté pense qu'un consensus a émergé, une page de règle est finalement créée (encore d'une façon collaborative, et en suivant le même processus de décision). Ces pages de règles ont le statut de règles officielles de la Wikipédia et peuvent ainsi être invoquées dans n'importe quel processus de décision (surtout concernant les éditions d'articles) et être appliquées. Comme partout dans la Wikipédia, les choses ne sont jamais gravées dans le marbre et les pages de règles restent ouvertes à de possibles amendements futurs. Figure 2 : Le processus de création d'une norme. Les règles sont aujourd'hui assez stabilisées. On compte aujourd'hui les 5 piliers de Wikipédia, sortes de règles structurantes, une cinquantaine de règles portant sur des sujets spécifiques, ainsi que plus de 200 guides (guidelines) indiquant la meilleure marche à suivre sur des problèmes précis.[8->#FOOTNOTE-8] Il suffit généralement de lire les 5 piliers afin d'avoir une bonne compréhension du comportement à mener dans Wikipédia. C. Dans la nomination des wikipédiens à pouvoirs spéciaux. La communauté wikipédienne a décidé de créer une sorte de hiérarchie pour des raisons organisationnelles. Ceci implique la nomination de wikipédiens à qui l'on attribue des pouvoirs additionnels (pour une liste détaillée, voir Firer-Blaess 2007d). Le processus de nomination est proche d'une élection dans les systèmes démocratiques modernes mais avec une principale différence : le remplacement du vote par le consensus. Les wikipédiens avec pouvoirs spéciaux sont des agents à qui la communauté fait confiance, qui habituellement ont derrière eux une longue expérience d'édition dans l'encyclopédie. Pour qu'un wikipédien soit nommé, il doit tout d'abord présenter sa candidature dans une wiki-page dédiée. Habituellement le candidat demandera à d'autres wikipédiens vétérans de sponsoriser sa candidature avec une 'lettre de recommandation' publiée sur la page. Ensuite la communauté débat sur la nomination. Des questions sont posées, les précédents actes du candidat sur l'encyclopédie sont vérifiés et discutés. A la fin de la page, les camarades wikipédiens donnent finalement leur avis à propos de la candidature : favorable, neutre, opposé. Les discussions sur la nomination doivent durer sept jours. Après ce délai, un 'utilisateur spécial' avec des pouvoirs spéciaux, appelé 'bureaucrate', évalue la discussion pour vérifier s'il y a ou non un consensus au sujet de la promotion. Le consensus ici est assez difficile à évaluer et semble être un mélange entre la qualité et la quantité des différents avis, 'mais comme règle d'or générale et descriptive la majorité des candidatures recevant plus de 80% réussissent, celles en-dessous de 70% échouent et celles entre les deux est sujette à la discrétion du bureaucrate'[9->#FOOTNOTE-9] Figure 3 : processus de nomination des wikipédiens à pouvoirs spéciaux Il est assez frappant de voir que, avec différentes situations (édition d'article, création de normes, élections), le même mode de décision prévaut. Au contraire des systèmes démocratiques modernes, la cause d'une décision n'est pas le calcul quantitatif de votes mais la mise en place d'un consensus par le dialogue. Le vote est même explicitement exclu de Wikipédia[10->#FOOTNOTE-10]. C'est une chose importante. L'idéologie égalitaire de la démocratie représentative du vote universel (une personne = un vote), est remplacée par une nature plus équitaire où la quantité de l'opinion est pondérée par la qualité de l'argument (voir notamment la figure 4). Ceci permet, notamment, de maximiser l'implication des agents : ce n'est pas assez que d'avoir une opinion, encore faut-il la rendre explicite, et rationnelle . Finalement, le processus de décision wikipédien permet non seulement la prise de décision, mais les construit aussi de façon positive : souvent dans les pages de discussion des débats longs et passionnés adviennent et il arrive que des solutions non pensées auparavant émergent. C'est une différence nette avec la démocratie représentative, où les citoyens ont à voter pour des solutions crées par des experts. Dans Wikipédia les agents sont autant les créateurs que les décideurs. D. Un discours rationnel? nous avons vu jusqu'à maintenant les processus des trois sphères de décision de Wikipédia. Approchons-nous maintenant des débats en cours à l'intérieur du processus de décision des articles. Si les décisions semblent particulièrement démocratiques, rien ne nous dit que la qualité des débats en eux même est un facteur de progrès. Une récente étude semble montrer que ces débats ont néanmoins des caractéristiques positives qui créent dans Wikipédia des pratiques s'approchant d'un discours rationnel. Hansen, Berente et Lyytinen (2007) ont récemment montré que l'on pouvait rapprocher le système de décision de Wikipédia du modèle de discours rationnel construit pas Jürgen Habermas. Dans sa Théorie de l'agir communicationnel (1987), Jürgen Habermas décrit un type d'action discursive par laquelle les possibilités d'émancipation personnelle et sociale sont maximisées. Cette action discursive est aussi appelée discours rationnel. Le discours rationnel est un idéal-type qui ne peut jamais être actualisé mais que l'on peut approcher en pratique. Pour Hansen et al., les discours qui prennent place dans Wikipédia s'approchent du discours rationnel habermassien avec, bien sûr, certaines limites. Habermas distingue trois formes d'action personnelle dans la société : l'action instrumentale, l'action stratégique, et l'action communicationnelle. Alors que les deux premiers types d'actions sont utilisés pour atteindre un but subjectif, le troisième type, l'action communicationnelle, vise à atteindre un niveau de compréhension mutuel entre les acteurs; c'est un but 'inter-subjectif'. C'est cette action communicationnelle qui est rendue possible par le discours rationnel. Un discours rationnel peut être formé sous 5 conditions : 1. Les acteurs poursuivent consciemment une recherche coopérative de la vérité ; 2. à travers une structure formelle (structurée, avec des règles) ; 3. excluant l'usage de la force ; 4. en accord avec les règles d'une situation de discours idéale (un autre principe habermassien) et enfin, 5. en s'engageant dans un dialogue ouvert et ayant une durée suffisante. Pour Hansen et al. Wikipédia remplit ces cinq conditions. Les conditions 2, 3 et 5 sont remplies facilement : le discours se fait selon les règles structurées de Wikipédia, la violence ou la pression n'existe pas, enfin, les débats sont ouverts à chacun disposant d'une connexion internet et n'ont pas de limite de temps : souvent les débats prennent des mois. La recherche coopérative de la vérité (condition 1) peut être considérée comme faisant partie des règles de Wikipédia, notamment avec la règle du Neutral Point of View (NPOV) expliqué dans nos précédents articles. La situation de discours idéale (condition 4) demande que n'importe qui puisse accéder au dialogue, sans discriminations, tant qu'elle utilise une argumentation rationnelle. L'accès au débat et au processus de décision ne requérant qu'un ordinateur, un accès à internet et une rapide inscription, nous pouvons sagement considérer que la situation de discours idéale est remplie au moins dans les pays occidentaux où l'accès aux ressources demandées est relativement aisé. Ces cinq principes sont les conditions nécessaires mais non suffisantes à l'institution d'un discours rationnel. Pour identifier un tel discours, Habermas a construit une typologie de types de discours que l'on peut trouver dans une discussion de type discours rationnel. Il y a le discours théorique, déclaration de vérités fondées sur des preuves et la logique ; le discours pratique, basé sur les normes sociales, déclarations concernant ce qui est approprié et socialement acceptable ; la critique esthétique, fondée sur le bon goût, les « standards de valeurs » ; la critique thérapeutique, qui questionne la sincérité et l'honnêteté ; et enfin les discours explicatif, qui sont des déclarations formulées clairement et de façon intelligible visant à expliquer un fait, une théorie ou de précédents discours. La validité d'une déclaration peut être remise en cause selon un de ces discours et un dialogue contenant ces types de discours peut être mis en place. Ainsi, pour Habermas, si un dialogue comprend de façon majoritaire ces types de discours, alors il peut être considéré comme approchant le discours rationnel. Si Wikipédia approche le discours rationnel, alors pour Hanser et al. Wikipédia est un instrument au potentiel émancipateur au regard de la théorie critique habermassienne. Hansen et al. étudient alors le contenu des débats à l'intérieur de Wikipédia afin de vérifier leur hypothèse. Dans quelle mesure les discours de type rationnel sont présents dans les débats de Wikipédia? Nos chercheurs se sont concentrés sur les débats de l'article anglophone concernant le génocide arménien, que l'on peut considérer comme étant particulièrement sensible à la présence de discours non-rationnels, faisant une large part aux passions et avec un grand nombre d'actions instrumentales et stratégiques. En bref, nos chercheurs trouvent, de façon contre-intuitive (mais certes, en accord avec leur hypothèse), que les discours rationnels prédominent en fait la discussion concernant l'article susnommé avec une primauté pour les discours théoriques (j'invite les personnes intéressées à lire cette partie de l'article, très intéressante, pour connaître les détails). Pourquoi un article tant sujet à controverse est-il l'objet d'un discours rationnel? Les auteurs expliquent brièvement que les règles et la structure de Wikipédia favorisent de tels discours. Ce sont en effet, à mon avis, tous les mécanismes de normalisation et de discipline qui permettent l'émergence d'un tel discours. Il convient alors de souligner l'effet bénéfique et émancipateur de certains types de subjectivation foucaldienne, ce que nous verrons dans l'instant. II. Une discipline qui sous-tend le discours rationnel et le processus de décision de débat/consensus Ces mécanismes de subjectivation, ou normalisation - qui amènent les acteurs à se comporter de telle ou telle façon - sont multiples dans Wikipédia, et certains ont été décrits dans mes précédents articles (Firer-Blaess 2007c,d). Il serait utile de présenter une typologie brève et complétée de ces mécanismes normalisateurs. Wikipédia dispose de mécanismes originaux de normalisation (ou de discipline), que je divise en deux parties : les mécanismes hiérarchiques et les mécanismes non-hiérarchiques, qu'on appellera rhizomatique en rapport à Deleuze (1989) . Les disciplines rhizomatiques wikipédiennes sont des relations entre les agents qui ne sont pas structurées par un plan déterminé : par l'absence pyramidale de responsabilités, ils connectent de façon aléatoire les disciplinants et les disciplinés, les agents pouvant passer du premier rôle au second et vice versa selon le temps et la situation. Wikipédia contient aussi une structure de normalisation hiérarchique, mais sans pyramide à niveaux proprement dits et privilégiant une spécialisation par tâches horizontales plutôt que par des niveaux de responsabilités verticaux. A. les mécanismes rhizomatiques - Le regard de Wikipédia : hyperpanoptique. Les mécanismes de surveillance dans Wikipédia ont longuement été décrits dans mes précédents articles sous le terme d'hyperpanoptique (2007c), en référence aux travaux de Michel Foucault [1975] sur la discipline moderne. Nous en présentons ici un résumé. la technologie de surveillance de Wikipédia permet à chacun d'avoir accès à l'historique des éditions de toute personne : la communauté ne désigne pas de gardiens, tout le monde est ou peu devenir un gardien. La discipline moderne avait tenté de diminuer l' étendue de la 'vie privée'. Wikipédia la fait disparaitre dans son champ : aucune édition dans l'encyclopédie en ligne ne peut être trouvée et identifiée. J'ai appelé cette architecture un 'hyperpanoptique' car comme le panoptique de Foucault/Bentham elle permet de voir tout agissement dans un champ donné. Le préfixe 'hyper' siginifie l'ajout d'une dimension. Une dimension quantitative d'abord : par rapport au panoptique, les yeux de l'hyperpanoptique sont démultipliés, accroissant d'autant plus l'intensité de la surveillance. Une dimension qualitative enfin : ce n'est plus une minorité qui voit tout, mais le groupe entier qui peut connaitre les agissements de chacun ; ce changement de même aura des implications éthiques importantes. L'hyperpanopticon wikipédien est intrinsèque au MediaWiki Software, le programme qui fait fonctionner le site web de l'encyclopédie. Son corps est constitué de larges banques de données et d'interfaces qui permettent d'y accéder. Ces banques enregistrent les données de toutes les éditions faites sur Wikipédia, et sont accessibles à tous, à travers certaines pages web de Wikipédia. Elles présentent toutes un listing des éditions, donnant le nom de l'article modifié, de l'heure et la date de l'édition, l'identité de son auteur (le nom d'utilisateur si l'auteur est inscrit, sinon l'adresse IP), une courte description de l'édition, et enfin son 'poids' en données. Les pages d'accès aux données offrent différents outils afin de permettre de se concentrer sur une certaine période temporelle, un article ou un auteur, et aussi de comparer différentes versions d'un même article à des dates différentes. Une description complète de ces interfaces est disponible dans Firer-Blaess 2008, p.18. L'hyperpanoptique annule deux problèmes imputés aux anciennes techniques de surveillance panoptiques. Le premier est celui du coût; en effet, dans un système panoptique la surveillance est une division du travail spécialisée qui amène un certain coût puisqu'il faut payer des gardiens. Dans le système wikipédien la tâche de surveillance n'est pas spécialisée et est diffusé sur de nombreux acteurs bénévoles. Le second problème est un problème éthique dans le fait que, par la division du travail, la spécialisation de la surveillance crée des relations de pouvoir très déséquilibrées et potentiellement répressives. Les wikipédiens n'ont au contraire pas de relations de pouvoir figées en ce qui concerne la surveillance (nous verrons cela en détail plus tard). La multiplication des regards qu'implique l'hyperpanoptique rend la surveillance très efficace dans Wikipédia. On a ainsi calculé qu'un 'sabotage' flagrant, tel que l'ajout d'injures dans un article, était détecté et supprimé en 1.7 minute en moyenne (Foglia, 2008 : 57). Enfin, en lui-même, l'hyperpanoptique n'a pas qu'une fonction de surveillance. Il est aussi très utile aux mécanismes de décision. Il permet aux wikipédiens de se reconnaitre entre eux et de se faire confiance lors des débats ; il est certes plus facile de discuter et de débattre avec l'autre quand on connait ce qu'il a fait et quand on sait qu'il peut en retour voir vos éditions et vos remarques dans les débats. L'hyperpanoptique crée un 'lien du regard' entre les wikipédiens, qui huile les mécanismes de décision. -'Disciplines douces' Nous appelons les 'disciplines douces' ces techniques d'éducation qui ont pour conséquence que les agents se conforment aux normes et qu'ils les acceptent sans ressentir le fait qu'on leur impose quoique ce soit. La discipline douce est une forme subjectivement légitime de normalisation, une internalisation des règles que l'individu accepte librement. La plupart des phénomènes d'acceptation des règles sont faites à travers ce processus de normalisation. L'acquisition des règles est de même autant un processus d'éducation qu'un apprentissage par soi-même : les wikipédiens souvent s'invitent entre eux à lire tel ou tel page de règles ou de conseils ; ils posent aussi souvent des questions afin de savoir comment s'applique une règle. Ce processus de normalisation est diffus dans Wikipédia et est ainsi difficile à catégoriser. Je donne ici quelques exemples : les processus d'acceuil, d'adoption, d'éducation et enfin d' encouragement. - l'accueil : La communauté wikipédienne se fait connaitre au nouveau membre dès son entrée. Quand un utilisateur s'inscrit sur Wikipédia (ce qui lui permet de prendre une identité fixe dans l'encyclopédie et lui donne de nouveaux outils), il reçoit un message de bienvenue de la part de la communauté. Plus qu'un premier lien communicationnel, ce message lui donne les premiers conseils sur le bon comportement à tenir dans Wikipédia, ainsi que des liens redirigeant vers les principales règles de l'encyclopédie. Le nouvel inscrit est gentiment invité à les lire et à poser des questions à l'auteur du message s'il en a besoin. En effet, certains wikipédiens font partie d'un groupe appelé le Welcoming committee. C'est ce comité qui est en charge d'envoyer le message de bienvenue à tous les nouveaux inscrits, de les aider et de répondre à leurs questions. - l'adoption. Le programme d'adoption est une nouvelle politique de la Wikipédia anglophone crée en septembre 2006, 'conçu afin d'aider les membres nouveaux et inexpérimentés'[11->#FOOTNOTE-11]. Le programme donne aux adoptants et adoptés volontaires une plateforme pour se rencontrer. L'adoption est un mentorat : il implique qu'un wikipédien plus ancien et expérimenté aide un nouveau venu, vérifie ses éditions, lui donne des conseils et répond à ses questions. Ce programme relativement récent comporte un nombre de personnes assez faible comparé à la masse des nouveaux venus mais il a rencontré un succès important et ne cesse de s'élargir. - l'éducation. Cette pratique est la plus diffuse et omniprésente de toute. Ce n'est pas un programme officiel de la communauté mais plutôt une coutume très souvent suivie. Elle implique l'envoi d'un message à un utilisateur qui aurait transgressé une règle - ce qui arrive très souvent pour les nouveaux venus qui débutent leur processus d'apprentissage. Ce message n'est, la plupart du temps, pas vraiment un avertissement mais plus un rappel aux normes ; les wikipédiens sont habitués à voir les 'newbies' (les 'bleus') se comporter d'une mauvaise façon et l'apprentissage par essais et erreur fait partie intégrante du processus de normalisation. Les messages sont gentils, parfois humoristiques comme le veulent les règles 'assume good faith'('supposer la bonne foi')[12->#FOOTNOTE-12] et 'don't bite the newcomers'('ne mordez pas les nouveaux venus')[13->#FOOTNOTE-13]. Néanmoins, si un nouveau persiste dans sa transgression des règles, on lui enverra des messages de plus en plus autoritaires avant qu'un processus de punition soit enclenché. - Enfin, l'encouragement. Les wikipédiens ayant fait preuve des meilleures dispositions et comportements peuvent recevoir des 'médailles' appelées Barnstars[14->#FOOTNOTE-14] (elles ont pris la forme d'étoiles et de lauriers dans la Wikipédia francophone). Ces gratifications suivent toujours une voie non-hiérarchique, puisque n'importe quel utilisateur enregistré peut en décerner à la personne de son choix. Il existe un grand nombre de barnstars (autour de 80), chacune ayant une signification différente. Elle peuvent être attribuées pour des éditions excellentes, des pratiques d'anti-vandalisme, de bonne adoption, bonne aide, bonne civilité. Ces barnstars sont ainsi une façon de motiver les wikipédiens entre eux dans un environnement qui peut être facilement un facteur de stress. Les bons comportements peuvent aussi de cette façon être soulignés et encouragent les autres à faire de même. Les barnstars sont enfin un excellent moyen de socialisation et de création d'une culture de groupe. Dans tous ces procédés, il n'y a pas de séparation entre normalisateurs et normalisés. Les wikipédiens tendent à se co-normaliser eux-mêmes, chacun étant capable de prendre les deux rôles à un même moment. Cette discipline douce est la voie principale pour faire respecter les normes. Néanmoins, bien sûr, ce n'est pas assez, et des mécanismes d'enforcement fondés sur des structures, elles, hérarchiques, complètent le système. Ce sont néanmoins des mécanismes de crise, utilisés assez rarement. B. les mécanismes hiérarchiques : juger et punir Il arrive aux wikipédiens d'échouer dans l'aboutissement à un consensus dans les processus de décision, et à en arriver à des comportements contraire aux règles de Wikipédia : arguments inappropriés ou fallacieux, “guerres d'éditions”, insultes... Les wikipédiens ont mis en place un processus de résolution des disputes ('Dispute Resolution Process', ou drp) qui s'appuie dans un premier temps sur une méthode de communication/consensus, mais qui peut ultimement aller jusqu'au jugement et à la punition. Le drp contient un nombre ordonné et graduel de procédures qui ont pour but de résoudre le conflit et d'éviter toute escalade à l'intérieur du drp vers le niveau final, à savoir le jugement. Ces procédures peuvent être en gros classifiées en trois groupes, du moins autoritaire au plus autoritaire et du moins consommateur au plus consommateur d'énergie pour la communauté : les procédures solitaires, les procédures de communautés et enfin, le jugement officiel. 1. prévenir les contentieux : mécanismes de résolution des conflits - sans imposition. Les premiers mécanismes de résolution sans imposition sont aussi ceux qui ne nécessitent pas d'interventions de la communauté. Ce sont de simples pages conseils et choses à faire que tout wikipédien peut consulter, et qui ont pour but de neutraliser une dispute. Ce sont plus des rappels aux règles du processus de décision classique que des politiques additionnelles : par exemple, il est rappelé que l'on doit se concentrer sur le contenu de la dispute et non pas sur la personne avec qui l'on se dispute, 'rester cool' et prendre du temps pour la réflexion, discuter de façon rationnelle avec l'autre partie et, en dernier recours, proposer un compromis temporaire avec l'autre éditeur, afin d'avoir le temps de prendre du recul. Un second groupe de pratiques opère à un niveau au-dessus dans l'autorité et comporte les pratiques qui peuvent être mises en place avec l'aide de la communauté, lorsque le processus décisionnel classique a échoué. Des wikipédiens étrangers au conflit peuvent être appelés à l'aide, selon la nature et l'intensité du conflit. Par exemple, on peut tout d'abord en appeler à un 'assistant editeur' (editor assistant) si l'on n'est sûr de l'application des règles qui concernent l'objet de la dispute ; ensuite, on peut demander un 'diagnostic neutre' (third opinion) à un wikipédien à propos d'un conflit entre seulement deux personnes. Troisièmement, quand la dispute touche à un contenu encyclopédique précis, on peut demander la création d'une discussion (subject matter discussion) relatif à ce point là, tout wikipédien intéressé pouvant participer. Si le conflit concerne un problème fréquent, il existe enfin des notice board où l'on peut demander de l'aide (il existe par exemple une notice board consacrée aux biographies des personnes vivantes, une page relative aux les para-sciences ou encore, une autre traitant des incivilités). La pratique hiérarchiquement la plus haute, et celle qui ne doit être utilisée qu'en dernier recours, est le processus de médiation (mediation). Comme dans les conflits juridiques du monde réel, les parties en conflit (quand elles sont toutes d'accord) peuvent en appeler à une tierce personne pour essayer de trouver un arrangement. Il existe deux processus de médiation, l'un 'informel', l'autre 'formel'. Le premier, l'informel, est organisé par un club 'non officiel' appelé la mediation cabal[15->#FOOTNOTE-15] et constitué de wikipédiens volontaires. Par contraste, la médiation formelle est, elle, organisée par l' 'officielle' mediation committee[16->#FOOTNOTE-16]. La principale différence entre les deux organes est que le mediation committee est composé de wikipédiens qui ne sont pas seulement volontaires, mais qui ont aussi été élus par la communauté selon la méthode de décision par débat/consensus. Il n'existe pas de règles permettant de savoir si un conflit devrait préférer aller vers un des deux organes ; néanmoins, plus grave est la dispute, plus les tenants au conflit tendent à choisir le comité officiel. Figure 4 : Logo de la mediation cabal. Quand une partie au conflit refuse de participer au processus de médiation ou quand la médiation a échoué, alors le conflit peut aller devant le plus haut et dernier corps du processus de résolution des conflits, à savoir le comité d'arbitrage (arbitration comittee[17->#FOOTNOTE-17]). - avec imposition : le comité d'arbitrage. 'Le comité d'arbitrage s'occupe seulement des conflits et des cas d'infractions aux règles les plus sérieux'[18->#FOOTNOTE-18]. L'organisation de Wikipédia essaie d'éviter le recours au comité d'arbitrage autant que possible. Les wikipédiens sont en effet réticents à régler les conflits à travers l'imposition d'une décision d'un organe officiel (notons d'ailleurs, que c'est le mot arbitrage qui a été choisi et pas le mot jugement). Ainsi, on tente de garder le nombre de cas à un niveau aussi bas que possible[19->#FOOTNOTE-19]. Néanmoins, l'arbitrage ressemble en de nombreux points à un jugement dans la vie réelle. La fonction d'arbitre (arbiter) est particulièrement sérieuse; contrairement au mode classique de nomination débat/consensus, les arbitres sont choisis par un système de vote[20->#FOOTNOTE-20] et nommés ensuite par Jimmy Wales, le fondateur de Wikipédia. Comme toujours dans l'encyclopédie collaborative, les cas sont publics et une page wiki est dédiée pour chaque 'jugement'. L'arbitrage commence après que les arbitres aient vérifié la légitimité d'un jugement et notamment, que les procédures précédemment décrites ont déjà été utilisées. Les arbitrages ont déjà été présentés dans un de mes précédents articles (Firer-Blaess 2007d). Rappelons seulement que les verdicts dégagés par les arbitres, toujours sous forme écrite, font l'objet d'un très sérieux formalisme qui les fait ressembler aux verdicts de vrais jugements du monde réel. Ce formalisme découle très certainement du besoin de légitimité et de l'importance symbolique que le comité d'arbitrage veut donner à ses décisions. Ces dernières ont res juridica (autorité de la chose jugée) et seront appliquées ; elles incluent souvent des punitions qui sont à 'la hauteur' de la gravité de la faute. -punir Si la prison était et est toujours la punition universelle et modulable du monde moderne, la punition systématique sur Wikipédia est le bannissement (ban). Un bannissement est une interdiction (autant qu'une impossibilité technique, par le blocage de l'adresse I.P.) d'éditer sur Wikipédia. A l'instar des sentences de prison, les bannissements peuvent se voir moduler dans le temps, mais aussi dans le 'lieu'; c'est-à-dire, un jugement peut interdire à un usager d'éditer sur un article précis ou sur une catégorie d'articles. Quand il a été prouvé qu'un usager a édité pour une autre raison que celle de construire une bonne encyclopédie (motivations personnelles, lobbying...), la sentence est souvent la plus élevée des punitions : un bannissement à portée générale (sur toute l'encyclopédie) et à temps indéfini. Ces banissements indéfinis comportent des durées incompressibles (souvent un an) ; après cette période, l'agent puni pourra demander à la communauté sa réintégration, qui sera décidée selon le processus de décision wikipédien. De nombreuse décisions sont prises aussi non pas pour éviter que les usagers écrivent sur Wikipédia, mais afin de leur faire accepter les règles : un grand nombre de cas concernent des incivilités et des non respects de la pratique de décision ; dans ces cas-là, le bannissement sera de courte durée, de l'ordre de quelques mois. Conclusion Cette partie nous a montré quels sont les mécanismes de normalisation qui existent dans Wikipédia afin que ses agents respectent les règles. La structure de ces mécanismes est bien différente de la discipline moderne décrite par Foucault dans son Surveiller et punir. La discipline moderne était en effet construite autour des cercles concentriques du panoptique, mêlée à la structure pyramidale de la hiérarchie (Foucault [1975] 2006: 205). Les rôles étaient fixés. Dans la structure de discipline en réseau de Wikipédia, la plupart des rôles peuvent changer d'un utilisateur à l'autre. La discipline wikipédienne contient une majorité de mécanismes rhizomatiques, ce qui signifie que chacun peut prendre à son tour le rôle de disciplineur ou de discipliné, selon les circonstances. C'est le cas pour les rôles de regardant/regardé, normalisant/normalisé, résolution de conflit/partie au conflit, encourageur/encouragé. Cette discipline non-hiérarchique est complétée par des disciplines à hiérarchie faible qui contient des rôles fixes ; c'est ainsi le cas pour les médiations à un conflit sérieux, pour les procédures judiciaires et punitives. Ces dernières sont certes utilisées rarement, mais elles sont peut-être toutes aussi importantes pour l'équilibre disciplinaire wikipédien. Il faut néanmoins constater la grande prévalence des premiers outils rhizomatiques : le regard et l'éducation sont omniprésents, par exemple. Le pouvoir hiérarchique des administrateurs est plus présent mais, comme on l'a déjà vu, les mécanismes de nomination et de 'recall'[21->#FOOTNOTE-21] (perte du statut d'administrateur) semblent assurer qu'une oligarchie ne se forme pas et que les actes des administrateurs reflètent autant que possible la volonté de la communauté. Après avoir étudié les processus de décision et la discipline qui la sous-tend, regardons maintenant les résistances que celles-ci rencontrent. III. Pratiques de résistance : stratégies et contre-mesures Une relation de pouvoir est l'acte (ou 'jeu' ou 'lutte') d'un agent envers un autre dans le but de le mener à une pratique qu'il aurait pu ne pas mener. La discipline que nous avons décrite est bien une relation de pouvoir, elle implique que les agents respecteront les règles. Selon Foucault, une relation de pouvoir est un flux qui va toujours dans les deux sens, puisque l'humain intègre toujours dans ses actions une part de liberté, même dans ses actions imposées, et peux y répondre, lui résister plus ou moins. La discipline et la normalisation ne peuvent jamais être complètes et les contre-pouvoirs ont souvent tendance à prendre racine. De même que, selon Foucault, le système panoptique ne réussit pas à éliminer entièrement les pratiques de résistance, le système hyperpanoptique ne peut pas les supprimer non plus, en dépit de la démultiplication des yeux du regard. Dans Wikipédia, le pouvoir disciplinant existe mais aussi, corollairement, existent différentes pratiques de résistance à l'encontre de ce dernièr. Les jeux de pouvoir et de contre-pouvoir sont constants dans le champ wikipédien. Les pratiques de résistance sont toutes celles qui, consciemment, perturbent le processus de décision et vont à l'encontre des règles de Wikipédia. Le vandalisme per se (éditer un article dans le but d'abaisser sa qualité) est en quelque sorte une résistance 'naïve' et inoffensive, puisqu'il peut être facilement et rapidement annulé. Nous nous concentrerons ici sur des résistances moins visibles et plus graves, à savoir celles qui tentent de corrompre (distort) le processus de décision. En premier, nous allons voir une technique de résistance individuelle, appelée sockpuppeting. En second, nous discuterons de la résistance collective avec le lobbying. A. Sock Puppets C'est-à-dire 'Poupée de chaussette', intraduisible en français mais assez imagé pour com- prendre. Le processus de décision wikipédien de débat/consensus est sensible au nombre de personnes prenant partie au débat : plus il y a de monde partageant une idée, plus celle-ci a de chances d'être adoptée. De ce fait, une pratique de résistance a émergé et a pris ce nom de sockpuppeting. Cette dernière a pour but de perturber et de tricher avec le processus de décision en multipliant le nombre de comptes d'un seul agent, afin de 'jouer' à être différentes personnes dans un débat. A côté du sockpupetting 'classique' a été identifié diverses variantes : le meatpuppeter recrute famille et amis afin d'influencer des décisions, et l'inventif strawpuppet est le fait de créer un sockpuppet utilisé comme faux 'opposant', faisant de mauvaises interventions afin de discréditer les arguments que combat le sockpuppeter.[22->#FOOTNOTE-22] Figure 5 : Wikipetan, la personnification de Wikipédia, s'amusant avec une sock-puppet. Le sockpuppeting est une pratique connue dans Wikipédia, et est un sujet d'inquiétudes autant que de plaisanterie. Le processus décisionnel wikipédien s'est montré assez résistant à ces stratégies : le style de débat/consensus fait peser les avis individuels non seulement selon la qualité de l'argument, mais aussi selon de le degré de reconnaissance et de popularité de l'agent. Par conséquent, les voix de nouveaux agents auront habituellement un peu moins de poids : les wikipédiens sont conscients des pratiques de sockputting et deviendront suspicieux si de nouveaux agents entrent brusquement dans un débat pour supporter une position minoritaire. Figure 6 : valeur d'un argument selon les différents facteurs. Un second mécanisme de défense est une contre-stratégie qui utilise la discipline. Le sockpupetting est strictement interdit par les règles de Wikipédia et sévèrement puni (souvent par un bannissement à temps indéterminé). Grâce à la surveillance hyperpanoptique, quand quelqu'un suspecte un compte d'être un sockpuppet, il peut demander de l'aide d'une police spéciale de Wikipédia composée de wikipédiens à pouvoirs spéciaux appelés les checkusers. Ces derniers sont très peu nombreux et parmi les wikipédiens les plus dignes de confiance de la communauté ; il leur est donné un outil qui leur permet d'aller au plus profond des données privées d'un usager, puisqu'ils peuvent localiser géographiquement l'ordinateur ayant servi à l'usager. Avec cet outil, les checkusers peuvent comparer les localisations d'éditions et démasquer les sockpuppets. B. Lobbies Les individus peuvent bien sûr chercher à dégrader la règle de neutralité d'édition (NPOV) pour raisons personnelles, politiques, religieuses, etc... La résistance la plus sérieuse provient de grandes organisations, publiques ou privées. Nous les appellerons des lobbies : elles cherchent leur propre intérêt et n'ont rien à faire de la politique de neutralité ou de la qualité de l'encyclopédie en général. Le problème des lobbies s'est matérialisé lorsque Wikipédia est devenu populaire ; aujourd'hui l'encyclopédie en ligne est devenu le cinquième site web le plus visité au monde, après Facebook, Google, Yahoo! et la messagerie Microsoft, ce qui en fait le premier site d'information de la planète[23->#FOOTNOTE-23]. Depuis 2005, des douzaines de grandes compagnies et sectes ont été identifiées comme ayant tenté de supprimer ou de diminuer les critiques à leur encontre qui étaient affichées dans les articles les concernant. Nous avons, par exemple, Wall-mart, Exxon-Mobil, Shell, Microsoft, ainsi que l'Eglise de scientologie et le Vatican. Plusieurs services de renseignement d'Etat ont aussi essayé de modifier des informations sensibles, tels que la CIA et les services de renseignements australiens[24->#FOOTNOTE-24] . Wikipédia pourrait être corrompue par l'influence de ces puissants lobbies : on pourrait imaginer la création de départements entiers à l'intérieur de ces grandes organisations, dévoués à submerger le processus de décision wikipédien afin de modeler les articles à leur guise. La contre-mesure a été rapide et vient d'un wikipédien : en aout 2007 Virgil Griffith, un programmeur à l'Institut de Technologie de Californie, publie un outil appelé wikiscanner. Cet outil est une base de données publique qui lie les millions d'éditions anonymes dans Wikipédia aux organisations qui les ont produites. Ainsi le wikiscanner permet de surveiller les organisations et de voir leurs éditions. On peut considérer cet outil comme une extension de l'hyperpanoptique qui se concentre sur les lobbies. Comme M. Griffith le dit : 'Globalement - et particulièrement pour ce qui est des sujets non-controversés - Wikipedia marche déjà bien. Pour les sujets controversés, Wikipédia peut devenir plus fiable avec l'aide de techniques comme [WikiScanner]'[25->#FOOTNOTE-25]. Le but de Griffith était de 'créer un petit fiasco dans les relations publiques des compagnies et organisations [qu'il] n'aime pas'[26->#FOOTNOTE-26] ; en pratique, il peut certainement ralentir les tentatives des lobbies : la couverture média fut abondante sur cette affaire depuis que l'outil a été publié et les éditions d'organisations privées comme publiques sont maintenant examinées minutieusement. Le combat contre les lobbies ne sera pas seulement résolu par l'extention de l'hyperpanoptique. Il faudra aussi une application stricte de la règle de neutralité éditoriale, du processus de décision par débat/consensus, des règles de citation. Même si les organisations mettent beaucoup d'effort pour modifier l'encyclopédie à leur convenance, leur tâche deviendra bien difficile grâce aux mécanismes de surveillance et si la communauté continue de prendre sa mission à coeur. C. Implication théorique : de la normativité de la discipline J'ai parlé de ce sujet de la résistance notamment parce que, dans la logique foucaldienne de la discipline, la résistance est 'normalement' vue comme le bon côté de la pièce contre la méchante discipline dominatrice. On ne peut pas la considérer comme cela dans Wikipédia. Il est des disciplines que l'on pourrait considérer comme positives. L'hypothèse est que la discipline n'est pas normativement chargée telle quelle, mais que sa normativité dépend à la fois de sa nature et de sa fonction. Foucault reste normativement (éthiquement) neutre dans ses écrits à ce sujet, mais la forme, le style de l'écriture, de même que la période historique durant laquelle les textes sont écrits ne peuvent que faire penser au lecteur à une tournure normative. En lisant Surveiller et Punir par exemple, on ne peut que se sentir outré à l'encontre des technologies de pouvoir aliénantes, dominant et assujettissant les personnes. Néanmoins Foucault ne donne jamais de raisons normatives pour les critiquer, il ne semble que les décrire. Pourtant il utilise, comme Nancy Fraser l'a montré, une 'terminologie ressemblant à de la normativité' ('normative-sounding terminology', Fraser 1989 : 27). De même pour Foucault, le pouvoir n'est pas non seulement répressif, il ne 'dit pas seulement non à ce qui est défini comme des désirs, besoins, actes et discours illicites' (Fraser : 26), il est aussi et surtout le créateur, le producteur de toutes ces choses. Le pouvoir est indispensable à toutes pratiques (Fraser : 31), ainsi il serait inutile de critiquer ou de juger quelque chose qui ne peut ne pas exister. Pourtant si le pouvoir est indispensable aux relations humaines, on peut affirmer que ses modalités peuvent changer et avoir des effets normatifs différents l'une par rapport à l'autre. Par exemple, il semble que la discipline moderne décrite par Foucault serve les normes qui proviennent du dehors de la communauté, aliénées de la volonté des agents, décidées par et servant les forces dominante que sont l'Etat, le capital, la tradition... Au contraire, la discipline de Wikipédia sert des normes qui proviennent de la communauté, décidées par les wikipédiens. Elles existent pour servir un processus de décision qui rend possible à chacun de s'exprimer sur un pied d'égalité, et en approchant un discours rationnel. Donc, la fonction de la discipline moderne est la domination, tandis que la fonction de la discipline wikipédienne est la création d'une encyclopédie libre, et plus précisément, l'application de décisions dont la formation se rapproche fortement du modèle démocratique. Sur la nature de la discipline, remarquons que la discipline moderne se fonde sur la domination d'une minorité de gardiens, professeurs... sur la majorité de la population. Au contraire, la discipline wikipédienne marche majoritairement sur les mécanismes de rhizome que nous avons décrit ; le pouvoir est bien plus également distribué. Enfin comme nous l'ont montré Hansen et al. (2007), cette discipline promeut un processus de décision qui se rapproche du modèle de discours rationnel habermassien. Conclusion : Wikipédia : un modèle applicable aux démocraties électroniques? Wikipédia et les projets de démocratie électronique ont en commun la mise en place d'un processus de décision à échelle de masse. La méthode wikipédienne pourrait-elle s'appliquer aux différents projets de démocratie électronique évoqués au début de notre article? Une étude approfondie de ces projets devrait être menée et fera peut-être l'objet d'un prochain article. En attendant, et pour commencer, on peut voir que le système de débat est déjà en place dans beaucoup de ces projets et que certains mettent aussi l'accent sur la formation d'un consensus. Il faudra encore une fois étudier ces cas pour voir si les débats atteignent un niveau de discours rationnel habermassien. Forts de l'expérience wikipédienne, nous savons aussi sans doute qu'une discipline foucaldienne devra se former pour atteindre un tel niveau ; on pourrait résumer cela par la formule 'sans Foucault, pas d'Habermas'. Ces disciplines seront-elles hiérachiques ou rhizomatiques? Encore une fois impossible de le prévoir sans étude préalable. Nous devons aussi soulever les différences de fond entre les deux types de projet, qui pourraient impliquer des différences entre les formes organisationnelles de ces derniers. Construire une encyclopédie libre n'est pas la même chose que de mener la vie de la cité, le politique au sens le plus pur du terme. Comme première différence fondamentale, on peut d'abord évoquer l'importance des choix impliqués et les potentialités de conflit que cela engendre. La recherche de la vérité d'un article est chose importante, mais bien moindre qu'un choix politique qui aurait des conséquences matérielles et humaines. De même, alors qu'on touche à l'existence réelle, les différences d'opinions se font beaucoup moins aptes à se modérer et à se comprendre les unes des autres . Aussi la recherche de la de la volonté générale n'est pas acceptée, consciemment ou non, par tout les agents voire par la majorité, et cet état d'esprit peut grandement différer entre les diverses cultures démocratiques des différentes nations. Voilà pourquoi nous pouvons supposer que le débat peut avoir lieu, mais que la formation de consensus seraient difficile à mener ; peut-être, ainsi, le recours au système de vote majoritaire sera demandé dans les cas où le consensus ne se forme pas. On pourrait aussi objecter que le temps des deux projets est différent : il n'y a pas d'urgence à écrire un article tandis qu'il y a parfois urgence à prendre des décisions matérielles. Néanmoins, je pense qu'une démocratie électronique pourrait s'occuper uniquement du législatif et que l'exécutif, y compris l'application des lois et les innombrables micro-décisions que cela entraîne (sous la forme des décrets et des réglements notamment) pourrait être laissé au pouvoir exécutif classique. Or, ce que l'on critique bien dans le système démocratique actuel, c'est notamment le vote de lois qui ont été proposées sous le coup d'un évènement précis et d'une émotion éphémère. Les bonnes lois prennent le temps de se former et d'arriver à maturation, ainsi je ne vois pas d'inconvénients à ce qu'une décision prenne des mois à être prise, comme c'est le cas pour Wikipédia. Il y a ensuite la question de la fréquence des décisions. Les modifications d'un article, tant qu'elles prennent la forme d'un consensus passif, peuvent être très nombreuses au court d'une seule journée, et bien sûr on ne peut pas concevoir cela à propos de lois. Mais il n'y aurait pas d'inconvénient, bien au contraire, à ce que le texte d'un projet de loi soit rapidemment et fréquemment modifié. Pour ce qui est du 'vote' des lois en lui-même, l'exemple du processus de décision lors de la formation des règles conviendrait tout à fait à celle de lois dans le monde réel : les débats sont longs et les modifications de texte nombreuses, mais en fin de compte c'est bien un texte qui survient, non-modifiable sans nouvelle procédure de décision. Finalement, Wikipédia nous offre les outils pour les différents cas de choix démocratiques : les méthodes d'édition des articles peuvent s'appliquer au travail des textes de lois, celles concernant la création des règles wikipédiennes pour le vote des lois et enfin, les méthodes de sélection des wikipédiens à pouvoir spéciaux pourront s'appliquer à l'élection des pouvoirs exécutifs ! L'expérience des résistances à la discipline donne aussi un bon exemple des possibilités de contre-mesure ; spécialement en ce qui concerne les lobbies, dont on ne déniera pas ici leur utilité dans le processus démocratique de la politique réelle, mais dont les agissements, s'ils respectent les règles du jeu, pourraient devenir plus transparentes, même si l'on n'empêchera jamais les dessous de table de se produire. La construction des démocraties électroniques se fera certainement d'une manière pragmatique, par essais et erreurs, tout comme l'a été Wikipédia. Mais peut être que les créateurs et la Multitude pourra se servir de cette dernière comme exemple, et construire rapidement un système fiable qui serait, j'en suis certain, la plus grande dans les systèmes démocratiques depuis la construction de la démocratie libérale. Bibliographie _ Deleuze et Guattari, 1989 [1980], Mille plateaux, Minuit. _ Firer-Blaess, Sylvain -2007 a, Wikipedia, le refus du pouvoir, post-graduate thesis at the Institut d‘Etudes Politiques de Lyon. http://doc-iep.univ-lyon2.fr/Ressources/Documents/Etudiants/Memoires/MFE2007/firer-blaess_s/html/index-frames.html -2007 b, Wikipedia : présentation et histoire, homo-numericus.net [http://www.homo-numericus.net/spip.php?article273->http://www.homo-numericus.net/spip.php?article273] - 2007 c, Wikipedia, modèle pour une société hyperpanoptique; homo-numericus.net [http://www.homo-numericus.net/spip.php?article275->http://www.homo-numericus.net/spip.php?article275] - 2007 d, Wikipedia : hiérarchie et démocratie, homo-numericus.net [http://www.homo-numericus.net/spip.php?article276->http://www.homo-numericus.net/spip.php?article276] -2008, Wikipedia : governance, mode of production, ethics , MA thesis at the Center for Social and Political Thought, the University of Sussex, England. [http://www.box.net/shared/sk48tx6obt->http://www.box.net/shared/sk48tx6obt] _ Foglia, Marc, 2008: Wikipedia, Média de la connaissance démocratique?, FYP éditions, Limoges (France) _ Foucault, Michel, 2006 ?1975?, Surveiller et Punir, collection Tel, Gallimard. _ Foucault, Michel ,1994, Dits et Ecrits, 4 Volumes, nrf Gallimard. _ Fraser, Nancy 1989: Unruly practices : power, discourse and gender in contemporary social theory, , Cambridge: Polity Press Fraser, Nancy, 2003: ‘From Discipline to Flexibilization? Rereading Foucault in the shadow of Globalization’ in Constellation, vol.10, n.2 Habermas, Jürgen, 1987 : Théorie de l'agir communicationnel, _ Fayard Hansen, S., Berente, N., Lyytinen,K, 2007: ‘Wikipedia as Rational Discourse: An Illustration of the Emancipatory Potential of Information Systems’, in Proceedings of the 40th Hawaii International Conference on System Science _ Sanger, Larry, 2005, 'The early history of Wikipedia and Nupedia: a Memoir', Slashdot.org _ [http://features.slashdot.org/article.pl?sid=05/04/18/164213->http://features.slashdot.org/article.pl?sid=05/04/18/164213] _ [http://features.slashdot.org/article.pl?sid=05/04/19/1746205&tid=95->http://features.slashdot.org/article.pl?sid=05/04/19/1746205&tid=95] Notes 1 [FOOTNOTE-1<-] Une liste de ces sites est disponible sur [http://www.metagovernment.org/wiki/Main_Page->http://www.metagovernment.org/wiki/Main_Page] . Rajoutons debatewise , americaspeakingout et, pour le cas français, le site jeparticipe.org _ 2 [FOOTNOTE-2<-] Nous parlerons ici de la wikipédia anglophone. C'est elle qui connait le plus grand nombre d'articles et le plus grand nombre de visiteurs. _ 3 [FOOTNOTE-3<-] Je reprend ici le terme d'Habermas. _ 4 [FOOTNOTE-4<-] Parfois, certains individus en conflits restent dans une pratique non-comunicationnelle et décident de supprimer les modifications de l'opposant à tour de rôle, et ceci indéfiniment. Cette pratique, appelée guerre d'édition (edit war), est reconnue et interdite par les règles de wikipédia. La Three Revert Rule, notamment, interdit à un usager de faire la même modification trois fois en une journée. ( [http://en.wikipedia.org/wiki/Wikipedia:Edit_warring->http://en.wikipedia.org/wiki/Wikipedia:Edit_warring] ) _ 5 [FOOTNOTE-5<-] D'autres règles structurant les débats sont les règles de vérifiabilité, qui demande que chaque information doit citer une source vérifiable et reliable, et l'interdiction des citations de recherches originales (les sources doivent avoir supportées un processus de peer review. Bien sûr, ces règles sont sujettes à interprétation, et nombreux sont les débats d'édition qui tournent autour de ces interprétations. _ 6 [FOOTNOTE-6<-] [http://en.Wikipedia.org/wiki/Wikipedia:Village_pump->http://en.Wikipedia.org/wiki/Wikipedia:Village_pump] _ 7 [FOOTNOTE-7<-] Par exemple la page des 'discussions centralisées' ('centralised discussion page'), qui regroupe les sujets en cours dans la communauté devrait être au courant : [http://en.wikipedia.org/wiki/Template:Cent->http://en.wikipedia.org/wiki/Template:Cent] _ 8 [FOOTNOTE-8<-] [http://en.wikipedia.org/wiki/Wikipedia:Five_pillars->http://en.wikipedia.org/wiki/Wikipedia:Five_pillars] ; [http://en.wikipedia.org/wiki/Wikipedia:List_of_policies->http://en.wikipedia.org/wiki/Wikipedia:List_of_policies] ; [http://en.wikipedia.org/wiki/Wikipedia:List_of_guidelines->http://en.wikipedia.org/wiki/Wikipedia:List_of_guidelines] . _ 9 [FOOTNOTE-9<-] http://en.wikipedia.org/wiki/Wikipedia:Requests_for_adminship#About_RfA . Ma traduction _ 10 [FOOTNOTE-10<-] [http://en.Wikipedia.org/wiki/Wikipedia:Polling_is_not_a_substitute_for_discussion->http://en.Wikipedia.org/wiki/Wikipedia:Polling_is_not_a_substitute_for_discussion] _ 11 [FOOTNOTE-11<-] http://en.wikipedia.org/wiki/Wikipedia:Adoption . Ma traduction. _ 12 [FOOTNOTE-12<-] [http://en.wikipedia.org/wiki/Wikipedia:Assume_good_faith->http://en.wikipedia.org/wiki/Wikipedia:Assume_good_faith] _ 13 [FOOTNOTE-13<-] [http://en.wikipedia.org/w/index.php?title=Don%27t_bite_the_newcomer->http://en.wikipedia.org/w/index.php?title=Don't_bite_the_newcomer&redirect=no][&redirect=no->http://en.wikipedia.org/w/index.php?title=Don't_bite_the_newcomer&redirect=no] _ 14 [FOOTNOTE-14<-] [http://en.wikipedia.org/wiki/WP:barnstars->http://en.wikipedia.org/wiki/WP:barnstars] _ 15 [FOOTNOTE-15<-] [http://en.wikipedia.org/wiki/Wikipedia:Mediation_Cabal->http://en.wikipedia.org/wiki/Wikipedia:Mediation_Cabal] . _ 16 [FOOTNOTE-16<-] [ http://en.wikipedia.org/wiki/Wikipedia:Mediation_committee->http://en.wikipedia.org/wiki/Wikipedia:Mediation_committee] et [http://en.wikipedia.org/wiki/Wikipedia:Mediation->http://en.wikipedia.org/wiki/Wikipedia:Mediation] _ 17 [FOOTNOTE-17<-] [http://en.wikipedia.org/wiki/Wikipedia:Arbitration_Committee->http://en.wikipedia.org/wiki/Wikipedia:Arbitration_Committee] . _ 18 [FOOTNOTE-18<-] [http://en.wikipedia.org/wiki/Wikipedia:Arbitration_Committee->http://en.wikipedia.org/wiki/Wikipedia:Arbitration_Committee] ; ma traduction. _ 19 [FOOTNOTE-19<-] Malheureusement, les statistiques concernant le comité d'arbitrage ne sont pas disponibles actuellement. _ 20 [FOOTNOTE-20<-] Cela montre-t-il, en passant, la supériorité de la du vote sur le consensus, même dans la communauté wikipédienne? _ 21 [FOOTNOTE-21<-] Voir [http://en.wikipedia.org/wiki/Wikipedia:Administrators->http://en.wikipedia.org/wiki/Wikipedia:Administrators] _ 22 [FOOTNOTE-22<-] [http://en.wikipedia.org/wiki/Wikipedia:Sock_puppet->http://en.wikipedia.org/wiki/Wikipedia:Sock_puppet] _ 23 [FOOTNOTE-23<-] [http://toolbar.netcraft.com/stats/topsites->http://toolbar.netcraft.com/stats/topsites] _ 24 [FOOTNOTE-24<-] [http://news.bbc.co.uk/2/hi/technology/6947532.stm->http://news.bbc.co.uk/2/hi/technology/6947532.stm] _ 25 [FOOTNOTE-25<-] [http://virgil.gr/31.html->http://virgil.gr/31.html] . Ma traduction. _ 26 [FOOTNOTE-26<-] [http://creativemac.digitalmedianet.com/articles/viewarticle.jsp?id=172757->http://creativemac.digitalmedianet.com/articles/viewarticle.jsp?id=172757] . Ma traduction. ---------------------- Crédits photographiques : [rhizoming resilient iterability->http://www.flickr.com/photos/jef_safi/3110469855/in/photostream/], par Jeff Sati, en CC by-nc-nd 2.0 sur Flickr
2011-09-11 14:14:44
Version auteur d'un texte proposé pour le supplément annuel de la revue de la SHMC. En quoi les technologies numériques changent-elles les conditions dans lesquelles l’historien exerce son métier ? Cela fait plusieurs décennies maintenant que des réponses commencent à être apportées à cette question. La constitution de bases de données quantitatives, la numérisation d’importants corpus de sources, la représentation cartographique et l’analyse au moyen d’outils informatiques de réseaux sociaux en sont les marqueurs les plus anciens et les plus importants. Plus récemment, la numérisation rétrospective et l’édition en ligne de la littérature académique de la discipline, que ce soient les revues ou les livres, a constitué une étape supplémentaire dans cette direction. C’est donc à la fois la boîte à outils des historiens, pour reprendre la belle expression du blog éponyme[[Franziska Heimburger and Emilien Ruiz, ‘La Boite à Outils Des Historiens’ http://www.boiteaoutils.info/ [consulté le 11 Septembre 2011].]], et ses moyens de publication qui ont été profondément transformés par les technologies numériques, jusqu’à présent. Certains exemples fameux du passé ont appris aux historiens qu’il n’est pas toujours aisé de déterminer à partir de quel moment il est temps de « terminer la révolution ». Les phénomènes révolutionnaires se nourrissent parfois d’eux-mêmes. On peut alors parler, comme le fait le sociologue Philippe Breton à propos d’Internet, de « révolution permanente »[[Philippe Breton, Le culte de l’internet : une menace pour le lien social ? (Editions La Découverte, 2000).]]. Ce sont donc aujourd’hui de nouveaux outils et surtout de nouvelles pratiques de communication en réseau qui, adoptées de plus en plus massivement par le grand public depuis plusieurs années, ont fait leur apparition plus récemment et commencé à être utilisées dans les sciences humaines et sociales. Il s’agit bien sûr des outils du Web 2.0 qui se distinguent de la génération précédente par leur facilité d’utilisation et le caractère à la fois déconcentré, horizontal et immédiat des pratiques de communication qu’ils permettent : plateforme de partage (de documents, photographies, références bibliographiques), blogs et réseaux sociaux constituent un ensemble de « médias sociaux » dont l’adoption par les historiens fait l’objet de débats croissants comme en témoigne le colloque organisé tout récemment par l’Institut Historique Allemand sous le titre : « Dans la Toile des médias sociaux : nouveaux moyens de communication et de publication pour les sciences humaines et sociales »[[Pierre Mounier, ‘Dans La Toile Des Médias Sociaux / Im Netz Der Sozialen Medien 27 – 28 Juin 2011’, Digital Humanities à l’IHA, 2011 http://dhiha.hypotheses.org/25 [consulté le 28 August 2011].]]. Il était particulièrement intéressant d’entendre au cours de ce colloque des chercheurs venus d’horizons très divers évoquer la manière dont ils s’étaient saisis de ces nouveaux outils pour renouveler en profondeur leurs pratiques de communication. On pouvait y rencontrer des historiens comme Peter Haber de l’Université de Bâle avec son blog sur Hist.net[[Peter Haber and Jan Hodel, ‘Weblog.hist.net Weblog Zu Geschichte Und Digitalen Medien’ http://weblog.hist.net/ [consulté le 11 Septembre 2011].]], André Gunthert de l’EHESS qui a mis en place une plateforme de carnets de recherche en histoire visuelle[[‘Culture Visuelle | Média Social D’enseignement Et De Recherche’ http://culturevisuelle.org/ [consulté le 11 Septembre 2011].]] ou encore Klaus Graf qui a présenté le célèbre Archivalia[[Klaus Graf, ‘Archivalia’ http://archiv.twoday.net/ [consulté le 11 Septembre 2011].]] et a fait sensation en déclarant avec provocation qu’« Un scientifique sans blog est un mauvais scientifique »[[Mareike König, ‘Tweets Und Gedanken Zur Tagung “Im Netz Der Sozialen Medien”’, Digital Humanities à l’IHA, 2011 http://dhiha.hypotheses.org/284 [consulté le 11 Septembre 2011].]]. Un travail à « atelier ouvert » Malgré la polémique, il peut être intéressant de tenter de comprendre le rôle que peut jouer et à quel niveau s’insère le carnet de recherche dans le travail du chercheur. Et puisqu’il s’agit à l’évidence d’un dispositif de communication, c’est la question de son positionnement par rapport aux publications traditionnelles, revues et livres, désormais diffusés en ligne eux aussi, qui se pose. Le trait majeur qui ressort de l’observation attentive des carnets de recherche tels que ceux qui viennent d’être évoqués ou qui sont hébergés sur la plateforme Hypotheses.org proposée par le Cléo est le suivant : alors que les publications traditionnelles séparent fortement la communication interne (des résultats de recherche à destination des pairs) et la communication externe (de « vulgarisation » à destination du public), les carnets de recherche ont tendance à les fusionner au sein d’un même espace éditorial. Sur son carnet, l’historien travaille à « atelier ouvert » ; il dévoile le quotidien de son activité, ses lectures, ses trouvailles, ses hypothèses, ses doutes. Finalement, il évoque un aspect de la recherche « en train de se faire » selon la formule consacrée par la sociologie latourienne[[Enro, ‘Comment Montrer La “science En Train De Se Faire”? ?’, La Science, La Cité, 2008 http://www.enroweb.com/blogsciences/index.php ?2008/05/31/261-comment-montrer-la-science-en-train-de-se-faire [consulté le 11 Septembre 2011].]], qui intéresse aussi bien ses collègues les plus immédiats désireux d’accéder sans délai à cette information et éventuellement de la critiquer sur le mode de la conversation scientifique, et en même temps un plus large public intéressé pour une raison ou une autre par le thème traité. Dans tous les cas, ce qui différencie fortement le carnet des formes canoniques de publication contraintes sur le plan formel et temporel, c’est la liberté dont bénéficie son auteur pour le ton, la forme, la longueur, le sujet et le rythme de publication. C’est cette liberté très grande dans les modes d’expression qui donne au chercheur à la fois un certain plaisir et donc une motivation à écrire et attire un lectorat hybride qui a la possibilité d’entrer en conversation avec l’auteur. Le résultat est étonnant : les carnets de recherche sont très différents les uns des autres ; les chercheurs, individuels ou constitués en équipe y publient toutes sortes d’informations diverses selon des rythmes variables et sans homogénéité de longueur. Lorsqu’on les place à côté des revues et d’autres formes de publication plus encadrées, les carnets donnent une impression de désordre complet. Ils exposent le « bric à brac du chercheur » selon la juste expression de Marin Dacos[[Marin Dacos and Pierre Mounier, ‘Les Carnets De Recherches En Ligne, Espace D’une Conversation Scientifique Décentrée’, in Lieux De Savoir (Paris : Albin Michel, A paraître), ii.]]. Et c’est par cette diversité qu’il s’agit de les prendre justement, en détaillant les différentes sortes d’information qui peuvent être diffusées sur ces carnets. Le plus souvent, on y trouve de courtes notules relatives à l’actualité du domaine remarquées par leur auteur : annonces de colloques et journées d’étude, appels à contribution, signalements de parutions ou d’exposition. Souvent, le carnetier se contente de recopier le texte de l’appel, le programme du colloque, la 4e de couverture de l’ouvrage paru, sans même y ajouter de commentaire particulier. C’est le cas par exemple du carnet Emma issu du programme de recherche sur les émotions au Moyen-âge animé par Damien Boquet et Piroska Nagy[[Damien Boquet and Piroska Nagy, ‘Les Émotions Au Moyen Âge | EMMA? : A Research Program on Emotions in the Middle Ages’ http://emma.hypotheses.org/ [consulté le 11 Septembre 2011].]]. On peut peut-être s’interroger sur l’utilité de ce type de carnet qui n’est apparemment qu’un conglomérat d’annonces parues ici et là. En réalité, il s’agit d’outils de veille précieux puisque qu’ils offrent une sélection raisonnée - et quelquefois catégorisée - de l’actualité d’un domaine. D’autres outils pourraient être utilisés pour effectuer le même travail (comme les services de signalement ou les agrégateurs de ressources) mais le carnet est un support aussi intéressant. Sur Hypotheses.org, certains carnetiers ont systématisé la démarche en ouvrant des « radars », à l’exemple du Nuevo Mundo Radar[[Frédérique Langue (dir.), ‘Nuevo Mundo Radar | La Atalaya Del Nuevo Mundo’ http://nuevomundoradar.hypotheses.org/ [consulté le 11 Septembre 2011].]] qui rend compte de la veille scientifique de l’équipe de rédaction de la revue du même nom sur le domaine latino-américain. Il est à noter que cette pratique de partage minimaliste de signalements bénéficie d’une belle dynamique avec la multiplication d’outils de toutes natures pour l’assister. Ainsi le Center for History and New Media à Washington, dirigé par l’historien Dan Cohen, est en train de développer un outil, Pressforward[[‘Introducing PressForward’, Roy Rosenzweig Center for History and New Media, 2011 http://chnm.gmu.edu/news/introducing-pressforward/ [consulté le 11 Septembre 2011].]], basé sur le même principe. Notes de lecture Certains carnetiers choisissent de commenter tout ou partie de leur sélection. On progresse alors vers la rédaction de véritables billets qui prennent la forme de notes de lecture, comme on en trouve par exemple dans Les Préfaces du Griffon[[Raphaëlle Bats, ‘Les Préfaces Du Griffon | Sébastien Gryphe? : Imprimeur, Éditeur, Auteur’ http://gryphe.hypotheses.org/ [consulté le 11 Septembre 2011].]], le carnet que Raphaëlle Bats a ouvert récemment sur l’histoire de l’édition lyonnaise du XVIe siècle. Il est important de distinguer ces courtes notes, prises et aussitôt publiées dans le feu de l’action, réactions à chaud, premiers commentaires sur une publication, des comptes rendus de lecture qui sont de véritables articles et qui sont publiés dans des revues. L’une et l’autre formes ne se recoupent pas mais se complètent plutôt : la note publiée dans le carnet a l’avantage de la rapidité et de la liberté de ton (on y est souvent plus incisif) tandis que le compte rendu est revu et édité, il est souvent plus complet et plus impartial. Il n’est d’ailleurs pas exclu que l’une devienne le brouillon en quelque sorte de l’autre, une étape préparatoire qui aboutira plus tard à une véritable publication. Certains carnets proposent des billets plus élaborés, brefs comme il convient à ce type de texte, mais qui rendent compte de tel aspect de la recherche. On peut évoquer le prometteur carnet Rwanda[[Rémi Korman, ‘Rwanda’ http://rwanda.hypotheses.org/ [consulté le 11 Septembre 2011].]] où un doctorant, Rémi Korman, rend compte de ses recherches sur l’histoire et la mémoire du génocide dans les archives de ce pays. Relativement factuels, ses billets rendent compte de l’état des sources sur lesquelles il travaille au moment même où les recherches sont menées. C’est un des intérêts de ce type de publication en ligne, qui repose sur des technologies de blog très légères, de pouvoir être effectuée de n’importe où, y compris dans des conditions de connexion difficiles. D’autres équipes de chercheurs, comme ceux qui travaillent sur les « territoires de l’attente » dans les sociétés américaines et atlantiques[[Laurent Vidal, ‘Terriat | Les Territoires De L’attente’ http://terriat.hypotheses.org/ [consulté le 11 Septembre 2011].]], choisissent plutôt de publier de courtes notes qui sont autant de commentaires sur des sources historiques comme des photos ou des entretiens de terrain. Ici, l’écriture ne s’embarrasse d’un lourd apparat critique ni d’un souci de cohérence ou de construction. Il s’agit véritablement de notes jetées jour après jour sur le carnet et diffusées en l’état. Contrairement à la revue dont les articles sont édités et revu par les pairs, le carnet de recherche n’est que le carnet de notes du chercheur, rien de plus, mais en tant que tel, il constitue une source inestimable d’informations de première main. Le carnet peut aussi être collectif, du reste, à l’image du carnet AIMOS[[Emeric Tellier, ‘AIMOS | Arts, Images Du Mouvement Ouvrier Et Social’ http://aimos.hypotheses.org/ [consulté le 11 Septembre 2011].]] qui rassemble une équipe de jeunes chercheurs désireux de partager entre eux - et avec un public plus large, des ressources sur l’art et les images du mouvement ouvrier et social. Le carnet de note a d’ailleurs quelquefois une valeur historique par lui-même. C’est ce qu’a bien compris l’équipe du Centre d’étude des mondes africains qui publie Les Cahiers de Terrain de Raymond Mauny[[Fabrice Melka, ‘Cahiers De Terrain De Raymond Mauny | Un Blog Utilisant Hypothèses, Portail De Carnets De Recherche’ http://mauny.hypotheses.org/ [consulté le 11 Septembre 2011].]] en publiant en ligne une version numérisée des carnets du célèbre archéologue selon une temporalité quasi-similaire...à soixante ans de distance. Au-delà de la curiosité qu’une telle opération peut susciter et de l’astuce avec laquelle cet élément du patrimoine scientifique est ici valorisé, on ne peut qu’être piqué par la continuité historique d’une tradition savante qui s’établit ainsi d’un support à l’autre et par-delà les affirmations révolutionnaires dont le développement des technologiques numériques s’accompagne souvent : le blog ou carnet de recherche en ligne n’est rien de plus qu’un cahier de terrain partagé, ce qui change à la fois rien et tout. C’est d’ailleurs très exactement ce qu’a voulu établir Christian Jacob dans le deuxième tome de sa magistrale enquête historique sur les Lieux de Savoirs[[Christian Jacob, Lieux De Savoir? : Tome 2, Les Mains De L’intellect (Editions Albin Michel, 2011).]], en commandant un chapitre sur les carnets de recherche en ligne. Une communication schizophrénique ? Au-delà du carnet de terrain en ligne, certaines équipes choisissent d’éditer davantage leurs billets en homogénéisant l’écriture et la présentation de l’information. C’est le cas par exemple du Blog de la Grotte des Fraux qui évoque les campagnes de fouille effectuées dans la grotte du même nom en Dordogne. Très illustré, ce carnet rend compte de manière scrupuleuse de l’avancée des travaux au fond de la grotte est un cas intéressant car il touche à la fois un lectorat très spécialisé (les textes sont souvent très techniques), et en même temps un public plus large amateur d’archéologie : « Le monde particulier de l’art et de la grotte, avec tout ce que ces domaines véhiculent comme images et imaginaires mais également comme interdits, incarne les difficultés de confrontation à un objet de recherche particulier. Parce que la communauté scientifique et le public accèdent avec difficulté à ces milieux physiques et mentaux, notre volonté est de mettre à disposition des chercheurs et des citoyens ces éléments de réflexion. Cette posture pourra sembler schizophrénique ! Comment allier tout à la fois le bon déroulement d’un programme de recherche – tel qu’il requiert de peser les hypothèses, de tester les protocoles, de valider ces résultats …) – et la divulgation de données brutes, non abouties et susceptibles d’être contredites ! C’est là tout l’enjeu de ce blog de chercheurs : communiquer très rapidement des données sur un portail scientifique tout en se donnant la liberté de se contredire et de se déjuger. Telle est l’idée qui nous a séduits dans ce projet. »[[‘L’esprit Du Blog’, Le Blog De La Grotte Des Fraux, 2007 http://champslibres.hypotheses.org/7 [consulté le 11 Septembre 2011].]] Point de schizophrénie dans le projet du Blog de la Grotte des Fraux, bien au contraire, puisqu’il tente de rassembler au sein d’un même espace éditorial à la fois des hypothèses de travail non confirmées, des résultats validés et des explications à destination d’un public non professionnel. Pour cette raison, ce blog constitue une des expériences les plus intéressantes et innovantes en matière de communication scientifique. Du « carnet de brouillon » au carnet de fouille plus élaboré, le carnet de recherche en ligne a l’avantage d’une grande flexibilité qui permet à chaque auteur de définir pour lui-même l’usage qu’il souhaite faire de son carnet. La distance n’est d’ailleurs pas facile à établir et procède de mille ajustements successifs, comme en témoigne Benoît Kermoal dans un des derniers billets publié sur son carnet Enklask/Enquête qui porte sur son sujet de thèse : l’histoire du mouvement socialiste en Bretagne : « malgré mes précautions, certains lecteurs semblent penser que les billets de ce blog forment l’ensemble de ma recherche. Mais ce ne sont que des esquisses, des portions d’un puzzle qui n’a pas de modèle, un ensemble de pièces de lego qui s’emboîtent mal et ne forment encore aucun objet. Pourtant, je continue tout d’abord pour m’entraîner à l’écriture. Mais je continue également car cette forme d’exercice a le mérite d’ordonner ma recherche, de me permettre de classer, de creuser et suivre des pistes et de ne pas avoir l’impression paralysante de faire du surplace. Alors bien sûr pour le lecteur, cela peut paraître brouillon, trop brouillon, et aussi sans doute trop égocentré comme peut l’être un journal d’enquête que l’on garde pour soi. Mais « Enklask/Enquête » n’est pas un carnet de brouillons (j’en ai déjà plein) ; ce n’est pas non plus une liste de billets formant des articles définitifs et rédigés dans les règles de l’art historique. C’est une forme hybride, une exploration de plusieurs chemins avant de trouver la bonne route. Il ne faut pas craindre dès lors de revenir en arrière, de s’avouer perdu ou de reconnaître ses erreurs. Mais l’important est quand même d’avancer dans la recherche. Une telle forme hybride implique aussi de multiplier les changements de ton, les points de vue et les angles d’attaque »[[‘Seulement La Partie Visible De L’iceberg’, Enklask / Enquête, 2011 http://enklask.hypotheses.org/257 [consulté le 11 Septembre 2011].]] Ouvrir les archives ? Il est un domaine qui joue un rôle central dans l’atelier de l’historien et sur lequel celui-ci a bien souvent du mal à divulguer de l’information. Il s’agit de l’archive dont les découvertes qu’il pourrait y faire sont susceptibles de lui donner un avantage compétitif sur ses collègues. Alors qu’il est souvent difficile à l’historien de rendre publiques un certain nombre d’informations sur « ses » archives, en particulier tant que son travail n’a pas fait l’objet d’une ou plusieurs publications, certains chercheurs ont choisi de travailler à « archive ouverte ». C’est le cas d’Isabelle Brancourt qui mène depuis plusieurs années ses recherches sur le Parlement de Paris où elle poursuit en particulier depuis deux ans « la mise à disposition de [son] carnet personnel d’analyse des recueils confectionnés par le commis greffier Jean-Gilbert Delisle, au service du greffier en chef civil du parlement de Paris dans la première moitié du XVIIIe »[[Isabelle Brancourt, ‘Mon “carnet” Delisle? : Son Journal Pour L’année 1730 (I)’, | Parlement De Paris (XVIe-XVIIIe S.), 2010 http://parlementdeparis.hypotheses.org/218 [consulté le 11 Septembre 2011].]]. On ne connaît pas beaucoup d’exemple de mise à disposition de matériaux bruts dans le cours même de la recherche. La pratique est suffisamment rare, semble-t-il, pour être relevée, en ce qu’elle interroge à rebours les pratiques les plus courantes dans la discipline. Il serait injuste de terminer ce tour d’horizon des différents usages qui peuvent être faits par les historiens du carnet de recherche en ligne sans évoquer les carnets méthodologiques qui commencent à naître dans plusieurs disciplines comme la sociologie par exemple avec Quanti, mais aussi en histoire avec Devenir Historien-ne[[Emilien Ruiz, ‘Devenir Historien-ne | Méthodologie De La Recherche Et Historiographie En Master Histoire’ http://devhist.hypotheses.org/ [consulté le 11 Septembre 2011].]] ou encore de manière transversale avec Les Aspects concrets de la thèse[[Moritz Hunsmann, ‘Les Aspects Concrets De La Thèse | Un Blog Par Et Pour Les Jeunes Chercheurs En SHS’ http://act.hypotheses.org/ [consulté le 11 Septembre 2011].]] qui concerne aussi bien les historiens que les autres disciplines. « Thinking with my fingers ». Pour la plupart des carnetiers comme pour la chercheuse Toni Mortensen qui choisit d’attribuer ce titre à son blog[[T. Mortensen, ‘Thinking with My Fingers’ http://torillsin.blogspot.com/ [consulté le 11 Septembre 2011].]], le carnet de recherche est d’abord un outil de réflexivité comme l’est le carnet de notes leur permettant d’avancer dans leur recherche en l’explicitant. Pourtant, ce carnet de notes n’est pas anodin : diffusé en ligne, il est partagé et mis en public. Il porte avec lui une ambigüité que résume bien Benoît Kermoal : « A qui s’adressent les billets ? C’est selon, soit à moi seul, soit à tous les lecteurs, ou encore parfois aux doctorant-e-s ou aux amateurs d’histoire locale ou d’histoire du mouvement ouvrier. Mais c’est surtout un travail qui me permet de structurer ma recherche ». Cette ambigüité, qui est le prix à payer de la liberté, peut être critiquée à bon droit. Elle l’est d’ailleurs souvent. Mais elle est aussi ce qui fait toute la richesse du carnet de recherche. Parce qu’il libère l’écriture du chercheur de tout le poids du formalisme académique, le carnet est en position d’en libérer aussi la créativité. Mais le processus ne peut fonctionner que s’il est soumis à lecture publique, porté vers des destinataires variés ou indéfinis. Il constitue alors une prise de risque indéniable pour le doctorant comme pour le chercheur confirmé. Le jeu en vaut pourtant la chandelle.
2012-01-26 12:54:03
La fermeture brutale par le FBI il y a quelques jours du site MegaUpload.com et de ses satellites a de quoi sidérer ceux qui ont toujours considéré Internet comme un outil de libération de l’accès à la connaissance et de renouvellement du débat public. On ne peut qu’être effaré de l’état dans lequel les protagonistes de la Guerre du Copyright ont mis ce nouvel espace public qu’est le cyberespace, notre bien commun. Faut-il en effet se réjouir simplement avec le Palais de l’Elysée du déploiement sans précédent de forces policières aboutissant à l’arrestation de citoyens européens, à la saisie de serveurs et d’actifs dans huit pays différents, au blocage de noms de domaine internationaux sur la base non pas d’une condamnation mais d’une simple inculpation issue d’un « grand jury » américain statuant sur la base de sa loi nationale ? Doit-on au contraire défendre MegaUpload et son système pervers de « partage » de fichiers très rémunérateur pour Kim Shmitz alias Kim Dotcom, personnage interlope devenu millionnaire en quelques années ? Je ne pense pas être le seul à refuser de choisir entre Charybde et Scylla, entre l’universalisation du droit et de la force de police d’un seul Etat au mépris des souverainetés nationales, de la présomption d’innocence et de la neutralité du réseau d’une part, et le parasitisme de petits malins ayant fait des affaires juteuses sur la base de la répression féroce qui s’est abattue sur les pratiques d’échanges culturels au sein des réseaux décentralisés de pair à pair d’autre part. Lorsqu’Internet fut créé, - par des scientifiques et non par des militaires comme le veut une légende tenace, il devint le vecteur d’une utopie, non pas nouvelle, mais plutôt renouvelée, issue des Lumières, constituée en l’espèce par la liberté d’émettre de l’information, par l’égalité entre les machines connectées au réseau, et par la fraternité entre les internautes. Certains, comme Al Gore en 1994, évoquaient une nouvelle Athènes et avançaient la promesse d’un renouvellement de l’idéal démocratique par la diffusion des savoirs et le débat public universel. Où en sommes-nous ? Internet est aujourd’hui un champ de ruine déchiré par une guerre civile numérique où s’affrontent les milices privées de l’industrie du divertissement d’un côté et l’armée aux pieds nus des Anonymous de l’autre et dont les simples utilisateurs que nous sommes sont les victimes des balles perdues. Lorsque la paix civile est anéantie, lorsque c’est la guerre de tous contre tous, il est du ressort de l’Etat d’imposer la concorde en édictant des lois équilibrées, impartiales, faisant justice aux revendications de chacun lorsqu’elles sont légitimes. Force est de constater que les Etats nous ont failli, qui de DMCA en EUCD, de DADVSI en HADOPI, ont toujours légiféré dans le même sens, au service des mêmes intérêts, et continuent à le faire, de SOPA en ACTA, d’HADOPI 2 en HADOPI 3. Comment s’étonner dès lors que la guerre continue, et continuera éternellement sur le mode de la vendetta contre un Etat perçu comme illégitime, comme le symbolise le masque de Guy Fawkes que porte les Anonymous ? Comment s’étonner encore que ces politiques promues par des Etats qui se targuent d’être démocratiques, ouvrent la voie béante à d’autres qui le sont beaucoup moins pour justifier la censure qu’ils imposent à leurs ressortissants sur Internet ? « Il est techniquement possible de filtrer Internet puisque les Chinois le font bien » avancent avec un aplomb proprement stupéfiant les représentants de l’industrie du Copyright. « Il est légitime de filtrer Internet puisque les Occidentaux s’apprêtent à le faire pour protéger leurs intérêts commerciaux» peut-on répliquer en Chine, en Iran, en Arabie Saoudite. Faut-il que la création d’oeuvres artistiques, scientifiques, culturelles, qui nécessite effort et travail soit protégée, récompensée et soutenue ? Oui, c’est évident, parce que c’est l’héritage que les Lumières nous ont laissé avec le droit d’auteur. Devons-nous permettre un libre accès à ces oeuvres, un libre partage de l’information, une libre circulation de la connaissance ? Oui tout autant, car c’est la nouvelle frontière, la nouvelle promesse d’une ère numérique porteuse d’un renouvellement et d’un approfondissement de l’idéal qui nous vient là encore des Lumières. Comment réconcilier les Lumières avec elles-mêmes et sortir des contradictions qu’induisent les nouvelles technologies de l’information et de la communication ? C’est le défi que nous devons relever aujourd’hui. Des pistes sont suggérées par certains, des expérimentations sont mises en oeuvre par d’autres. Des modèles économiques hybrides émergent ça et là, des experts proposent des modèles de régulation innovants. Encore faut-il les entendre, les écouter, en discuter au sein d’un espace public où chacun doit avoir l’espoir que son point de vue puisse être entendu, et tenter de construire un consensus à partir des positions avancées. C’est bien à l’Etat républicain que revient cette responsabilité ; à l’Etat, juste, impartial et dont les décisions seront perçues comme légitimes. Lequel des candidats à l’élection présidentielle saura répondre à cette attente ?
2012-02-20 03:03:13
Frédéric Bardeau et Nicolas Danet (FR) en Conférence-débat Le jeudi 15 mars à 18 heures Au Mundaneum à Mons (Belgique). Dans le cadre du cycle MUNDADigit@les. Ouvrage classé n° 1 en "Questions de société" pendant tout le mois de janvier ! Entrée: 3€/ Etudiants: 2€ Réservation souhaitée: (0032) 065/31.53.43 ou info@mundaneum.be Mundaneum, rue de Nimy 76 à 7000 Mons (Belgique) « Les Anonymous... Ce nom intrigue, dérange ou fascine. Il fait trembler les puissants, les autorités, les mafias, les grandes entreprises, les institutions et même les États. Puisant ses racines au plus profond de la culture internet, dans cette cyberculture qui a nourri les hackers et développé des valeurs humanistes propres au numérique, ce nouvel activisme pourrait redéfinir les contours de la lutte sociale. (...)"
2012-05-20 08:14:04
Ce texte est la version auteur d'un article commandé par la revue Tracés pour le quatrième et dernier volet de son hors-série ["A quoi servent les sciences humaines"->http://traces.revues.org/4301] (accès restreint). Je les remercie pour m'avoir poussé à réfléchir sur ces questions et à avoir accueilli avec bienveillance mon souhait de publier ce texte en libre accès, sans délai.
Une contribution à l’épanouissement de la place des sciences humaines et sociales dans les sociétés contemporaines
Je propose l’idée selon laquelle la presse en ligne se comporte
comme un prédateur du Web en général, et des sciences humaines et
sociales (SHS) en particulier[[ Je tiens à remercier Pierre Mounier,
Anne Durand, Serge Noiret, Emma Bester et Hubert Guillaud pour leur
aide lors de la rédaction de cet article.]]. Si les SHS veulent
pleinement jouer leur rôle dans l’interprétation et la
compréhension de notre société, elles ne peuvent pas se permettre
de le faire seulement dans le confort et l’isolement des murs de
l’université. Elles ont intérêt à se doter de leur propre force
de projection des idées, c’est-à-dire de leur propre média, au
sens noble du terme de passeur entre deux mondes. En effet, la
naissance du Web et son développement prodigieux constituent une
opportunité historique et crédible pour un tel projet. Par
provocation, mais également par conviction, je considèrerai
Wikipédia comme un exemple et comme un levier permettant l’émergence
de véritables contre-propositions médiatiques de la part des SHS.
Celles-ci doivent se doter d’une stratégie particulièrement
efficace pour ne pas rester à l’état de déclarations
d’intentions ou d’initiatives isolées. Elles devront notamment
s’appuyer sur le principe du libre accès aux résultats de la
recherche, dans la droite ligne des déclarations de Budapest et de
Berlin[[ La déclaration de Budapest est disponible à l’adresse
suivante : http://www.soros.org/openaccess, consulté le 2 mai 2012 ;
la déclaration de Berlin est disponible à l’adresse suivante :
http://oa.mpg.de/lang/en-uk/berlin-prozess/berliner-erklarung,
consulté le 2 mai 2012.]]. En s’orientant ainsi résolument vers
le public, elles ne renonceront pas à leur dimension scientifique,
et même elles profiteront, par effet de levier, de perspectives
méthodologiques nouvelles. L'ensemble de ces développements
constitue une branche très riche des humanités numériques, ou
Digital Humanities, qui sont dotées de leurs organisations[[
Notamment l'Alliance of Digital Humanities Organizations (ADHO), [URL
: http://digitalhumanities.org], consulté le 2 mai 2012.]], de leurs
rencontres [[ Notamment les « non conférences » THATCamp, [URL :
http://thatcamp.org], consulté le 2 mai 2012 ; ainsi que le colloque
annuel de l’ADHO, [URL : http://digitalhumanities.org/conference],
consulté le 2 mai 2012.]] et de leur Manifeste[[ Le Manifeste des
Digital Humanities, produit en mai 2010 à THATCamp Paris, est
disponible à l’adresse suivante :
http://www.humanistica.eu/manifesto, consulté le 2 mai 2012.]]. «
Noindex, nofollow » : le comportement prédateur des médias
généralistes Pour bien comprendre la bataille que livrent
actuellement les médias en ligne, il faut mesurer le rôle des
hyperliens dans l’économie générale du Web. Les hyperliens (ou
liens hypertextes) constituent l’ossature cognitive du Web, dans la
mesure où ils assurent la connexion entre deux pages Web
différentes, à la manière utilisée naguère par les notes de bas
de page. Ces liens permettent une navigation individuelle (browsing)
passant de lien en lien, comme de liane en liane. Plus encore, ils
documentent le Web en permettant à Google, moteur de recherche
dominant, de hiérarchiser les pages entre elles. En effet, son
algorithme considère qu’un lien vers une autre page constitue un
vote. Plus une page Web est citée par d’autres pages Web, plus
Google considère que son importance est grande et plus il mettra en
avant cette page dans ses résultats (Ertzscheid et al., 2009). Ce
système est renforcé par la prise en compte du poids connu de
chaque page : être cité par Lemonde.fr apportera un pourcentage de
son propre PageRank à la page concernée. Or, le Web est régulé
par l’économie de l’attention : les documents sont en
concurrence entre eux, et une des rémunérations principales de ces
contenus est liée à la publicité, elle-même proportionnelle à la
fréquentation. Pour toutes ces raisons, les médias s’appuyant sur
un modèle économique publicitaire ont intérêt à conserver, voire
à capturer l’internaute, ce qui commence par éviter de l’inciter
à partir ailleurs. Or, citer explicitement un contenu en ligne
permet au lecteur d’accéder directement à l’information, donc à
quitter le site d’origine, ce qui n’est pas le cas lorsque l’on
cite un ouvrage papier, qui se situe à une distance physique et
temporelle de plus d’un clic. Théoriquement, le journalisme est
une profession qui pourrait mettre à profit l’édition
électronique pour citer plus finement et plus explicitement ses
sources. Mais les impératifs économiques l’emportent, et les
articles sont avares de citations externes. Il suffit de consulter
une page du monde.fr et une autre de Wikipédia pour voir la
différence de comportement entre les deux types d’écritures en ce
domaine. Pire : la plateforme de blogs du Monde a longtemps eu un
comportement contraire aux bonnes pratiques du Web. Dans la mesure où
les blogueurs du monde ne sont pas assujettis aux mêmes règles
d’écriture que les journalistes, leurs textes comportent un nombre
important de liens pointant vers l’extérieur. De ce fait, le
PageRank des sites cités par les blogueurs pouvait être
positivement influencé par l’ensemble de ces liens, et affaiblir,
par contrecoup, le PageRank du Monde. Pour éviter ce « défaut »,
la plateforme de blogs du Monde superposait sur les hyperliens des
métadonnées invisibles par le novice : « noindex, nofollow »[[ «
Using the robots meta tag », Webmaster Central Blog. Official news
on crawling and indexing sites for the Google index, 5 mars 2007,
[URL :
http://googlewebmastercentral.blogspot.com/2007/03/using-robots-meta-tag.html],
capturé le 27 février 2012, [URL :
http://www.webcitation.org/65lCi5YlD].]]. Ces instructions techniques
sont destinées aux moteurs de recherche pour leur indiquer de ne pas
suivre le lien (« no follow ») et de ne pas indexer (« no index »)
le contenu de la page web cible. Ce type d’instruction a été mis
au point pour permettre aux webmestres de guider les moteurs de
recherche dans leur site, en leur indiquant, notamment, les pages qui
sont redondantes avec d’autres pages du même site ou qui ont une
vocation confidentielle, voire privée, afin d’optimiser
l’indexation de leur propre site web. Déclarer en « noindex,
nofollow » revient à cacher ces pages à Google et à refuser de
voter pour elles. Officieuse et découverte par hasard, cette
politique est choquante et non conforme aux bonnes pratiques de la
profession. Elle a fait l’objet de contestations de la part des
blogueurs eux-mêmes, qui ont finalement obtenu gain de cause, avec
le retrait de ces métadonnées supplémentaires – ces pratiques
avaient été constatées en février 2009 ; en février 2012, elles
avaient disparu. Comment expliquer qu'un journal comme Le Monde,
visant a priori l'information de ses lecteurs, puisse avoir promu des
pratiques de lecture limitant indirectement mais volontairement
l'accès libre à l'information par les internautes ? Les usages de
lecture sur le Web se développent avec une force tellement
considérable que l’on peut imaginer que les intermédiaires
culturels, pédagogues et journalistes, comme Le Monde, se sentent
menacés par ce qu’ils pourraient considérer comme des
concurrents. Tous les signaux convergent pour montrer que les médias
écrits traditionnels doivent désormais cohabiter, en ligne, avec
d’autres contenus textuels sérieux. Vers l’émergence de médias
SHS ? Dans cette partie, je souhaite évoquer l’émergence d’usages
massifs de contenus qui ne sont pas issus de la presse
traditionnelle... pas plus que des maisons d’édition historiques.
Pour mesurer les usages, il est possible de collecter, ici et là,
quelques chiffres de fréquentation donnés par les sites eux-mêmes,
essentiellement à des fins de promotion. Ces chiffres sont toujours
incomplets, ne s’appuient pas sur les mêmes méthodologies, les
mêmes définitions, couvrent souvent des périodes différentes et
sont finalement difficilement comparables. Mais nous ne disposons pas
d’un accès facile à ce type d’information, que seuls des
fournisseurs d’accès pourraient confier à des chercheurs. Dans
l’attente de données de meilleure qualité, peut-on utiliser des
indicateurs accessibles au grand public et construits dans une
perspective commerciale et non scientifique, comme Google Trends for
Websites ? Comparer la fréquentation de sites web : un problème
méthodologique
Google Trends est un outil développé par la
firme de Mountain View pour les acheteurs de mots clés publicitaires
(Helft, 2008). Ce service d’identification des mots clés les plus
souvent interrogés dans le moteur de recherche a pour objectif d’en
augmenter le prix de vente. Un tel outil n’a donc aucune prétention
scientifique, mais il a pu être détourné de sa vocation initiale
pour détecter l’apparition d’épidémies de grippe (Ginsberg et
al., 2009). Le sous-service Google Trends for Websites (GTW) propose,
quant à lui, une évaluation de la fréquentation des plus
importants sites de la Toile. Il ne s’agit que d’une estimation,
qui agrège des données diverses[[ Les deux principales sources sont
les usages mesurés par Google lors de l’interrogation du moteur
par des centaines de millions d’internautes, mais aussi les
millions de sites qui ont adhéré au programme Google Analytics, qui
est un mouchard inséré dans les pages web par leur webmestre afin
de collecter des informations d’usages. Ce service, gratuit pour
les webmestres, apporte en retour des informations de très haute
valeur à Google. La documentation officielle de Google Trends for
Websites décrit précisément la méthodologie utilisée : « Trends
for Websites combine des informations provenant de sources diverses,
telles que les données agrégées des recherches Google, les données
agrégées des abonnés anonymes de Google Analytics, les données de
panels de consommateurs abonnés, et d’autres études de marché.
Les données sont agrégées à partir de millions d’utilisateurs,
traitées grâce à des algorithmes informatiques, et ne contiennent
aucune information personnelle identifiable. De plus, Google Trends
for Websites ne fournit de résultats que pour des sites qui
reçoivent un nombre significatif de visites, et définit des seuils
minimaux d’inclusion dans l’outil. », Google Trends for
Websites, [URL :
http://www.google.com/intl/en/trends/websites/help/index.html#2],
capturé le 25 février 2012, [URL :
http://www.webcitation.org/65idXew1S] ; toutes les traductions sont
de la rédaction.]]. Google insiste sur le caractère imprécis de
ses mesures : Il est important de garder en tête le fait que les
résultats de Trends for Websites sont estimés. De plus, les données
sont mises à jour périodiquement, de sorte que des modifications
récentes dans les flux de données peuvent ne pas être prises en
considération. Enfin, gardez à l’esprit le fait que Trends for
Websites est un un produit Google Labs, ce qui veut dire qu’il est
encore dans ses premiers stades de développement et peut par
conséquent contenir certaines erreurs. À l’avenir, nous tâcherons
peut-être d’améliorer la précision de Trends for Websites en
autorisant les propriétaires à contribuer, en ajoutant les données
issues de leurs propres sites[[ « It's important to keep in mind
that all results from Trends for Websites are estimated. Moreover,
the data is updated periodically, so recent changes in traffic data
may not be reflected. Finally, keep in mind that Trends for Websites
is a Google Labs product, so it's still in its early stages of
development and may therefore contain some inaccuracies. In the
future, we may consider ways to improve the accuracy of Trends for
Websites by allowing owners to contribute additional data from their
sites. », Google Trends for Websites, [URL :
http://www.google.com/intl/en/trends/websites/help/index.html#15],
capturé le 25 février 2012, [URL :
http://www.webcitation.org/65idXew1S].]]. Francis Chateauraynaud et
Josquin Debaz ont, avec raison, mis en évidence les errements
méthodologiques, voire les approximations effarantes de Google en
bien des domaines statistiques (Chateuraynaud, 2010 ; Chateauraynaud
et Debaz, 2010). Il n’est cependant pas interdit de se pencher sur
Google Trends for Websites, en l’absence d’études de terrain et
de données alternatives accessibles. D’ailleurs, ces données
seraient-elles accessibles que leur traitement nécessiterait une
instrumentation lourde, qui donnera probablement naissance à une
branche des humanités numériques et des sciences du Web, dont la
complexité dépasse les capacités du présent article. Je
considèrerai, ici, seulement deux informations comme exploitables :
1/ les oscillations temporelles, non en tant que mesures exactes,
mais comme tendances ; 2/ les informations comparatives entre la
fréquentation de deux sites, là encore moins en tant
qu’informations absolues que relatives. Ce dernier élément est
majeur, car unique au monde, à ma connaissance[[ La firme Alexa
offre des services similaires, mais encore moins précis, [URL :
http://www.alexa.com], consulté le 2 mai 2012.]]. Émergence récente
d’un média pédagogique en SHS : Wikipédia
GTW permet de se
concentrer sur la population d’un pays, ici la France. On peut
demander une information relative aux grands organes de presse
quotidienne, qui est, bien entendu, inférieure à la fréquentation
mondiale. En janvier 2012, Lemonde.fr et Lefigaro.fr faisaient
presque jeu égal, autour de 700 000 visiteurs uniques par jour[[ Un
visiteur unique est une personne ou un poste de consultation, qui
réalise au moins une visite du site dans la journée.]]. De son
côté, Liberation.fr jouissait d’une fréquentation inférieure
d’environ 50 %[[ On notera que le graphique utilise une échelle
logarithmique.]]. Comparons à présent le site Lemonde.fr avec
Wikipedia.org, là encore en nous restreignant à la consultation
française. En janvier 2012, Wikipedia.org attirait environ 2
millions de visiteurs uniques. On pourra longuement commenter un tel
résultat, notamment en soulignant qu’il est difficile de comparer
un quotidien national avec une encyclopédie collaborative
multilingue. Je me contenterai de constater que les français
utilisent désormais une source d’information non journalistique,
née au XXIe siècle, alors que la presse est née au XIXe siècle.
Ce qu’un chercheur en sciences humaines et sociales pourrait tirer
comme enseignement de ce nouveau rapport de forces est qu’il existe
désormais de nouveaux champs d’expression du savoir qu’il
pourrait/devrait investir pour faire progresser le savoir collectif.
Certes, Wikipédia est organisé par des règles collaboratives très
différentes de celles de l’édition scientifique. Pour devenir
auteur dans Wikipédia, le chercheur doit accepter ces règles qui
peuvent produire un choc culturel, d’abord parce que la
contribution de chacun est complexe à identifier dans le texte
final, ensuite parce que des interventions de personnes moins
établies scientifiquement se produiront sur le texte, enfin parce
que le savoir à transmettre doit être strictement neutre et
encyclopédique. L’exercice de style est donc rarement récompensé
en retour, car il ne sera pas reconnu par l’université, pas
considéré comme une publication, et ne contribuera pas à la
renommée de l’auteur – qui décortique l’historique d’une
page Wikipédia pour identifier les contributions les plus
significatives ? Ce que nous perdons du point de vue de la
reconnaissance, nous le gagnons en liberté, car Wikipédia est un
média inscriptible, c’est-à-dire ouvert en permanence à des
modifications collaboratives (Dacos éd., 2010), alors que la presse
est par nature beaucoup plus restrictive. À titre personnel,
j’utilise Wikipédia comme un support pédagogique, demandant à
mes étudiants en Master[[ Le blog du Master « Monde du livre » est
accessible, sur Hypothèses.org, à l’adresse suivante :
http://mondedulivre.hypotheses.org, consulté le 2 mai 2012.]]
d’apporter leur contribution aux pages relatives aux cours que je
leur donne. En effet, Wikipédia n’est pas un espace scientifique,
mais peut être exploité comme espace pédagogique, aux deux sens du
terme. Pédagogie pour nos étudiants, qui apprennent à suivre une
ligne éditoriale dans un contexte de formation intellectuelle.
Pédagogie pour le public, avide de compréhension et de savoirs, qui
reçoit grâce à ce type d’instrument un ensemble de connaissances
qui prolonge la mission de l’Éducation nationale au-delà de la
période de scolarité. Pour l’instant, l’Éducation nationale
n’a pas investi officiellement ce support, mais une réflexion et
un débat sur cette question devraient avoir lieu publiquement, afin
de réfléchir à la modernisation des missions, des méthodes et des
finalités de l’école et de l’université. Émergence de
portails spécialisés
Revenons aux publications strictement
issues de la recherche, en comparant les usages de Revues.org[[
Disclaimer : je suis le fondateur de Revues.org et je dirige le
Centre pour l’édition électronique ouverte, qui développe la
plateforme Revues.org au sein du portail OpenEdition.org.]], portail
dédié aux revues spécialisées en sciences humaines et sociales,
avec les usages en ligne de la presse. Le tirage moyen du Monde est
d’environ 320 000 exemplaires par jour, alors qu’une revue de
sciences humaines et sociales moyenne a environ 300 abonnés –
moins de 3 000 pour les plus connues –, essentiellement des
institutions. Dans l’univers du papier, l’usage du Monde est au
moins 100 fois supérieur à celui de l'ensemble des revues de
Revues.org[[ Avec deux numéros en moyenne par an, la diffusion
annuelle d’une revue est donc d’environ 600 exemplaires. La
diffusion des 265 revues de Revues.org aujourd’hui en ligne, si
elles étaient au format papier, serait au moins 100 fois inférieure
à celle du journal Le Monde. En poursuivant la méthode proposée,
on peut évaluer à environ 159 000 exemplaires diffusés pour les
265 revues en ligne sur Revues.org en janvier 2012, contre environ 15
millions d’exemplaires par an pour Le Monde. Ces calculs ne sont
qu’indicatifs, d’abord parce que les revues ont une ancienneté
variable, ensuite parce qu’environ 50 % seulement ont également
une existence papier, les autres étant exclusivement
électroniques.]]. Cette situation est logique, au regard des formes
d’écriture et de la spécialisation des sujets publiés dans une
revue scientifique. Pourtant, Google Trends for Websites semble
montrer une évolution de cette situation, car le rapport de forces
évolue avec un écart de 1 à 25 seulement lorsque l’on passe au
format électronique[[ Les évaluations de GTW indiquent que
Lemonde.fr aurait eu, en janvier 2012, 1 million de visiteurs uniques
par jour. Plus de précisions sont apportées par les données
publiques du portail Revues.org : celui-ci a reçu en moyenne, en
janvier 2012, 41 000 visiteurs uniques par jour. Pour plus de
détails, consulter les statistiques sur le site du Cléo, [URL :
http://statistiques.cleo.cnrs.fr], consulté le 2 mai 2012. Google
Trends for Websites propose d’ailleurs une évaluation cohérente
avec ces chiffres, [URL :
http://trends.google.com/websites?q=revues.org&geo=all&date=all&sort=0],
consulté le 2 mai 2012. Les évaluations de GTW confondent en fait
le journal et la plateforme de blogs du Monde.fr, alors qu’il les
dissocie pour la plateforme de carnets de recherches d’OpenEdition,
qui utilisent un autre nom de domaine, Hypotheses.org. Pour parfaire
la comparaison, il faudrait ajouter 7 300 visiteurs uniques
quotidiens d’Hypotheses.org.]]. Cette mesure reste grossière et
gagnerait à être précisée à l’aide d’enquêtes qualitatives
comme celle menée autour du lectorat de Revues.org en 2009 (Bester
et Dacos, 2010). Cependant, nous pouvons en retirer une information :
réunies sous la forme de portails, les productions en SHS peuvent
devenir des lieux d’usages de lecture quantitativement
significatifs. Cela signifie que peuvent se construire des médias
spécialisés crédibles et intéressants au-delà du seul périmètre
des acteurs de l’enseignement supérieur et de la recherche[[ Les
fréquentations de Cairn.info et Persee.fr sont relativement proches
de celle de Revues.org, qui n’est donc pas un cas isolé ou une
exception. Scielo.org et Jstor.org ont des visibilités supérieures,
sur des aires linguistiques dont le potentiel est très supérieur
(espagnol et portugais pour Scielo, anglais pour Jstor).]]. D’un
point de vue plus qualitatif, il reste important de savoir, d’une
part, si ces fréquentations sont dépendantes d’affluents,
c’est-à-dire de sources de fréquentation (referer) issus des
industriels de l’information que sont Google, Yahoo! et Bing, et
d’autre part si la presse contribue à cette fréquentation. Les
statistiques confirment le rôle mineur joué par la presse dans la
fréquentation de Revues.org. Sur 108 millions de visites comportant
un affluent identifiable en 2011, seuls Lemonde.fr (53e), Rue89.com
(71e), Laviedesidées.fr (76e) et Liberation.fr (95e) sont classés
parmi les 100 premiers affluents. Et le premier quotidien national
n'apporte que 5 300 visites, soit 0,03 % des visites. Un examen de
détail montre que seuls six articles ont apporté des visiteurs à
Revues.org au cours de cette période[[ Ces articles portent sur les
sujets suivants : Alassane Ouattara, le mot « crise », l’univers
virtuel des néo-maoistes chinois, le sondage organisé par Mattel
pour désigner le métier d’un nouveau modèle de Barbie, le séisme
du Sichuan, et la présence de parabène dans des médicaments. Il
s'agit donc de sujets pointus, correspondant à une actualité
précise, sur laquelle la recherche en sciences humaines et sociale
apporte un éclairage quasiment exclusif.]]. Les 167 autres liens
proviennent des blogs du Monde[[ Principalement le blog du
correspondant du quotidien du soir à Istanbul, Guillaume Perrier, Au
fil du Bosphore. Observations d’Istanbul et de la Turquie
d’aujourd’hui, [URL : http://istanbul.blog.lemonde.fr], consulté
le 2 mai 2012 ; ainsi que le blog La feuille, l’édition à l’heure
de l’innovation, [URL : http://lafeuille.blog.lemonde.fr], consulté
le 2 mai 2012, et le blog Combats pour les droits de l’homme [URL :
http://combatsdroitshomme.blog.lemonde.fr], consulté le 2 mai
2012.]]. À lui seul, le site personnel de Laurent Mucchielli apporte
presque autant de visites (62e), et Ruedesfacs.fr (11e, avec 144 000
visites) en apporte plus. Bien classés, également, apparaissent des
portails partenaires de Revues.org : Liens-socio.org (4e), mais aussi
Cairn.info (6e), College-de-france.fr (21e) et Persee.fr (26e). De
son côté, Wikipédia est classé 9e, avec 154 000 visites, soit 29
fois plus de visites que Lemonde.fr, bien plus que le différentiel
de fréquentation entre l’encyclopédie collaborative et le
quotidien. Ceci confirme que Lemonde.fr, et la presse quotidienne en
général, répugne à citer des sources extérieures et à conforter
ce qu’elle considère comme de la concurrence. | Rang |Site |Nombre
de visites Janvier-Décembre 2011 |% des visites | |1 |revues.org |8
328 539 |46,41% | |2 |google.com |2 856 668 |15,92% | |3
|hypotheses.org |2 130 215 |11,87% | |4 |liens-socio.org |1 861 888
|10,37% | |5 |cybergeo.eu |345 008 |1,92% | |6 |cairn.info |206 419
|1,15% | |7 |pearltrees.com |174 826 |0,97% | |8 |bing.com |155 444
|0,87% | |9 |wikipedia.org |154 071 |0,86% | |10 |conflits.org |153
334 |0,85% | |11 |ruedesfacs.fr |144 025 |0,80% | |12 |yahoo.com |122
578 |0,68% | |13 |facebook.com |108 655 |0,61% | |14 |orange.fr |104
326 |0,58% | |15 |openedition.org |85 942 |0,48% | |16 |netvibes.com
|71 359 |0,40% | |17 |search-results.com |66 026 |0,37% | |18
|lodel.org |65 064 |0,36% | |19 |sfr.fr |49 026 |0,27% | |20
|laposte.net |42 580 |0,24% | |21 |college-de-france.fr |29 044
|0,16% | |22 |free.fr |27 920 |0,16% | |23 |longurl.org |24 939
|0,14% | |24 |rechercheisidore.fr |24 613 |0,14% | |25 |cnrs.fr |22
067 |0,12% | |26 |persee.fr |21 999 |0,12% | |27 |bingj.com |21 809
|0,12% | |28 |t.co |20 657 |0,12% | |29 |ebsco.com |17 742 |0,10% |
|30 |doaj.org |15 661 |0,09% | |31 |scirus.com |15 157 |0,08% | |32
|ehess.fr |14 356 |0,08% | |33 |uni-regensburg.de |13 237 |0,07% |
|34 |univ-provence.fr |12 777 |0,07% | |35 |lo.st |12 312 |0,07% |
|36 |123people.fr |10 304 |0,06% | |37 |rezo.net |9 561 |0,05% | |38
|fabula.org |9 550 |0,05% | |39 |cleo.cnrs.fr |8 932 |0,05% | |40
|u-paris10.fr |8 140 |0,05% | |41 |over-blog.com |8 072 |0,04% | |42
|blogariak.net |7 619 |0,04% | |43 |gouv.fr |7 498 |0,04% | |44
|lexilogos.com |7 115 |0,04% | |45 |blogspot.com |6 984 |0,04% | |46
|hardware.fr |6 731 |0,04% | |47 |ifporient.org |6 143 |0,03% | |48
|translendium.net |6 107 |0,03% | |49 |facemoods.com |5 664 |0,03% |
|50 |scoop.it |5 571 |0,03% | |51 |twitter.com |5 467 |0,03% | |52
|univ-lyon2.fr |5 459 |0,03% | |53 |lemonde.fr |5 300 |0,03% | |54
|about.com |5 096 |0,03% | |55 |unice.fr |5 057 |0,03% | |56
|numericable.fr |4 843 |0,03% | |57 |ecosia.org |4 829 |0,03% | |58
|youtube.com |4 706 |0,03% | |59 |inist.fr |4 431 |0,02% | |60
|aliceadsl.fr |4 329 |0,02% | |61 |tinyurl.com |4 317 |0,02% | |62
|laurent-mucchielli.org |4 313 |0,02% | |63 |sfp.photographie.com |3
998 |0,02% | |64 |cereq.fr |3 950 |0,02% | |65 |iadah.com |3 815
|0,02% | |66 |aol.com |3 813 |0,02% | |67 |speedbit.com |3 682 |0,02%
| |68 |uqac.ca |3 680 |0,02% | |69 |base-juniper.org |3 606 |0,02% |
|70 |uquebec.ca |3 584 |0,02% | |71 |rue89.com |3 542 |0,02% | |72
|adf.ly |3 387 |0,02% | |73 |sorbonne.fr |3 254 |0,02% | |74
|univ-paris1.fr |3 193 |0,02% | |75 |umontreal.ca |3 081 |0,02% | |76
|laviedesidees.fr |2 934 |0,02% | |77 |univ-paris8.fr |2 800 |0,02% |
|78 |feedly.com |2 790 |0,02% | |79 |mail.ru |2 749 |0,02% | |80
|cafepedagogique.net |2 743 |0,02% | |81 |uqam.ca |2 725 |0,02% | |82
|ciera.fr |2 626 |0,01% | |83 |wordpress.com |2 596 |0,01% | |84
|univ-lille3.fr |2 590 |0,01% | |85 |libertysecurity.org |2 545
|0,01% | |86 |univ-tlse2.fr |2 354 |0,01% | |87 |lusopenedition.org
|2 347 |0,01% | |88 |bitly.com |2 304 |0,01% | |89 |ulaval.ca |2 281
|0,01% | |90 |racocatala.cat |2 132 |0,01% | |91 |inrp.fr |2 091
|0,01% | |92 |assoeconomiepolitique.org |2 080 |0,01% | |93
|journalseek.net |2 069 |0,01% | |94 |univ-angers.fr |2 048 |0,01% |
|95 |liberation.fr |1 946 |0,01% | |96 |bnf.fr |1 930 |0,01% | |97
|u-cergy.fr |1 899 |0,01% | |98 |ifre.fr |1 899 |0,01% | |99
|unirioja.es |1 849 |0,01% | |100 |sciences-po.fr |1 789 |0,01% |
Selon la conception la plus répandue, Google caracolerait en tête
de la fréquentation des sites Web, parfois jusqu’à 80 %, et
serait donc en mesure de faire la pluie et le beau temps sur le Web,
réduisant potentiellement à néant des années de construction, à
partir de réglages de son algorithme complexe et secret, donc
arbitraire... Si Google est bien le premier affluent de Revues.org (2
856 000 visites en 2011), il est désormais talonné par
Liens-Socio.org (1 861 000 visites). Il est même devancé par
Revues.org lui-même (8 320 000 visites) et talonné par
Hypotheses.org (2 130 000). Dit autrement, l’écosystème
d’OpenEdition, regroupé, devient le premier affluent d’une revue
de Revues.org. OpenEdition est le portail développé par le Centre
pour l'édition électronique ouverte (Cléo), centre issu de
l'enseignement supérieur et de la recherche, qui déploie une
plateforme de revues depuis 1999 (Revues.org), un calendrier
scientifique depuis 2000 (Calenda), une plateforme de carnets de
recherche depuis 2008 (Hypothèses.org) et ouvrira en 2012 une
plateforme de livres (OpenEdition Books). Le projet a désormais le
statut d'équipement d'excellence[[ « OpenEdition facility of
excellence awards (Equipex) », Openedition, 23 février 2012, [URL :
http://www.openedition.org/10221], consulté le 2 mai 2012.]]. Ces
résultats alimentent l’idée d’une capacité d’indépendance
de portails SHS puissants, capables de développer leur propre
audience et de proposer des circulations entre eux. Les moteurs de
recherche conservent, c’est entendu, un rôle décisif, mais
celui-ci n’est pas exclusif. La leçon principale à retirer de ces
chiffres parfois difficiles à interpréter est que le Web est un
dispositif distribué. Il n’est pas devenu un média verticalisé
et centralisé autour de quelques points d’accès exclusifs. Le Web
reste une Toile. Affinons encore l’approche, en nous concentrant
sur les affluents d’un carnet de recherche, Culture et politique
arabe[[ Consultable à l’adresse suivante :
http://cpa.hypotheses.org, consulté le 2 mai 2012.]], rédigé par
Yves Gonzalez-Quijano, chercheur à l’Institut français du
Proche-Orient (IFPO). Celui-ci est l’un des carnets les plus
fréquentés d’Hypothèses, avec plus de 270 000 visites au cours
de l’année 2011 (117 000 visiteurs uniques). Le profil de ses
affluents identifiables au cours du mois d’octobre 2011 est
significatif[[ Source : statistiques d’usages d’OpenEdition. Ces
statistiques consistent en des calculs, enrichis à l’aide
d’informations éditoriales, sur la base des résultats publics
disponibles sur http://statistiques.cleo.cnrs.fr, consulté le 2 mai
2012. ]]. |Affluents du carnet Culture et politique arabe |Apport en
nombre de visites en octobre 2011 | |Hypotheses.org |3 049 |
|Rezo.net |941 | |Facebook |690 | |Netvibes |292 | |Webmail |85 |
|Wikipédia FR |38 | |Google translate |31 | |@rrêt sur images |25 |
|Google |24 | |Twitter |15 | Le principal enseignement de ce tableau
est la puissance des réseaux hypertextuels conçus par des humains
et, toujours, la faiblesse des médias, alors qu’en 2011 le «
Printemps arabe » était au cœur de l’actualité... Seul @rrêt
sur images a apporté, au cours de ce mois d’octobre 2011, quelques
visites au carnet. Le site qui lui a apporté le plus de visiteurs
est la plateforme de carnets de recherches qui l’accueille,
Hypothèses. Vient ensuite le site alternatif d’actualités
Rezo.net. Une part importante des affluents connus vient des réseaux
sociaux, Facebook et Twitter, ainsi que du courrier électronique
(les « webmails »). Cet ensemble d’affluents provient de
recommandations individuelles, qu’elles aient lieu sur des réseaux
sociaux ou par courrier électronique. La force du « bouche à
oreille », propre au grand public, mais aussi de l’échange entre
pairs, est donc importante. Au mois d’octobre 2011, Google n’est
pas un affluent majeur pour Culture et politique arabe, alors qu’il
reste un affluent majeur, d’un point de vue plus global, au niveau
de l’ensemble des plateformes d’OpenEdition : alors qu'il s'agit
du premier affluent de la plateforme Calenda, il n'est déjà que le
cinquième pour Hypothèses, et seulement le neuvième pour Culture
et politique arabe sur la totalité de l’année 2011. Autant dire
qu'il n'y a pas que Google dans la vie d'un site web... De 1984 au
lecteur inattendu : vers une édition électronique ouverte Il n’est
malheureusement pas possible, ici, de rédiger un Petit traité
pratique de création d’un média nativement SHS[[ Pour une
introduction problématique, voir Mounier (2010). Pour une
introduction historique sur l’aventure spécifique que constitue
Revues.org, voir Cavallo (2009).]]. En revanche, nous pouvons mettre
en avant quelques intérêts scientifiques de ce type d’initiative.
Tout d’abord, créer un média en sciences humaines et sociales
devrait pouvoir se faire selon les principes énoncés par le
Déclaration de Berlin pour le libre accès aux matériaux et aux
résultats de la recherche[[ Sur les travers de l’écosystème
éditorial pré-open access, voir Guédon (2001). Sur les vertus du
libre accès, voir Willinsky (2006). Un ouvrage plus récent élargit
les enjeux à toutes les dimensions du savoir (VECAM, 2011).]]. Cette
déclaration a été signée par des centaines d’établissements
universitaires depuis 2003 et continue à se développer. Elle
s’appuie sur l’idée que la recherche sur fonds publics doit
revenir au public, à la fois pour des raisons éthiques, sociétales
et scientifiques. Les vertus heuristiques de l’open access font, en
effet, partie des arguments en faveur d’une libre circulation des
idées, afin de favoriser l’apparition du « lecteur inattendu »
(Smith, 2011 ; Mounier, 2012), faisant fi des barrières innombrables
à l’accès que constitue un modèle économique à péage aval. De
la même façon, l’accès des familles des malades aux mêmes
informations que le corps médical a favorisé l’émergence d’un
nouvel acteur de la recherche, disposant d’une expertise spécifique
en voie de reconnaissance (Akrich et al., 2009). Il n’est cependant
pas aisé de trouver une solution qui combine libre accès et
capacités de financement régulier pour l’édition. La question se
pose en effet. Au-delà du bien-fondé de la démarche, comment
financer le libre accès ? Le modèle de la subvention publique,
verticale, soumise aux aléas et même aux réductions progressives,
est-il le seul possible ? Il existe deux autres voies susceptibles de
compléter le financement public classique. La première est celle de
l’auteur-payeur, initiée notamment par Public Library of Science
(PLOS[[ Voir le site internet de PLOS, [URL : www.plos.org], consulté
le 2 mai 2012.]]). L’auteur doit acquitter des frais de
publication, qui sont assumés par son laboratoire. Les tarifs sont
variables selon les portails, mais ils s’étalent, en général,
entre 1 000 et 3 000 dollars par article. Ce modèle pose des
problèmes éthiques évidents et est, par ailleurs, inadapté aux
disciplines pauvres que sont les sciences humaines et sociales[[ Pour
une synthèse générale et à jour sur le libre accès, lire l’Open
Access Directory, [URL : http://oad.simmons.edu/oadwiki/Main_Page],
consulté le 2 mai 2012. On trouvera également des points de vue et
des informations de premier plan dans The Scholarly Kitchen, [URL :
http://scholarlykitchen.sspnet.org], consulté le 2 mai 2012.]]. Le
deuxième modèle est appelé freemium. Ce modèle a été développé
par les entreprises du Web qui ne pouvaient ou ne voulaient pas miser
sur la publicité et souhaitaient s’inscrire dans la logique du
libre accès. Il est appliqué avec succès par FlickR, le célèbre
site de partage de photographies, et par Skype, le logiciel de
téléphonie par IP. Son modèle est simple : en étant gratuits, les
services attirent des millions d’utilisateurs, et un faible
pourcentage de ces utilisateurs est intéressé par des
fonctionnalités Premium, payantes, qui financent la totalité de la
plateforme. C’est le sens du mot freemium, qui associe free
(gratuit) et premium (payant pour des fonctionnalités avancées). Le
New York Times teste, depuis mars 2011, une formule similaire
(Mathieu, 2011 ; Peters, 2011 ; Salmon, 2011), s’appuyant sur le
principe d’un quota d’articles lisibles gratuitement, chaque
mois, par un lecteur. Les premiers résultats attestent d’un succès
notable, dont il faudra observer les développements à l’avenir.
OpenEdition a lancé OpenEdition Freemium le 15 février 2011 (Dacos,
2011). Il propose un abonnement payant aux bibliothèques pour des
contenus placés en libre accès. Les bibliothèques abonnées
jouissent de fonctionnalités premium telles que l’accès aux
formats non HTML (PDF, Epub, pour tablettes et liseuses, mais aussi
pour consultation hors ligne et construction de bibliothèques
personnelles). Par ailleurs, les bibliothèques abonnées ont accès
à un ensemble de six services à valeur ajoutée : alertes par
courriel pour l’ensemble de leurs usagers, fourniture et services
de données spécialisés (statistiques de fréquentation par campus,
API Calenda, notices UNIMARC...), assistance et formation,
informations et documentation, association à la gouvernance du
projet. Cette offre garantit une diffusion maximale des textes
scientifiques, grâce au libre accès, tout en offrant une
opportunité de revenus à l’édition, grâce aux services premium.
En effet, 66 % des revenus issus de ce bouquet seront reversés aux
revues et éditeurs partenaires. Après moins d’un an d’expérience,
cette initiative apporte des résultats plus positifs et clairs que
prévu. Trente-sept établissements se sont déjà abonnés à
OpenEdition Freemium et la réception de la proposition par la
communauté des scientifiques, des éditeurs et des bibliothèques
est plutôt positive. Aux questions d’accès s’ajoute la question
des conditions d’accès. Les plateformes d’édition électronique
commerciales ont tendance à imposer des quotas de téléchargements
aux bibliothèques abonnées ainsi que des DRM – Digital Rights
Management, systèmes de gestion des droits (Benghozi, 2006).
Appliqués aux livres, les DRM sont des procédés cryptant les
ouvrages qui sont achetés. À chaque ouverture de l’ouvrage, ces
logiciels sont chargés de vérifier que l’utilisateur a bien le
droit de le lire... Le décryptage du livre n’a lieu qu’après la
vérification de ce droit. Cela signifie, concrètement, qu’il
n’est pas possible de lire un livre sur toutes les machines
existantes : le principal fournisseur de DRM, Adobe, ne propose
d’outil de décryptage que pour Mac OS et pour Windows (donc pas
pour Linux, mais également pas pour tous les systèmes
d’exploitation de smartphones). Par ailleurs, cette vérification
donne des droits nouveaux aux éditeurs qui les promeuvent. Il n’est
plus possible de prêter, de revendre, de donner un livre (Dacos et
Mounier, 2010). Il faut être connecté à Internet pour confirmer
son identité, qui est stockée, avec une liste d’ordinateurs
autorisés, dans une base de données distante. Il est obligatoire
d’utiliser le logiciel de lecture qui vous est associé au
concepteur du verrou numérique (Adobe Digital Edition, en général).
Certains DRM sont dits chronodégradables, car ils ne constituent en
fait qu’une location, et le livre s’autodétruit littéralement
après une durée fixée, par exemple à huit jours. Les DRM peuvent
également être considérés comme des intrus introduits par les
éditeurs dans nos machines, dans nos maisons. Amazon en a fourni la
magnifique illustration en retirant des milliers de copies de 1984 de
George Orwell au cours de l’été 2009. Le libraire en ligne s’est
rendu compte, un peu tard, qu’il n’avait pas le droit de vendre
cet ouvrage. Au lieu de simplement cesser la commercialisation du
livre, il a pris une mesure radicale, que permet facilement le
mécanisme des DRM : il s’est introduit dans les liseuses (Kindle)
de ses clients et a détruit le fichier qui s’y trouvait,
annotations personnelles incluses[[ « Amazon jette 1984 dans le trou
de mémoire” », Le Monde, 22 juillet 2009.]]... Le fait que ce
soit précisément l’ouvrage de George Orwell est pure coïncidence,
mais il éclaire sur le potentiel liberticide de certaines
technologies lorsqu’elles échappent au citoyen. Les DRM offrent de
facto au vendeur un contrôle total des usages de la marchandise
vendue, y compris après la vente, ce qui vise à contrôler et à
altérer l’autonomie du consommateur, qui avait plus de libertés
dans l'écosystème papier... Il est donc nécessaire d’abandonner
les DRM, qui soupçonnent l’honnête citoyen de vouloir devenir un
voleur, ainsi que tous les dispositifs technico-commerciaux du même
type. Nous avons évoqué le potentiel heuristique lié au lecteur
inattendu. Il faut également évoquer celui que permet le caractère
inscriptible du Web (Dacos éd., 2010 ; Dacos et Mounier, 2011). Se
multiplient, en effet, les exemples d’utilisation du Web par les
scientifiques pour appeler les internautes à contribuer à un apport
de connaissances nouvelles, ce que l’on appelle en anglais le
crowdsourcing. Le programme FlickR Commons, par exemple, a été
initié par la société FlickR (filiale de Yahoo!) et par la
Bibliothèque du Congrès. FlickR est une plateforme de partage,
d’exposition et de stockage de photographies, qu’elles soient
professionnelles ou amateur. La Bibliothèque du Congrès a décidé
de déposer des milliers de photographies issues de ses fonds sur
FlickR. Elle a ainsi fait le choix d’aller vers le public amateur
de photographie, là où il se trouve. Il s’agit donc d’une
stratégie d’exposition virtuelle, qui est légitime d’un point
de vue culturel. À ce dispositif s’est ajoutée une stratégie
scientifique, consistant à faire appel aux internautes pour
contribuer à l’identification et à la datation de photographies
sur lesquelles la Bibliothèque avait peu ou pas d’information
(Casemajor Loustau, 2011). Ce type d’approche a été initié
également par Patrice Peccatte (2012) pour des photographies de la
seconde guerre mondiale mais ne se limite pas à la collecte
d’informations sur la photographie. Le Roy Rosenzweig Center for
History and New Media[[ Voir le site internet du CHNM, [URL :
http://chnm.gmu.edu], consulté le 2 mai 2012.]] (CHNM) de Washington
a développé plusieurs programmes de collectes d’informations en
ligne, sur des sujets contemporains (le 11 Septembre[[ The September
11 Digital Archive, [URL : http://911digitalarchive.org], consulté
le 2 mai 2012.]], le Programme Bracero (1924-1964)[[ Bracero History
Archive, [URL : http://braceroarchive.org], consulté le 2 mai
2012.]], ou les ouragans Katrina et Rita[[ Hurricane Digital Memory
Bank, [URL : http://www.hurricanearchive.org], consulté le 2 mai
2012. ]]). Initié en Italie et ouvert à tous les continents, le
projet Memoro est un instrument de collecte de la mémoire des
individus[[ Memoro : the Bank of Memories, [URL :
http://www.memoro.org], consulté le 2 mai 2012.]]. Ce type de
programme peut porter sur des matières moins contemporaines et plus
difficiles d’accès, comme le projet Transcribe Bentham, qui a pour
objet la retranscription collaborative de manuscrits de Bentham[[
Transcribe Bentham : a Participatory Initiative, [URL :
http://www.ucl.ac.uk/transcribe-bentham], consulté le 2 mai 2012.
]], ou la collecte d’archives historiques par l’Open Society
Archives (OSA) de la Central European University, dans le cadre de
Parallel Archive[[ Parallel Archive, [URL :
http://www.parallelarchive.org], consulté le 2 mai 2012.]]. Ces
programmes d’enquête en ligne sont les dignes héritiers de
l’enquête de Jacques Ozouf (1983) sur les maîtres d’école à
la Belle Époque et sont prometteurs. Ils doivent leur force à la
nouvelle visibilité en ligne des sciences humaines et sociales, car
de telles enquêtes n'auraient guère de sens sur les chemins
vicinaux du Web. Sur des routes goudronnées et fortement
fréquentées, en revanche, le crowdsourcing s'appuie sur un effet de
réseau qui est en mesure de contribuer aux avancées de la
recherche. La puissance du nombre Il est évident que l’ensemble de
ces programmes ne fonctionne que parce qu’il bénéficie d’un
très fort effet de réseau, permis par les millions d’hyperliens
établis entre les projets, d’une part, et par la masse critique
apportée par les regroupements autour de portails, qui bénéficient
d’effets de plateformes très importants, d’autre part. Ces
effets de plateforme ont vocation à s’étendre avec l’émergence
d’outils de détection automatisée des références
bibliographiques, permettant d’offrir des références cliquables
(Kim et al., 2012), des dispositifs de recommandation adaptés à la
diversité des usages, des annotations collaboratives proposant des
parcours de lecture aux étudiants. Toutes ces perspectives s’ouvrent
à peine et nécessiteront des travaux de recherche et développement
mutualisés qui s’articulent, tous, autour de la notion de Digital
Humanities. Dans le domaine de la mise au point de puissantes
plateformes d’édition électronique comme dans celui de
l’émergence des humanités numériques, l’alliance des acteurs
de la recherche s’impose et l’isolement serait une stratégie
vouée à l’échec. En l’espèce, l’union fait la force.
Bibliographie AKRICH Madeleine, MEADEL Cécile, RABEHARISOA Vololona,
2009, Se mobiliser pour la santé. Des associations de patients
témoignent, Paris, Presses des mines.
BENGHOZI Pierre-Jean, «
DRM et nouveaux modèles d’affaires pour les contenus numériques
». [URL:
[http://hal.archives-ouvertes.fr/hal-00263105/en/->http://hal.archives-ouvertes.fr/hal-00263105/en/]],
consulté le 7 mai 2012.
BESTER Emma et DACOS Marin, 2010, «
Que savons-nous de l'identité, des comportements et des attentes des
lecteurs de Revues.org en 2008 et 2009 ? » [en ligne], 1er février
2010, [URL : http://halshs.archives-ouvertes.fr/sic_00452002],
consulté le 2 mai 2012.
CASEMAJOR LOUSTAU Nathalie, 2011, « La
contribution triviale des amateurs sur le Web : quelle efficacité
documentaire ? », Études de communication, n° 36, p.
39-52.
CAVALLO Delphine, 2009, « Revues.org, l’invention de
l’édition électronique scientifique, entre libre accès et modèle
économique pérenne » [en ligne], Mémoires du livre, vol. 1, n°
1, [URL :
[http->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][://->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][www->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][.->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][erudit->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][.->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][org->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][/->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][revue->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][/->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][memoires->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][/2009/->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][v->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][1/->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][n->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][1/038638->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][ar->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][.->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html][html->http://www.erudit.org/revue/memoires/2009/v1/n1/038638ar.html]],
consulté le 2 mai 2012.
CHATEAURAYNAUD Francis, 2010, « Les
humanités numériques sont-elles solubles dans Google ? » [en
ligne], Socio-informatique et argumentation, 28 juillet 2010, [URL :
[http->http://socioargu.hypotheses.org/1095][://->http://socioargu.hypotheses.org/1095][socioargu->http://socioargu.hypotheses.org/1095][.->http://socioargu.hypotheses.org/1095][hypotheses->http://socioargu.hypotheses.org/1095][.->http://socioargu.hypotheses.org/1095][org->http://socioargu.hypotheses.org/1095][/1095->http://socioargu.hypotheses.org/1095]],
consulté le 2 mai 2012.
CHATEAURAYNAUD Francis et DEBAZ
Josquin, 2010, « Prodiges et vertiges de la lexicométrie » [en
ligne], Socio-informatique et argumentation, 23 décembre 2010, [URL
:[http->http://socioargu.hypotheses.org/1963][://->http://socioargu.hypotheses.org/1963][socioargu->http://socioargu.hypotheses.org/1963][.->http://socioargu.hypotheses.org/1963][hypotheses->http://socioargu.hypotheses.org/1963][.->http://socioargu.hypotheses.org/1963][org->http://socioargu.hypotheses.org/1963][/1963->http://socioargu.hypotheses.org/1963]],
consulté le 2 mai 2012.
DACOS Marin éd., 2009, Read/Write
Book. Le livre inscriptible, Marseille, Cléo.
— , 2010, «
OpenEdition Freemium » [en ligne], OPENEDITION, 18 JANVIER 2011,
[URL :http://www.openedition.org/8699], consulté le 2 mai
2012.
DACOS Marin et MOUNIER Pierre, 2010, L’édition
électronique, Paris, La Découverte.
— 2011, « L’édition
électronique », Communications, n° 88, p. 47-57.
ERTZSCHEID
Olivier, GALLEZOT Gabriel, BOUTIN Éric, 2009, « PageRank : entre
sérendipité et logique marchande », L'Entonnoir. Google sous la
loupe des sciences de l'information et de la communication, G.
Gallezot et B. Simonnot éd., Caen, C&F Éditions, p.
113-136.
GINSBERG Jeremy et al., 2009, « Detecting influenza
epidemics using search engine query data », Nature, vol. 457, n°
7232, p. 1012-1014.
GUÉDON Jean-Claude, 2001, In Oldenburg’s
Long Shadow. Librarians, Research Scientists, Publishers, and the
Control of Scientific Publishing, Washington, ARL.
HELFT
Miguel, 2008, « Google’s new tool is meant for marketers », The
New York Times, 6 Août 2008.
KIM Young-Min, BELLOT Patrice,
FAATH Élodie et DACOS Marin, 2012, « Machine Learning for Automatic
Annotation of References in DH scholarly papers », DH2012,
Université de Hambourg, 16-22 septembre.
MATHIEU Gaétan, 2011,
« Le New York Times sauvé par son site internet » [en ligne],
Owni, 24 novembre 2011, [URL :
[http->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][://->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][owni->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][.->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][fr->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][/2011/11/24/->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][le->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][new->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][york->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][times->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][sauve->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][par->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][son->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][site->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][-->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/][internet->http://owni.fr/2011/11/24/le-new-york-times-sauve-par-son-site-internet/]],
consulté le 2 mai 2012.
MOUNIER Pierre, 2010, « L’édition
électronique : un nouvel eldorado pour les sciences humaines ? »,
Read/Write Book, M. Dacos éd., Marseille, OpenEdition Press, p.
149-156.
[http://press.openedition.org/169->http://press.openedition.org/169]
— 2012, « Impressions d’automne 1 : le cas Meredith » [en
ligne], Blogo-numericus, 28 janvier 2012, [URL :
[http->http://blog.homo-numericus.net/article11010.html][://->http://blog.homo-numericus.net/article11010.html][blog->http://blog.homo-numericus.net/article11010.html][.->http://blog.homo-numericus.net/article11010.html][homo->http://blog.homo-numericus.net/article11010.html][-->http://blog.homo-numericus.net/article11010.html][numericus->http://blog.homo-numericus.net/article11010.html][.->http://blog.homo-numericus.net/article11010.html][net->http://blog.homo-numericus.net/article11010.html][/->http://blog.homo-numericus.net/article11010.html][article->http://blog.homo-numericus.net/article11010.html][11010.->http://blog.homo-numericus.net/article11010.html][html->http://blog.homo-numericus.net/article11010.html]],
consulté le 2 mai 2012.
OZOUF Jacques, 1983, Nous les maîtres
d’école. Autobiographies d’instituteurs de la Belle époque,
Paris, Gallimard.
PECCATE Patrick, 2012, « PhotosNormandie a
cinq ans – un bilan en forme de FAQ » [en ligne], Déjà vu, 27
janvier 2012, [URL :
[http->http://culturevisuelle.org/dejavu/1097][://->http://culturevisuelle.org/dejavu/1097][culturevisuelle->http://culturevisuelle.org/dejavu/1097][.->http://culturevisuelle.org/dejavu/1097][org->http://culturevisuelle.org/dejavu/1097][/->http://culturevisuelle.org/dejavu/1097][dejavu->http://culturevisuelle.org/dejavu/1097][/1097->http://culturevisuelle.org/dejavu/1097]],
consulté le 3 mai 2012.
PETERS Jeremy W., 2011, « The Times
announces digital subscription plan », The New York Times, 17 mars
2011.
SALMON Félix, 2011 « The NYT paywall is working »,
Reuters, 26 juillet 2011.
SMITH Kevin, 2011, « The unexpected
reader » [en ligne], Scholarly Communications @ Duke, 15 novembre
2011, [URL:
[http->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][://->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][blogs->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][.->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][library->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][.->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][duke->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][.->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][edu->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][/->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][scholcomm->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][/2011/11/15/->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][the->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][-->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][unexpected->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][-->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/][reader->http://blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/]],
consulté le 2 mai 2012.
VECAM, 2011, Libres savoirs. Les biens
communs de la connaissance ; produire collectivement, partager et
diffuser les connaissances au XXIe siècle, Caen, C&F
éditions.
WILLINSKY John, 2006, The Access Principle. The Case
for Open Access to Research and Scholarship, Cambridge (Mass.), MIT
Press. Crédit photographique :
["MIT+150"->http://www.flickr.com/photos/cdevers/5702488800/]
par Chris Devers en by-nc-nd, sur Flickr
2012-07-09 06:51:29
Homo Numericus suit les travaux de Sylvain Firer-Blaess depuis plusieurs années. Celui-ci s'intéresse à la dimension politique des dispositifs de discussion et d'édition en ligne. Nous avons eu le plaisir en 2007, d'éditer une partie de son mémoire de master qui présentait une analyse particulièrement éclairante de l'ingénierie éditoriale sur laquelle repose l'encyclopédie contributive Wikipédia. Sylvain y posait la question, passionnante, des modèles politiques qui s'y déploient. Quelques années plus tard, il poursuivait son enquête en s'interrogeant sur la possibilité pour Wikipédia de devenir à son tour un modèle politique pour une démocratie électronique. Voici maintenant qu'il nous propose un nouvel essai rédigé dans le cadre de sa thèse, moins spéculatif et plus factuel, sur les plateformes de démocratie électronique qui fleurissent ici et là, en particulier dans le sillage des partis pirates, singulièrement en Allemagne où cette formation politique suit une courbe ascensionnelle extraordinaire. Cet article est rédigé en anglais. Merci à ceux qui seraient intéressés pour en proposer une version française, de bien vouloir contacter l'auteur.
This paper concerns the development of software designed for mass
decision-making processes; constructed not by a State or a
corporation, but by groups of people who come from the so-called
“civil society”. The idea of a possible "electronic
democracy" is as old as the birth of the Internet itself. The
possibility of an electronic Agora, where citizens could debate and
vote, is very often included in the idea of modern representative
democracy moving toward a more direct democracy. This more direct
democracy can be called "participatory democracy", or
"strong democracy" from the model described by Barber in
his book of the same name (1984). So far, previous attempts at
electronic democracy have not met with great success (Coleman et al.,
2009). Its realisation is still today at an embryonic state, limited
by technical problems (e.g. how to assign a completely secure
identity to every citizen[not clear thés means username]; or how to
protect data) as well as by a significant lack of political will from
national governments. Recently, however, a constellation of
electronic democracy software projects, rooted in civil society, has
appeared. The aim of these projects is to promote deliberative
democracy by providing the tools to enable it, and by setting a
direct example. If they are not state-supported, a possible success
of their inner organization and outcomes could show that such an
option for governance is not beyond conception; they could serve as
an example for future legal implementations. Current key projects are
the Argentinian Eudemocracia, the British debatewise and virtual
parliament, the Canadian Openpolitics the Italian Telematics Freedom
Foundation, the American WhiteHouse2, Votetocracy, DemocracyLab, and
the transnational Vilfredo. In this paper we explore three of these
projects: the Germans Adhocracy, Votorola and the Canado-German
Liquid Feedback. Since the intent of this article is mainly
descriptive we will not employ theoretical tools. The gathering of
information has been conducted through Skype interviews of one member
of each project respectively. Each interview lasted for around an
hour. The names of the interviewees are not disclosed in order to
assure anonymity. Other sources such as the web-pages of the
projects, and press coverage, were also browsed in order to acquire a
more objective point of view. The projects studied and the persons
interviewed were not meant at first to be of the same nation, in fact
we chose the two last projects after asking the first interviewee
what were the most promising other projects he had in mind. This bias
can give the appearance of a certain homogeneity in the
characteristics of these project that might not reflect the truth of
other electronic democracy projects. [This should be checked in
subsequent studies]. We describe each project one by one, and then
draw some conclusions. The descriptions follow the same structure:
first a part on the origins, participants and organization of the
project; second we examine the ideology, or political philosophy,
behind it; then we draw the functionalities of the software; then we
talk about the experiments and uses that have been realized with the
software; and finally we finish with a general review of the project,
and the plans of the project's team for the future. In our concluding
chapter we will draw some similarities between the three projects and
conduct a diagnosis of their development. 1.Adhocracy Adhocracy is a
web-based interface software developed by the German Liquid Democracy
Foundation (Liquid Democracy eingetragener Verein, or Liquid
Democracy e.V.). The Foundation has the goal of promoting and
implementing the concept of Direct Parliamentarism. Adhocracy has
become the most successful project of our three case studies since it
is currently being tried out by the German Bundestag. 1.1. Origin,
participants and organization
The Adhocracy project comes from a
German bachelor student in media, Friedrich Lindenberg, who began to
work on this project in summer 2009. Friedrich is today working for
the Open Knowledge Foundation and is still the main developer of
Adhocracy. In September 2009 Friedrich met people in a meeting of the
Chaos Computer Club in Berlin who had been working on a similar
project since summer 2006. They knew one another through the German
Pirate Party, but later disaffiliated their work from the party.
Friedrich and the Berlin group decided to work together and to fuse
the two projects in one in December 2009. To support the project they
created an official foundation called Liquid Democracy in the summer
of 2009 when the first version of the program was released. The
people working on the adhocracy software are a mix of political
scientists, sociologists and programmers. Most of them are students,
academics and software engineers in their late twenties or early
thirties. There are 27 members in the Foundation, but the most active
member count is 5-7 individuals. This core group do not collaborate
with other electronic democracy projects. The members work without
pay and even paid for the hardware from their own pockets. In June
2011 they received some funding from the ISPRAT Foundation
(Interdisciplinäre Studien zu Politik, Recht, Administration und
Technologie e.V.), a foundation that “promotes the modernization of
public administration through the use of information and
communication technology”[[ http://isprat.net/ueber-isprat/
(Accessed July 2011, Translation by the author).]]. They will also
receive support from the Internet und Gesellschaft Co:llaboratory
group[[ http://collaboratory.de/ (Accessed July 2011).]], a platform
of Internet experts, who will develop a new user interface for
Adhocracy. 1.2. Political Philosophy
The political concept at
the origin of the project is “direct parliamentarism” (“Direkter
Parlamentarismus”), which has been constructed by the members of
the Foundation themselves. For the Liquid Democracy Foundation,
current national representative democracies are not working properly,
and they should be perfected with the addition of mechanisms of
direct democracy. The recent progresses in technologies of
information and communication (TIC) and the general increase of the
level of education now permit the implementation of such mechanisms.
Therefore, the aim of the foundation is to materialize this
possibility of a more direct democracy by the creation of a software
enabling direct democracy mechanisms, and by lobbying for its
implementation. Interestingly enough, the foundation does not support
the idea of a pure direct democracy. On the contrary they opt for a
representative democracy that would be strengthened by the addition
of some levels of electronic direct deliberation. Their claims
against a pure electronic direct democracy are that there is the need
for checks and balances in a governing system (one cannot leave all
the power to the citizens), because software is fragile and can be
easily pirated, and because the Internet is not accessible to all.
Direct parliamentarism is a model of democracy that “combines the
advantages of a parliamentary system with the possibilities of direct
democracy”[[
http://wiki.liqd.net/Direkter_Parlamentarismus/Einf%C3%BChrung
(accessed June 2011, translation by the author).]]. Current direct
democratic systems such as referendums permit every citizen to vote
but not contribute to the writing of the propositions.
Parliamentarism enables a debate-based decision-making process but
that is only open to the citizen's representatives. Under direct
parliamentarism, every citizen could decide whether or not to
participate in debating and shaping the norms. They could also vote
directly or decide to delegate their votes to a person considered as
more competent. As it is unlikely that every citizen can focus on all
political matters and all projects of norms, a system of vote
delegation in Adhocracy permits to delegates one vote on one subject
matter to someone else. For instance, one can delegate one's voting
on matters of ecology to Greenpeace, while delegating one's votes on
cultural matter to a different party or NGO. One can at any time
re-take control of its vote on any subject matter. Direct
parliamentarism is not only applicable to the State but to every
organization. The positive outcomes of the implementation of such
model are manifold. Apart from enabling a “democratization of
democracy” by allowing more people to discuss and construct norms,
it would also severely limit the power of special interest lobbying,
since the power to vote would be dissolved in many more voters than
the current number of representatives allowed to vote in current
representative systems. 1.3. Software Functionalities
The
Adhocracy software enables and facilitates mass decision making
processes. It is accessible through a web-based interface. On this
web-based interface, there are two kinds of pages, or 'places': the
norms pages and the proposal pages. An organization (a political
party for instance) can add each of its norms in a dedicated page of
the program. Anyone who has subscribed to the software can also add a
proposal page, that can be discussed in common. Each proposal page is
structured in the same manner: first a title, second a short
description of the proposal, third a place for discussion. The
proposal can be linked with already existing norms that are related
to the topic, and one can write alternative versions of these norms
that would fit the proposal. People can discuss different parts of
the system, like the proposal descriptions, the norm pages, and the
alternative versions of norms. People can rate every comment written,
which permits an easier access to the most interesting comments. As
we have seen before people can delegate their vote on a specific
subject to another user, or on a specific area covering several
subjects. Proposals can be constructed collectively thanks to a wiki
system. 1.4.Experiments
The German Bundestag agreed to use
Adhocracy as a test project in the Bundestag's commission for
Internet and Digital Society (I&DS), that was created in March
2010[[ However, a critical feature of Adhocracy, namely the
delegation system, was switched off for this experiment.]]. This
commission will have to present recommendations of law-making to the
Bundestag on the summer of 2011. There was as of May 2011 around 1500
users who had subscribed to the program. Adhocracy is also used by
the socialist party Die Linke, and by the city hall of Munich. As of
July 2011, two new important organizations were going to implement
Adhocracy: the Sozialdemokratische Partei Deutschlands (SPD), and the
federal Youth Council[[ http://ljr.de/]]. 1.5. Review and plans for
the future.
Looking at the past two years, from the release of
the first version of Adhocracy to now, my interviewee thinks that the
project has turned out to be very successful, as the programming has
been done quite rapidly and as it is now used by several
organizations, including on the level of the State. Some journalists
have criticized the rather low level of citizen participation within
Adhocracy's implementation in the commission for I&DS, with only
1500 registered users. Some have explained this lukewarm result by
the low publicity that has been given to this implementation[[
http://www.freitag.de/politik/1125-der-versuch-momo-zu-etablieren ;
accessed July 2011.]]. Our interviewee for the Liquid Feedback
project, gives another explanation: people do not spend time on
Bundestag's Adhocracy because they believe that it does not effect
real decision making. Indeed, the Bundestag did not want to implement
a mechanism of identity verification, with the result that users can
potentially open several accounts and vote several times. This
seriously undermines the legitimacy of any recommendations that would
come from the Adhocracy system. In fact, the Bundestag did want to
use this implementation of Adhocracy as a test, but did not want to
allow it to make real decisions, and was therefore not at all
considering it as a serious materialization of participatory
democracy. Still, the Liquid Democracy Foundation benefited from a
fair media coverage because of the experiment of the Bundestag, and
its members have been invited to many conferences to present their
project. For the future, they hope that more and more organizations
will use Adhocracy. Their main technical problem currently is the
user interface, as they are struggling to make it more user-friendly.
The next step for the foundation will be to internationalize: the
documentation and parts of the program are still in German, which
will require translation. My interviewee is very optimistic and think
that the project will become more widespread during the next years.
2.Votorola Votorola is an electronic democracy software which has the
specificity to regroup users in “rooms” of 20 places for debates,
and connects these rooms through a process of vote delegation.
Votorola is the least successful project of our case studies, mainly
because of the lack of developers and because of the complexity of
its design. 2.1. Origins, participants and organization.
Michael
Allan, a 46 years old Canadian programmer, began work on Votorola in
2006. Michael gradually found people interested in his project and
who were eager to work with him. There are today three to four core
workers. The person I interviewed is 25, has a background in
philosophy but not programming, and began to collaborate with Michael
three years ago. They met through the Internet while they were
working on a common former electronic democracy project, no longer
active, called metascore. With so few people actively involved in the
project, the organizational structure is loose if not non-existent:
“everybody does what he likes most”. The group has not formed any
legal association either. They have not benefited from any external
founding. 2.2. Political philosophy
Similar to the view of the
Liquid Democracy Foundation, for my interviewee the rationale behind
Votorola is that modern democracy today takes the form of a lower
form of democracy, namely representative democracy. The purer and
better form of democracy, i.e. direct democracy, is out of sight as
large number of citizens within a nation-state makes it unmanageable.
Then the emergence of the Internet now permits the realization of a
more direct democracy as it allows the management of mass
decision-making processes. However, like the Liquid Democracy
Foundation, the perfect State democracy could not go without the
election of representatives. However, my interviewee also expressed
the same thoughts as the two other interviewees, that one of the
reasons not to rely solely on electronic democracy is that
informatics is unsecured, and that relying only on it could endanger
democracy. The members of the Votorola project do not have a
homogeneous ideological background when it comes to the construction
of a better democracy. Michael Allan was strongly influenced by
Habermas (which explains the specificities of the software as we will
see later), while mu interviewee took conscience of the importance of
bettering democracy through spirituality and meditation. He claims
that if political power was really in the hands of the people, then
big issues such as pollution and global warming would be solved much
more rapidly and easily. 2.3. Software functionalities
Votorola
offers the same basic functionalities of voting, drafting and
discussion as Adhocracy. The big difference resides in the design of
discussions and the functionality of vote delegation. While in
Adhocracy all can delegate to all with no restrictions, in Votorola
one user cannot receive more than twenty direct delegations. This
does not prevent some voters from being responsible for more votes by
the play of the several degrees of delegations (when someone
delegates his vote to someone who also delegates his vote to another
person). This limitation is the materialization of Michael's idea of
communicative delegation, against classical delegation. For the
founder of Votorola, an electronic democracy software must permit
rational debates between citizens. But such debates cannot happen if
people are too numerous. My interviewee criticizes for instance the
current functioning of Adhocracy in the Bundestag’s commission,
because each thread of debates rapidly became too long to follow, and
as a result this discourages people from participating. Therefore for
Votorola's members, the solution to mass debate is to prevent the
agents from writing through the Internet in one big forum, but to
divide the citizens into small “rooms” of debate which cannot
exceed twenty agents. These rooms are constituted through the
delegating mechanism, so that every person who has directly delegated
their votes to the same person for a given topic are regrouped into
the same discussion room (delegate included). This should permit the
realization of rational debates, but should also ensure that everyone
delegating a vote would end up with the same position on a given
topic. If a debate does not end with the creation of a consensus,
then the members are supposed to rearrange their delegations in order
to find a group with whom they agree. One downside of this system is
that debates therefore take place between persons who already agree
on a general idea, so that polarized positions are very unlikely to
meet. 2.4. Experiments
The first prototype (alpha) version of
Votorola was released in June 2011, therefore no real experiments
have been conducted yet. However a beta version of Votorola had been
used to help the construction of the site metagovernement[[
http://metagovernment.org/wiki/Main_Page ; accessed July 2011.]], a
common information and communication platform for all electronic
democracy projects. The members of the Votorola project consider that
the experiment was successful. 2.5 Review and plans for the
future.
For the future, the Votorola team wants to test the
current software in a small-scale organization that is still to be
found. My interviewee thinks that the long time that separated the
birth of the project from the release of the first alpha version of
the software is partly explained by the lack of developers working on
the project. He is extremely frustrated that the people willing to
work on electric democracy projects are atomized between more than a
dozen of different projects and software (one lists 19 different
projects on the metagovernment page[[
http://metagovernment.org/wiki/Active_projects ; accessed July
2011.]]). For my interviewee strong individualism and strong
attachment to individual projects explain this atomization:
Developers are often unwilling to give up their own project in order
to merge into a bigger one. Also the development of an electronic
democracy software is open to many choices and options, and many
developers think their method is the good one, and are reluctant to
make the concessions required for the building of a common project.
3. Liquid Feedback Liquid Feedback is the electronic democracy
software of the German Pirate Party, and the members are trying to
implement it for other political parties. It is more focused on
proposition making than debates compared to Adhocracy. 3.1. Origins,
participants and organization
My interviewee is 44 years old and
works for an IT company. He and three of his colleagues (one of them
in his forties, the two others in their late twenties) discovered the
idea of liquid democracy in June 2009, a concept created by the
German pirate party. At the time the Berlin Pirate Party (a local
chapter of the German pirate party) was wishing to implement its idea
of liquid democracy to its internal organization, and my interviewee
and his colleagues decided to help them. They tried to find existing
software and realized that none was meeting the needs of the party,
so they decided to create an original software. In January 2010, the
software was ready to run a beta test for a party's convention. The
test was successful and two months later the party put the use of
Liquid Feedback in its by-laws. Currently, two people are working on
further developments of the software, with up to ten collaborators
working from time to time with them. A larger group including beta
testers and persons giving ideas and making suggestions contains
around 50 persons. The group is working alone, but have many informal
connections with other electronic democracy projects, and notably
with the two other projects we have described earlier. Members talked
a lot with the Votorola people, but they thought that the delegation
tree system was too complex to work. They also discussed with the
people of Adhocracy but were not agreeing with some features of the
system, Adhocracy being more centered on discussions than Liquid
Feedback. 3.2. Political philosophy
My interviewee has the same
basic idea as the others, that what they are trying to achieve is a
synthesis of representative and direct democracy. However, Liquid
Feedback is primarily designed for parties and other organizations of
the same scale. Theoretically it could be implemented at the State
democracy level, but my interviewee thinks that replacing the
existing representative democracy by an electronic direct democracy
now would be too early a move, as the general population would not be
ready to take care of the political matters of a country. Also, other
difficulties would challenge such an implementation: First, voting by
way of computers has been ruled out by the German Federal supreme
court. Second, the need for identifying citizens, to link each
electronic account to one citizen, in order to prevent on individual
from voting several times, requires some work from the State. This
problem has prevented Liquid Feedback experimentation on the national
level. Indeed the project had been approached by the Bundestag for
the experiment concerning the committee for IT and Society described
earlier, and the members decided that they would agree to participate
in the experiment if this matter of identification was dealt with.
The Bundestag, as we know, was not interested in fixing this problem
because they didn't want to allow the system to arrange real
decisions. So the liquid feedback project turned down the Bundestag's
proposition. Third, the need for anonymous voting, a pillar of modern
representative democracy, is in contradiction with the need for
security: anonymous electronic voting would be easier to hack and to
skew. Liquid Feedback chose security against anonymity so that votes
and comments are signed and public, and so that anyone can view the
votes of others. This would obviously not be accepted in the current
system of State democracy. For my interviewee, one of the solutions
would be to give to each citizen a nickname, which would relatively
protect anonymity as well as permitting reliability. However there is
still a chance that someone discover whose nickname belong to whom,
therefore the anonymity problem is not completely solved with this
solution. 3.3. Software functionalities
Liquid feedback presents
the general features of an electronic democracy software:
proposition, discussion, voting, and delegation. Delegations can be
given for every decision, for a specific area, or a specific issue.
Liquid feedback includes an original process of decision-making
called “qualified feedback”. When someone presents a proposition,
the users have the option to say that they will agree and vote for
this proposition if it is changed in such and such way. Other persons
agreeing with these possible changes can opt in this proposition
change, which makes visible how popular proposition changes are. If
the changes are not made, people have the possibility to write a
counter proposal that will be linked to the first one. Any
propositions concerning the same topic is grouped into an “issue
page”, which is linked to a discussion page. Any new issue must be
approved by at least 10% of the people registered in the general
topic embedding the issue (form instance “economic policy” or
“cultural policy”), otherwise the issue page will disappear after
a certain time. In order to deal with all the propositions in a same
issue, the liquid feedback team has added a preferential system that
permits voters to list these propositions in a preferential vote: if
the proposition I put first on the list was not accepted then my vote
will come automatically to my second choice. 3.4. Experiments
Today
Liquid Feedback is completely implemented within the Berlin Pirate
Party, which had no strong structures of power and hierarchy before
the software's implementation. The software is currently evaluated by
other regional chapters of the party and by the federal German pirate
party, but its implementation was met with much more resistance on
this level. There is indeed strong resistance from some board members
(the people with power in the party) to implement it, even if more
than 80% of the members of the federal party voted in favor of Liquid
Feedback's implementation in May 2010. for my interviewee, the people
in power are lobbying against it in order to keep their political
importance within the party. Their claim is that such a software is a
threat to data protection and privacy, but a survey showed that it
was not a matter of concern for the great majority of the party
members. They also claim that the board members have been elected to
rule, and that therefore they should retain their autonomy on the
decision-making processes without being subjected to the
“dictatorship of the inactive members.” Liquid Democracy is under
an MIT (Massachusetts Institute of Technology) license, so anyone can
use it. Apart from the German Pirate Party, some sections of the
pirate party in Austria and is Brazil are using it. Several chapters
of the German green party are interested in it, as well as the
social-democrats, and the Democrats in California, but nothing has
been implemented there yet. 3.5. Review and plans for the future
My
interviewee and his friends joined the Pirate Party in June 2009 but
left it in April 2011 because of the tensions around the
implementation of the software on the federal level (they were
getting involved too much in power plays), and because they want to
offer Liquid Feedback to organizations beyond the Pirate Party.
Overall, the coding wasn't hard to construct. Databases are already
coded using MySQL. The politics were much more complicated. While it
worked very fine and fast with the Berlin Pirate Party, as we have
seen the project met much more resistance for the federal Pirate
Party. For the future, the developers want to review the use of
Liquid Feedback and gather advice in order to make it better. Also a
better interface is being developed by a group of people from
southern Germany's Pirate Party. They hope that more organizations
will use it, and for the long term, they hope for a State democracy
implementation in what they call interactive democracy, where the
citizens and their representatives would be able to discuss with one
another. 4. Results In this final part we point out some similarities
between the three projects and discuss the issue of atomization. 4.1.
Similarities
First we can see some similarities in the origins
of the three projects and about their members. All of them have been
initiated by rather young, politically motivated men[[ This
exclusivity of gender is problematic but should not really surprise
us, as women are usually barely present in the world of software
engineering.]], working benevolently in their spare time. Two
distinct generations work on these project; the majority is composed
of late twenties / early thirties years old persons, young enough to
be aware of the potentialities of the Internet, and old enough to
have the skills necessary to develop such software. A minority is
composed of early to mid forties years old persons, all of them
professional software engineers, and can be considered as the
forerunners for putting into practice the political possibilities of
new technologies of communication. One non-intuitive result is the
presence of non-programmers at the core of two of the projects,
Adhocracy and Votorola. Adhocracy and Votorola has social scientists
and/or political philosophers who helped building the concept as well
as the design of the software. The non-programmers can also help with
managerial tasks such as public relations. The three projects also
have a “periphery” of occasional contributors testing the
software and reporting bugs who can also be non-programmers. The
three projects share the same ideal in terms of political philosophy.
The ideological justification of each project is based on the idea
that it would offer a synthesis between representative and direct
democracy. Modern direct democracy techniques (such as referendums)
permit everyone to vote while making it impossible for everyone to
construct the proposal and to debate with one another, because of the
too high number of citizens. Modern representative democracy permits
voting, proposition making and debates, but is only accessible to a
very limited number of citizens who are the representatives. The
electronic democracy proposed by our studied projects would enables
each citizen to participate in the three political actions of
proposal-making, debates and votes. Finally, each of the interviewees
adopts a “realistic” stance to the question of a complete
national electronic direct democracy. For each of them, to replace
the current representative democracy by such a system is not possible
nor desirable. For my Adhocracy interviewee, a State needs checks and
balances, and giving all the power to the people would be dangerous.
To my Liquid Feedback interviewee, the western population is not
mature enough and do not have enough time to bear alone the weight of
national political decisions. Finally, each of the participants also
rule out the possibility of a pure electronic direct democracy
because of technical concerns: an electronic system is too easily
hacked. 4.2. The issue of atomization
The issue of the
atomization of the electronic democracy movement, that is of the
presence of multiple small-scale projects, is a critical one. The
discussion platform metagoverment.org[[
http://metagovernment.org/wiki/Main_Page]], which has the function of
regrouping all the electronic democracy projects, lists 19 different
ones. None of them are exactly the same as each has its own
specificity. We need to know whether this distribution of the work
force is hampering the progress of the idea and of the implementation
of electronic democracy. For the Votorola interviewee, member of the
least successful studied project in terms of experimentation, this
atomization through many different project is a huge waste of energy
and is detrimental to the realization of electronic democracy. For
our two other interviewees, on the contrary, this diversity is
beneficial as 1. the resulting competition gives to the projects'
members an incentive to work harder and better and 2. it permits to
offer different services that would apply for different situations.
In some Free Software projects, such as the different versions of the
Linux OS, diversification of software with the same general aim but
different designs has also given the user more choices, but the
development is usually slower and more prone to bugs than if there
was only one project. However, this possibility of having only one
project is impossible as the development of such software is
dependent on the voluntary work of the developers who will not work
on a project with which they don’t agree. But the differentiation
in electronic democracy projects is quite different from the
differentiation in the Free Software movement. Indeed, the later is
most of the time a mechanism of “forking”, where a group of
programmers split after a certain time for reasons internal to the
organization, and where the forking projects born from the split
retain the same original code of the mother project (Rossy 2004:
16f). On the contrary, electronic democracy software have been
developed in parallel, and do not share any code with one another.
What are the causes of such atomization? One hypothesis is that there
is a lack of communication between people with the same ideas.
However we discovered that the members of the projects were aware of
the existence of one another. As all of the three projects have been
developed in Germany, it will be interesting to know in subsequent
studies if members of projects in a given country are aware of
projects in other countries. So it seems that the division does not
come from a lack of communication but rather because of an
irrevocable disagreement about what should be an electronic democracy
software, about its design and functionalities. For my Votorola
interviewee, strong individualism and strong attachment to individual
projects in the population of software engineers is another
explanation. Finally, the development of an electronic democracy
software is open to many choices and options. Since it has never been
done before, one doesn't really know which design is best. The
multiplication of implementations should give to the electronic
democracy movement the experience it needs to figure out the right
design. Conclusion The programming of electronic democracy software
is not a difficult task: the code is not that challenging to write
for the needed functionalities of the software, and developers can
use already developed free software to complete their own; for
instance LiquidFeedback used the free software MySQL for the running
of its databases. More difficult, in fact, is the implementation of
the software within organizations. Votorola has yet to find an
organization to implement and test the software. Liquid Feedback is
facing strong resistance from the people in power within the federal
German Pirate Party for its implementation. Adhocracy is becoming
quite successful in its implementations, but the Bundestag experiment
has been executed at the cost of the disappearance of the delegation
functionality and the absence of identity checking. Bibliography
Barber, Benjamin R. 1984. Strong democracy: participatory politics
for a new age. University of California Press; Berkeley, California.
Coleman S., Blumler J.G. 2009. The Internet and democratic
citizenship. Theory, practice and policy. Cambridge University Press
; Cambridge, England. Rossy, Maria Allessandra. 2004. Decoding the
“Free/Open Source (F/OSS) Software Puzzle” a survey of
theoretical and empirical contributions. Department of Economics
University of Siena 424.
2012-07-08 13:21:10
Cet article a été publié sur le blog de campagne de Pierre Mounier et David Dufresne. « Qu’est-ce que le Parti Pirate ? » Voilà la question la plus fréquente qui ait été posée au cours de cette campagne électorale. Logique : le Parti Pirate est tout nouveau, inconnu des Français il y a encore quelques mois. Evidemment, on a des réponses automatiques qui visent à transmettre le maximum d’information en un minimum de temps et susciter l’intérêt voire l’adhésion. « Le Parti Pirate est un parti qui défend ceci et cela », « Le Parti Pirate a été fondé en 2006 par », « On nous appelle « pirates » mais nous ne faisons que..; », et ainsi de suite.
2013-01-09 02:01:23
En compagnie d’Aurélien Berra et Bjorn-Olav Dozo, je suis en train de rédiger un petit ouvrage de vulgarisation « Qu’est-ce que les Digital Humanities ? » pour OpenEdition Press. Je publierai ici les premières versions des textes formant ma contribution à cet ouvrage. N’hésitez pas à commenter et corriger, j’intégrerai les suggestions à la version définitive du texte. Celui qui suit constitue un bout de chapitre consacré aux relations entre les humanités numériques et la société. Il traite de l’aspect patrimonial. Le prochain traitera des applications industrielles en matière de traitement de l’information. “Qu’apportent les digital humanities ?” Lorsque le journaliste Hubert Guillaud tente de rendre compte du développement de ce domaine nouveau, il touche un point sensible en s’interrogeant sur les retombées pour l’ensemble de la société : “En tant que non-spécialiste, on a du mal à voir, à saisir l’apport de cette nouvelle forme de science, au-delà de ce qu’elle apporte pour le chercheur. On constate bien dans le Manifeste des digital humanities qu’il y a d’abord cette volonté de faire communauté autour de l’intégration de la culture numérique dans les pratiques de recherche d’aujourd’hui. […] On est beaucoup dans la structuration d’une discipline, alors qu’on souhaiterait surtout comprendre ce que ces outils apportent concrètement”. Il est vrai qu’à lire une certain nombre de textes fondateurs ou importants dans ce champ : le Companion to the Digital Humanities ou les Debates in the Digital Humanities, les différents manifestes qui ont été publiés ou, plus encore, les multiples blogs qui rendent compte de l’activité foisonnante qui s’y déploie, on est frappé de leurs Debates in the Digital Humanitiespréoccupations très internes au monde académique. Ce travers est en partie dû à sa dimension fortement communautaire : des ThatCamps à la conférence Digital Humanities annuelle, des scoiétés savantes spécialisées comme ALLC aux réseaux professionnels comme Centernet, c’est un petit monde qui se retrouve régulièrement et se côtoie, échange souvent entre-soi, entre spécialistes. Alors, les humanités numériques auraient-elles succombées au syndrôme de la tour d’ivoire, délicieusement croqué par David Lodge qui se moquait déjà en 1984 du petit monde académique ? Rien n’est moins sûr, et il est probable que cette impression relève simplement de l’illusion d’optique. Car les retombées du développement des humanités numériques sur l’ensemble de la société sont nombreuses et diverses. Lorsqu’en 2006, le Conseil qui réunit et représente les puissantes sociétés savantes américaines publie un rapport remarqué sur les humanités numériques, il choisit de lui donner pour titre “Our Cultural Commonwealth”, notre “bien commun culturel”, afin de marquer à quel point le mouvement des humanités numériques touche d’abord à la question de l’accès de tous au patrimoine culturel qui fait le ciment d’une société : “Nous avons montré que l’information numérique peut contribuer à démocratiser les sociétés — mais ce pouvoir ne peut être effectif que si l’accès à la mémoire culturelle est aussi ouvert que possible au public, aussi bien en termes intellectuels qu’économiques.” peut-on lire dans ce rapport remarqué. Au delà de la question du libre accès, qui est particulière quoique stratégique, un des premiers bénéfices de la multiplication des projets dans ce domaine est déjà, simplement, et sans nécessairement aller chercher des outillages très sophistiqués, de rendre accessible une partie importante d’un patrimoine culturel jusqu’alors bien caché dans les archives, les réserves des musées ou les sites archéologiques. Prenons l’excellent exemple récent des Van Gogh Letters, projet de numérisation de l’ensemble de la correspondance de Vincent Van Gogh à son frère Théo et à ses amis, réalisé par une équipe de chercheurs avec l’appui du Van Gogh Museum à Amsterdam. Ce travail considérable, entrepris pour la poursuite d’objectifs de recherche, a certes donné lieu à la réalisation d’une magnifique édition imprimée, en 6 volumes imposants, etVan Gogh Letters illustrés. Mais elle a surtout permis la restitution en ligne et en libre accès de la totalité de ce corpus, permettant d’accéder au fac simile des lettres, à leur transcription, ainsi qu’à leur traduction en anglais, le tout accompagné d’outils de navigation très utiles permettant de découvrir le corpus. Il y a fort à parier que la version en ligne, par son accessibilité même, a un impact beaucoup plus important sur l’ensemble du public, que la version imprimée, qui a par ailleurs tout son mérite. Dans un tout autre domaine, le projet Usines 3D, mené par des équipes du CNRS en partenariat avec le Ministère de la Culture procède à un minutieux travail de reconstitution historique de l’architecture des usines et des chaînes de construction automobile en France au début du XXe siècle. Sochaux, Billancourt, Levallois, sont autant de noms qui résonnent particulièrement dans notre mémoire collective, sociale et politique, et qui font partie d’un patrimoine industriel constitutif de notre histoire. Les maquettes numériques reconstituant en volume des ensembles architecturaux aujourd’hui disparus, mais aussi en vidéo les opérations successives de montage des premières automobiles Citroën sont le résultat d’un travail minutieux associant historiens et programmeurs. L’accès d’un large public au résultat de leur travail montre bien tout l’intérêt que peut revêtir ce genre de projet. 9-11 digital archiveLe dialogue que le public peut établir avec son propre patrimoine culturel à travers les projets d’humanités numériques est dans certains cas plus intense, plus riche et surtout plus interactif que les exemples qui viennent d’être donnés. La public history par exemple mobilise souvent les médias sociaux pour développer des projets spécifiques. C’est le cas par exemple du projet September 11 Digital Archive développé par le CHNM qui mit en place très vite après les attentats du 11 septembre une archive multimedia proposant aux citoyens new-yorkais de partager des témoignages écrits, visuels ou multimedias de la manière dont ils ont vécu la tragédie. En France, c’est le projet Photo Normandie qui faire référence, avec la mise à disposition sur la plateforme de partages de photographies Flickr de milliers de clichés retraçant la Bataille de Normandie et proposant à l’ensemble du public de l’enrichir en informations historiques. Mais dans ce domaine, c’est sans doute le Quilt Index qui représente un des exemples les plus fascinants de ce qui peut être fait. Les quilts sont des couvre-lits épais composés de plusieurs pièces de tissue cousues ensemble et décorés de motifs géométriques ou figuratifs, que l’on appelle “patchworks” en France. Cette technique de couture est pratiquée intensivement et depuis l’ère coloniale aux Etats-Unis, particulièrement. Chaque quilt se distingue par sa dimension, la qualité des tissus assemblés, sa technique de fabricatiquilting at Central Parkon, mais surtout les motifs qui y sont brodés. Ces motifs font l’objet de traditions spécifiques, qui se transmettent et se déclinent, font office de marqueurs identitaires et de supports d’innovation à travers les centaines de milliers de quilt brodés au cours des siècles sur le continent nord-américain et ailleurs. Il revient au centre d’humanités numériques MATRIX de l’Université du Michigan d’avoir développé un “Quilt Index”, autrement dit un corpus de 75 000 images de quilts numérisés classés par lieu, époque, collection, mais aussi type et motif. Ce projet, qui relève à la fois de l’histoire, de l’anthropologie et des cultural studies, s’appuie d’un côté sur un appareillage informatique sophistiqué de logiciels de reconnaissance de formes parcourant l’énorme masse de données pour y détecter “automatiquement” des rapprochements et des filiations, et d’un autre côté d’une dimension patrimoniale évidente, offrant aux passionnés de “quilting” une ressource inestimable sur laquelle ils pourront s’appuyer pour développer leur activité. Mais ces passionnés peuvent enrichir eux-mêmes l’index, en y déclarant leur collection privée par exemple, en documentant le wiki associé, en participant aux discussions de la liste associée, en faisant des dons qui assurent une pérennité financière du projet. Ce dernier est donc emblématique de la manière dont la mobilisation des technologies numériques peut aider les sciences humaines à nouer des interactions riches et multiples avec les sociétés qui les environnent, en travaillant le patrimoine culturel constitutif de leur identité propre. Chacun des trois exemples évoqués associent d’une manière ou d’une autre des équipes de recherche, des équipes techniques, mais aussi des institutions patrimoniales comme des bibliothèques, des musées, des fondations ou des archives qui jouent un rôle essentiel à la fois dans la collecte des documents primaires mais aussi dans l’articulation de la recherche avec leurs publics. Cette structuration en partenariat autour de corpus spécifiques, mobilisant des institutions et des collectifs positionnés différemment est typique de la manière dont les humanités numériques se sont développées depuis le début de leur histoire et constitue une première réponse à la lancinante question de l’intérêt des humanités numériques au delà des cercles académiques.
2013-07-06 23:07:12
Les 1er et 2 juillet derniers, le Jisc et le consortium Oapen ont organisé ensemble une conférence à la British Library de Londres pour convier une large communauté d’acteurs de la publication en sciences humaines et sociales à réfléchir ensemble à l’avenir de la diffusion du livre en libre accès. Un changement de contexte Particulièrement bien organisée, et bénéficiant d’un programme de premier choix, cette conférence restera dans mon souvenir comme une des plus intéressantes auxquelles j’ai pu assister. Longtemps cantonné au rang très marginal de l’expérimentation sympathique, la publication de livres de sciences humaines en libre accès est manifestement en train de prendre de l’importance. Le débat en cours sur le libre accès aux résultats de la recherche, dans la continuité du rapport Finch ou de la recommandation européenne, ne concerne certes pas les ouvrages de sciences humaines, mais seulement les revues, et d’abord de sciences. Certes. Il n’empêche que la grande salle du Conference Center de la BL, pleine à craquer, témoignait de l’intérêt croissant que suscite cette question dans la communauté académique. Et du début à la fin de la conférence, on sentait très nettement que des verrous avait sauté ou était en train de le faire. La complémentarité avec la conférence de Berlin APE 2013 à laquelle j’ai aussi pu assister un peu plus tôt dans l’année est d’ailleurs remarquable : plus technique et davantage orientée sur les modèles économiques, la conférence de Berlin manifestait aussi clairement que le contexte avait changé. A Londres, la conversation était plus théorique, plus intellectuelle, et tout aussi intéressante. Les « cent fleurs » du libre accès Les différentes keynotes, les panels et les ateliers en parallèle donnaient à voir une grande diversité d’initiatives peu redondantes entre elles, mais, et c’était frappant, dirigées dans la même direction. C’était d’ailleurs un choix des organisateurs de la conférence que de donner à voir, sans parti pris de leur part, les “cent fleurs” de la publication des livres de sciences humaines en libre accès. On avait donc à la fois Open Book Publishers, une jeune maison d’édition dirigée avec un enthousiasme communicatif par Rupert Gatti, et Palgrave McMillan, une vieille maison commerciale développant, comme tous ses équivalents, un programme de publication “open” à compte d’auteur. On avait d’un côté, les jeunes universitaires de Lincoln qui font beaucoup parler d’eux en développant une Open Library for Humanities et veulent révolutionner les pratiques de publication scientifique, et de l’autre Toby Green, responsable des publications de l’OCDE, impressionnant de professionnalisme, qui gère au millimètre un important budget annuel sur la base d’un modèle économique en Freemium (eh oui !) . On avait d’un côté France Pinter de Knowledge Unlatched qui semble avoir beaucoup affiné son modèle de financement par les bibliothèques et se prépare à “libérer” un premier lot d’une trentaine d’ouvrages par ce moyen, et de l’autre MPublishing, représentée par Shana Kimball, qui a développé une réelle expertise technique à partir de la bibliothèque de l’université du Michigan en matière de publication numérique. Un des moments importants fut le lancement du Directory of Open Access Books (DOAB) qui se veut être un catalogue commun de livres académiques en libre accès , un peu sur le modèle du DOAJ. Une des propositions fortes du DOAB est de tenter d’établir des critères de qualité conditionnant l’entrée des titres au catalogue : une licence pour le libre accès doit être déclarée, mais surtout, l’éditeur doit garantir que ses manuscrits subissent une procédure formelle d’évaluation publiquement affichée. C’est Eelco Ferwerda, directeur d’Oapen, qui a présenté rapidement le DOAB, mais Janneke Adema, que j’avais invitée lors de la dernière université d’été du Cléo, a animé un atelier très détaillé sur le mode de fonctionnement de ce projet. Je n’ai pu assister à tous les ateliers, ceux ci se déployant en parallèle, mais j’ai aussi pu profiter d’une bonne présentation d’ORCID, un système d’identification unique des auteurs, mais aussi d’un excellent petit guide sur la publication de livres sous licence CC réalisé par OAPEN-UK. Un autre atelier en parallèle, auquel assistait ma collègue Dasa Radovic, proposait aux organismes financeurs de venir présenter leur politique de soutien à la publication en libre accès. Etaient représentés la DFG allemande, mais aussi la Max Planck Society qui est très active en ce domaine. Plusieurs autres organismes étaient présents (l’importante NWO hollandaise en particulier), mais pas de français, et c’est dommage. A propos, un seul orateur français était présent à cette conférence. Il s’agissait de Philippe Aigrain, auteur de l’important Sharing publié en 2011 chez Amsterdam University Press, et je me réjouissais à l’avance de l’entendre venir apporter une contextualisation plus large à nos réflexions. Mais ce n’était pas son rôle. Il devait apporter un témoignage d’auteur publiant sous licence Creative Commons et du coup, il était un peu décevant qu’il ne puisse pas évoquer le contenu de son livre. Des keynotes d’exception Et puis il y a eu les keynotes. Nous avons été gâtés en bénéficiant de trois conférences d’exception, avec trois styles différents, mais de haut niveau chacune à sa manière, et, c’est le plus étonnant, remarquablement cohérentes entre elles. C’est à Jean-Claude Guédon qu’est venu le difficile rôle d’ouvrir la conférence. J’ai entendu bien des fois des conférences de Jean-Claude et j’avoue apprécier son talent rhétorique, son érudition et la profondeur de sa réflexion. Mais ici, c’était la première fois que je l’entendais en anglais, et j’avoue avoir encore plus apprécié que de coutume car son discours était dépourvu des piques, critiques et quelquefois sarcasmes dont il émaille ses interventions en France et qui le font passer, à tort, aux yeux de certains pour un idéologue froid, insensible à la réalité de terrain. Rien de tel ici, et nous avons pu profiter pleinement d’une pensée subtile appuyée sur une immense connaissance du domaine, que personne ne peut lui contester. Bref. J’aimais déjà bien la VF ; j’adore la VO ! Avec Kathleen Fitzpatrick, ce fut un autre style. L’auteure de l’excellent Planned Obsolescence et actuelle directrice pour la communication savante à la MLA, avait écrit un discours de haute volée nous invitant à interroger les pratiques actuelles de publication académique (évaluation, forme, temporalité) et à tenter d’imaginer de nouvelles, plus adaptées à l’environnement numérique dans lequel nous baignons. On a eu droit à un discours très construit et convaincant, avançant vers son objectif avec l’efficacité d’une machine de guerre.C’est à un exercice totalement opposé que s’est livré Cameron Neylon, à qui il était donné de conclure ces deux jours de conférence. Cameron est le « advocacy director » (pas de traduction possible) de la Public Library of Science. Cette position un peu à l’extérieur du sujet lui donnait un statut d’observateur invité à faire émerger les idées les plus importantes de la conférence. Dans ce cas, l’orateur a choisi de jouer l’acrobate sans filet et de construire un discours “improvisé” en rebondissant librement sur le défilement en boucle et sans ordre de 60 slides, essentiellement des images mais aussi des citations entendues au cours des deux jours. C’était assez fort. Chapeau l’artiste ! Si je m’arrête un instant sur ces trois interventions, c’est parce que j’ai pu les trouver brillantes et admirables, mais aussi quelque peu dérangeantes. Car toutes les trois allaient dans le sens d’une déconstruction de la notion de livre, voire de sa contestation, ce qui est assez paradoxal dans une conférence censée célébrer le livre en libre accès. Les trois interventions mettaient sur le devant de la scène la dimension sociale du livre, Jean-Claude Guédon appelant à prendre en considération en premier lieu ce qu’il appelle la “sociologie du document”, tandis que Kathleen Fitzpatrick s’est longuement intéressée aux procédures de garantie de la qualité des ouvrages, qu’il faut, selon elle, repenser complètement dans le contexte du réseau. Cameron Neylon pour sa part, a su formuler la tension que ses collègues ont aussi pointée entre “le désir de fixité de la monographie comme objet et de l’autre, le rôle que doit jouer cet objet dans la sphère académique”. Mais voilà qu’il continue sur sa lancée et appelle à un éclatement du livre sur le réseau : “le livre est une conversation” conclue-t-il, révélant rétrospectivement le fil rouge qui a parcouru cette conférence depuis ses débuts : si le livre de science humaines mérite d’être libéré, c’est au nom du paradigme conversationnel de ses usages sociaux que le web libre et ouvert démultiplie évidemment. Interroger le modèle de la conversation Que le livre de sciences humaines ait des relations étroites avec la conversation, c’est évident. Il n’est que de parcourir l’avant-propos des grandes monographies de sciences humaines pour comprendre que celles-ci sont le résultat de dizaines de présentations en séminaires, de discussions individuelles ou collectives, d’échanges autour de pré-versions. Que le livre de sciences humaines ait pour vocation de provoquer des conversations, critiques et réfutations, prolongement plus ou moins inattendus, reprises et parfois distorsions, c’est certain. En un mot, le livre naît de et engendre des conversations. C’est là son mode d’existence même. Mais dire maintenant que le livre est une conversation, voilà une étape que je ne franchirai pas. Et je dirais même au contraire que jusqu’à un certain point, le livre est une anti-conversation ! Immanquablement, cette expression “le livre est une conversation” fait penser et renvoie sans doute explicitement à deux autres formules célèbres : “blog is a conversation” que j’ai découverte en 2007 sur Smart Mobs d’un côté, et le fameux “a book is a place” avancée par Bob Stein à la TOC Conference en 2009. Oui mais voilà : un livre n’est pas un blog, ni un mail, ni un tweet. Un livre relève d’une autre dimension, irréductible, qui échappe au moins en partie à la conversation. Le « désir de fixité » dont ont parlé les orateurs ne relève pas nécessairement du comportement pathologique et il serait réducteur, je pense, de le réduire à une hystérésis héritée de l’imprimé. J’ai eu l’occasion, déjà, de m’exprimer sur ma propre définition du livre de sciences humaines en remontant à Hérodote qui en fournit à la fois le premier exemplaire et le modèle. Le livre de sciences humaines est pour moi une « enquête » de grande ampleur afin d’examiner la réalité humaine en la passant au crible de la raison. Le livre se détache donc de la conversation par sa temporalité qui l’arrache des interactions quotidiennes, mais aussi par son ambition qui, jusqu’à un certain point, se définit précisément un contre-point du consensus dominant véhiculé par la conversation.Il ne faut en effet pas s’y méprendre : la conversation, et bien sûr la conversation académique ou scientifique joue un rôle essentiel pour permettre aux idées de circuler, en faciliter l’appropriation par différents acteurs, construire aussi un périmètre de consensus sans lequel il n’y a pas de science possible. Mais on sait aussi que la conversation comme modèle social d’interaction a des effets de conformisme qui peuvent être très important. Sans autre source qu’elle-même, la conversation tourne en rond, circule à vide et se transforme en vain babil. La conversation pour être riche et intéressante, a besoin d’éléments extérieurs, en l’occurrence de propositions fortes qu’elle doit discuter. C’est bien le rôle du livre que de porter ces propositions en contrepoint de la communication quotidienne. Un livre doit être un choc, quel que soit son genre d’ailleurs ; il doit être inédit ; il doit être capable de déplacer les cadres intellectuels, de proposer une autre manière de voir ce que l’on croyait connaître, bref, d’apporter du nouveau, petit ou grand, mais toujours avec une nécessaire dose de radicalité. A-t-on besoin de déboulonner le livre comme monument, fixe, immuable et jusqu’à un certain point asocial pour en défendre la diffusion en libre accès sur Internet ? Je n’en suis pas si sûr, et j’aimerais en réalité soutenir la proposition contraire. Si le web libre et ouvert s’est développé sur le modèle du réseau social et de la conversation, il ne faut pas pour autant réduire le monde entier et en particulier le monde social à ce modèle qui deviendrait unique. Ce serait une terrible faillite pour l’esprit humain qui stagnerait irrémédiablement. L’ouverture du réseau (social et numérique) à une forme d’altérité est au contraire nécessaire. Et c’est justement pour cette raison que le livre, en tant qu’il est, depuis son origine, une des formes de production intellectuelle les plus susceptibles de porter cette altérité, doit être présent et actif, circulant et réapproprié dans le réseau. L’avancement des arts et des sciences est une respiration, un moteur à deux temps. En sacralisant l’auteur, l’œuvre, la création, nous oublions l’indispensable socialisation du livre, nous perdons de vue qu’il relève de la culture et du savoir qui sont des biens communs. Mais il ne faut pas basculer dans l’extrême inverse et écraser ce que livre apporte d’inédit dans l’horizontalité absolue du réseau. Ce n’est pas un tiède entre-deux que je propose. C’est plutôt le défi de tenir en même temps les deux termes de la contradiction et d’imaginer des pratiques, des modèles, des interfaces, des systèmes, des plateformes, des outils qui permettent de le relever. - See more at: http://blog.homo-numericus.net/article11190.html#sthash.ZNZM3f6R.dpuf
2013-12-04 02:17:10
[« Notre mai 68 numérique est devenu un grille-pain fasciste »->http://www.slate.fr/monde/80483/nous-avons-tue-notre-internet]. S’il est un talent qu’il faut reconnaître à Titiou Lecoq, journaliste indépendante et animatrice du blog décapant [Girls and Geeks->http://www.girlsandgeeks.com/], c’est bien d’avoir l’art de la formule. Car le titre de la tribune qu’elle a fait paraître le week-end dernier sur le site du magazine Slate résume en quelques mots un sentiment de désillusion croissante, partagé par ceux qui s’intéressent au développement d’Internet. Pour un certain nombre d’entre eux, ce développement s’est accompagné historiquement d’une visée émancipatrice porteuse des valeurs de liberté, d’autonomie individuelle, de liberté d’expression. Il n’est pas difficile à Titiou Lecoq de démontrer en quelques paragraphes à quel point le mirage libertaire s’est aujourd’hui dissipé pour laisser la place à une réalité à la fois mercantile et répressive : le rêve de circulation distribuée de l’information par les réseaux de pair à pair est démenti par la domination des plateformes centralisées de distribution de contenus cadenassés ; la multiplicité des parcours transversaux que permet le lien hypertexte a été réduite par la domination croissante des plateformes de réseaux sociaux - et d’une en particulier - qui tiennent l’utilisateur enfermé dans leur toile privée ; l’ouverture d’un accès universel au savoir a été détourné par les moteurs de recherche - un en particulier - qui isolent chaque utilisateur au sein d’une « bulle de filtrage » solipsiste. Etats, Marchand et Netizens En 2002, j’avais représenté dans [Les Maîtres du Réseau->http://halshs.archives-ouvertes.fr/halshs-00007609] le cyberespace comme une sorte de frontière indéterminée que trois catégories d’acteurs cherchent à coloniser en y imposant leur propre logique : les Etats, les marchands et les netizens. Observateur des batailles qui ont émaillé depuis lors cette histoire politique du cyberespace, je n’ai pu que constater les défaites successives subies par ces derniers. Le « mai 68 » des netizens, s’est effectivement transformé en grille-pain fasciste des marchands et des Etats. Nous nous sommes embarqués avec Mygale et la NSF, nous finissons le voyage avec les GAFA et la NSA. Et le texte de Titiou Lecoq est le symptôme d’une prise de conscience progressive qui prend l’allure d’une gueule de bois monumentale. Comme Neo, nous sommes peut-être arrivés au point de sortie de la matrice, et nous frottons les yeux en découvrant autour de nous une réalité hideuse qui ne ressemble en rien à ce que nous avons rêvé. Le premier réflexe consisterait à attribuer la responsabilité d’un tel fiasco à d’autres que nous, en particulier à une classe politique qui n’a d’ailleurs aujourd’hui pas d’autre fonction que d’être le bouc émissaire de nos faiblesses collectives. Ce serait une erreur nous avertit à juste titre Titiou Lecoq. Car c’est bien nous qui, par servitude volontaire, par facilité et par lâcheté avons abandonné notre bien commun, le réseau, aux appétits de ceux qui veulent en tirer profit et en faire un gigantesque outil de surveillance et de contrôle. S’il s’en tenait à ce triste constat, le papier de la journaliste serait déjà en soi suffisamment intéressant. Mais voilà. Dans un ultime paragraphe, son auteure veut nous donner espoir : « Heureusement, écrit-elle, les hackers ont enfin compris qu’ils devaient parler aux internautes lambdas et essayer de créer des solutions techniques utilisables par le plus grand nombre… ». De tout le texte que l’on vient de paraphraser, c’est sans doute ce passage qui est le plus fascinant parce qu’il révèle involontairement une des principales raisons pour lesquelles les netizens ont perdu tous leurs combats politiques depuis presque vingt ans : c’est précisément pour avoir cru que les hackers constituaient une alternative politique viable et suffisante. Cela fait plusieurs années pourtant qu’un Cory Doctorow nous a averti que [« les geeks ont un problème avec la politique »->http://www.theguardian.com/technology/2012/may/14/problem-nerd-politics], ne serait-ce que par le déterminisme technologique qui structure leur conception du social : en pensant en particulier que tout point de blocage, tout élément de conflit politique est toujours contournable par un dispositif technique, ils anéantissent par avance toute chance de mobilisation susceptible de faire changer les choses. Hackers, au coeur de la résistance numérique Pour ma part j’ai été souvent sidéré d’entendre certains expliquer savamment que Google et Facebook allaient s’effondrer demain car la structuration de leur entreprise était en contradiction avec la nature essentiellement distribuée du réseau. Et d’ailleurs, il est fort probable que la coloration politique que l’on attribue souvent aux milieux hackers soit en réalité une illusion d’optique, faisait récemment remarquer Sabine Blanc, excellente connaisseuse de ce milieu dans un billet malicieusement intitulé : [« le politique, le fardeau du white hacker »->http://sabineblanc.net/spip.php?article28]. Car c’est peut-être d’abord la dimension ludique du hack qui motive une grande partie de ses adeptes. Alors oui, on comprend bien comment le hack est une forme de résistance tactique, et rusée, à l’hétéronomie qui se déploie au sein de systèmes informatiques. Et de ce point de vue, il est chargé de valeur politique, comme le montre bien Amaëlle Guitton dans sa [récente enquête sur cette communauté->http://www.audiable.com/livre/?GCOI=84626100263950&fa=description]. Mais la grande illusion consiste à croire que ce qui relève de la résistance à l’intérieur d’un cadre défini est susceptible de s’élever au rang d’alternative politique et de servir de contre-modèle. Le hacker est une sorte de super-héros : admirable et exceptionnel, il intervient à la marge d’un système qu’il ne changera jamais ; et d’abord parce qu’il en est le plus pur produit. Et si le grille-pain fasciste était à l’origine même du mai 68 numérique ? Cette hypothèse qui reste tapie dans l’ombre de notre inconscient politique, il nous faudra pourtant l’envisager tôt ou tard si nous voulons cesser de perdre nos batailles. Car l’histoire du développement des ces technologies, de la cybernétique à Facebook, est marquée par une ambigüité politique que l’on peut retrouver à chacun de ses moments décisifs, comme l’a bien montré Fred Turner dans son exploration des [Sources de l’utopie numérique->http://cfeditions.com/Turner/]. Il n’y aurait rien de plus illusoire, si on lit bien Turner, que de croire que les dernières évolutions des usages de ces technologies relèvent d’une trahison tardive des idéaux originels. Le ver est dans la pomme, sans doute dès le départ ,et ce n’est qu’au prix d’un retour réflexif sur cette histoire que nous l’y débusquerons. Questions sur la méritocratie Pour cela, il faut élargir la perspective : un article comme celui qui vient de paraître dans [La Nouvelle Revue du Travail->http://nrt.revues.org/1070], nous y aide en mettant en évidence les insuffisances d’un autre pilier du « mai 68 numérique », le logiciel libre : il montre comment la diffusion du logiciel libre dans le secteur de l’industrie informatique est concomitante avec la financiarisation de ce secteur : elle signifie un affaiblissement du modèle traditionnel de la relation salariée au profit d’une exacerbation de la concurrence entre développeurs et passe par une surveillance panoptique du code. Cet article est judicieusement intitulé « Le logiciel libre : un dispositif méritocratique ? » Car c’est bien la notion de méritocratie que l’on retrouve au coeur de cette communauté comme de celle des hackers. Quelques années auparavant, le sociologue Nicolas Auray avait utilisé le concept de[ « puritanisme civique »->http://ses.telecom-paristech.fr/auray/AUray.pdf] proche de cette notion pour décrire les valeurs structurant la communauté de développement de la distribution Linux Debian. Or, le propre de la méritocratie est d’ignorer toute logique sociale au profit d’un raisonnement individualiste abstrait. L’école française, pour prendre un exemple dans un tout autre domaine, repose sur un dispositif méritocratique. Formellement et à l’échelle de l’individu, elle permet à chacun, quelles que soient ses caractéristiques de départ, de s’élever au-dessus de sa condition par son seul mérite scolaire. Les études montrent qu’en réalité, il s’agit d’une des écoles les plus inégalitaires des pays de l’OCDE, où les déterminations sociales jouent le rôle le plus important dans les trajectoires scolaires des élèves, comme les fameux tests Pisa viennent le rappeler année après année. Formellement et à l’échelle de l’individu, le code source ouvert du logiciel libre, les pratiques des hackers, la structure distribuée d’Internet doivent permettre à chacun, pour peu qu’il le veuille, de conquérir sa propre autonomie et de prendre une place sur le réseau et dans les communautés de pratique proportionnelle à son investissement et son degré de maîtrise technique. Dans la réalité, nous sommes majoritairement réduits au rang de consommateurs de services informatiques, devenus dépendants de boîtes noires, sous licence libre ou non, qui nous contrôlent plutôt que nous les contrôlons. Dans les deux cas, c’est une ignorance des logiques sociales qui conduit à un résultat pratique inverse du principe théorique affiché. C’est bien en ignorant les logiques sociales réelles que le mai 68 numérique se transforme en grille-pain fasciste et il ne faut pas attendre des hackers qu’ils viennent nous en sauver. Les hackers nous éblouiront toujours par les « exploits » qu’il continueront d’effectuer au firmament de la matrice. Ils susciteront notre admiration et alimenteront notre sentiment de culpabilité de ne pas être aussi libres qu’eux. Ils recevrons notre reconnaissance pour nous avoir aidé à neutraliser tel ou tel vilain dans les ruelles sombres de notre Gotham numérique. Mais si nous voulons inverser le cours de cette histoire qui prend des allures de cauchemar technologique, c’est nous seulement qui le pouvons, et seulement en recourant à des méthodes éprouvées par tous les peuples du monde depuis des millénaires : la pensée critique et la mobilisation politique.
2014-01-05 09:53:00
J'ai été invité le 10 décembre dernier par Maryline Crivello et Véronique Ginouvès à intervenir dans une journée d'études qu'elles organisaient sur le thème : "[Mobilisation et écriture du passé sur le web (France-Méditerranée). Acteurs et témoins->http://imageson.hypotheses.org/1771]" à la Maison Méditerranéenne des Sciences de l'Homme d'Aix-en-Provence. N'ayant pas été satisfait de ma présentation orale, confuse et peu maîtrisée, j'ai tenté d'en établir une version rédigée que j'espère plus précise. Cette version s'est du reste enrichie de ce que j'ai entendu au cours de cette journée.
« L’historien de demain sera programmeur ou ne sera plus ». La prophétie avancée par Emmanuel Leroy Ladurie en 1968 dans une tribune du Nouvel Observateur[[Repris dans Ladurie, Emmanuel Le Roy. Le territoire de l’historien. Gallimard, 1973. p. 14 ]] heurte le sens commun. Car rien ne serait plus éloigné, en apparence, que le travail de l’historien avec les technologies numériques qui ont envahi notre vie quotidienne. A de rares exceptions près, l’historien travaille sur des périodes qui ne les connaissaient pas et encore moins les usages auxquels elles donnent lieu aujourd’hui. Quel regard peut-il donc porter sur un secteur qui échappe largement à son domaine de spécialité, alors qu’à première vue, l’histoire c’est le passé, et le numérique, c’est l’avenir ? Quel éclairage peut-il apporter à une société qui semble sacrifier chaque jour davantage au dieu Technologie et qui semble prise chaque jour un peu plus de « présentisme »[[Hartog, François. Régimes d’historicité. Présentisme et expériences du temps. Seuil, 1993. ]] ? La prophétie de l’historien programmeur ne sort pourtant pas du néant. Elle manifeste la réalité de la relation étroite que les historiens ont établi avec l’informatique puis le numérique depuis plusieurs décennies. Cette relation a pris différents aspects qu’il faut tenter de déplier et d’expliciter non sans l’avoir resituée auparavant dans le mouvement plus général du développement des humanités numériques. Ce mouvement se situe en effet en rupture avec le discours classique de déploration qui décrit l’évolution des sciences humaines comme un lent déclin par rapport à l’âge d’or des années 70 conduisant fatalement à leur disparition. La place des sciences humaines dans notre société, une société largement numérisée dans ses pratiques à tous les niveaux de ses activités, il est possible de la redéfinir en concevant à nouveau frais l’apport de ces disciplines dans l’ensemble du corps social. C’est sans doute Milad Doueihi qui a le mieux défini cet apport dans son dernier essai : Pour un humanisme numérique[[Doueihi, Milad. Pour Un Humanisme Numérique. Seuil, 2011. ]]. Pour l’historien des religions qu’il est, c’est en effet en opérant un retour réflexif sur leur propres pratiques de recherche, profondément transformées par la mobilisation des technologies numériques que les sciences humaines trouvent la capacité de porter en retour un regard critique – humaniste – sur les usages contemporains des technologies numériques dans tous les secteurs de la société. Je pourrais tenter d’évoquer la place de l’histoire dans le champ des humanités numériques par comparaison avec d’autres disciplines, comme les sciences du langage par exemple. Ce n’est pourtant pas sous cet angle que je choisis d’étudier la relation des historiens au numérique ; d’abord parce que n’étant pas historien moi-même, je ne suis pas particulièrement bien placé pour en discuter, mais surtout parce qu’il me semble à la fois plus pertinent et pour tout dire plus urgent d’évoquer cette relation sous l’angle des relations que cette discipline établit avec l’ensemble de la société. Nous sommes en effet confrontés à une double urgence : d’un côté, les sciences humaines semblent atteindre un point de crise inquiétant avec une marginalisation tellement poussée qu’elle met en péril l’existence même de certaines disciplines dans certains pays. Mais aussi d’un autre côté, le développement des usages du numérique dans la société s’accompagne de processus de plus en plus massifs de servitude volontaire dénoncés par un nombre croissant d’observateurs, sous le double effet de la marchandisation de la vie sociale en ligne et de la surveillance généralisée qui l’accompagne[[« Le blues du net, par Bernard Stiegler », in Lacroix, Dominique, Lois des Réseaux, [http://reseaux.blog.lemonde.fr/2013/09/29/blues-net-bernard-stiegler/->http://reseaux.blog.lemonde.fr/2013/09/29/blues-net-bernard-stiegler/] 29 septembre 2013 ]]. On a l’impression d’assister à un double naufrage concomitant des sciences humaines en voie de disparition et de sociétés progressivement désubjectivées sous l’influence d’usages manipulatoires des technologies numériques. Est-ce vraiment un hasard ? Ce préambule étant posé, on peut en revenir à l’histoire et aux historiens : quel peut être l’apport de l’historien à une pratique critique du numérique à la fois au sein des sciences humaines et plus largement dans la société ? J’en vois sur trois sujets majeurs : la quantification, l’archive et le récit. La quantification Le mot le plus prononcé en 2013 fut certainement celui de « big data », qui fait même la une des magazines grand public, avant qu’il ne soit prochainement détrôné, prenons-en le pari, dans quelques mois au profit des « Moocs ». Des « big data », il y en a partout nous dit-on : dans la gestion des polices d’assurance, dans les offres marketing, dans les systèmes de surveillance policière ou sanitaire, les bases de données des agences matrimoniales, les services en ligne, les réseaux sociaux, les services d’urgence, entre autres. Les big data, c’est le règne de la quantification tous azimuts, le rassemblement de grandes masses de données d’où on espère voir émerger des régularités censées être significatives. Mais il ne s’agit que d’une part limitée de l’explosion de la quantification : aujourd’hui, celle-ci est aussi portée par les individus eux-mêmes qui collectent et partagent des données sur leur propre activité physique, leur état de santé, leur vie sociale. C’est le « self quantifying », marquant l’avènement de la quantification universelle et dans tous les domaines de la vie sociale. Les sociologues ont apporté des critiques intéressantes à ce phénomène, en « dénaturalisant » la notion de donnée en particulier, comme le font avec talent Danah Boyd et Kate Crawford dans leurs « 6 provocations pour les Big Data ».[[Boyd, Danah, and Kate Crawford. Six Provocations for Big Data. SSRN Scholarly Paper. Rochester, NY: Social Science Research Network, September 21, 2011. http://papers.ssrn.com/abstract=1926431. ]] Les historiens aussi doivent pouvoir contribuer à ce débat essentiel, parce qu’il existe dans leur discipline toute une tradition historiographique qui pense et pratique au moins depuis 40 ans la quantification. Au sein de ce courant, l’historien Jean-Philippe Genet représente, avec son école, une position originale en France. Dans l’article important qu’il publie au sommaire du premier numéro de la revue Histoire et Mesure[[Genet, Jean-Philippe. “Histoire, Informatique, Mesure.” Histoire & Mesure 1, no. 1 (1986): 7–18. doi:10.3406/hism.1986.904. ]], en 1986, il avance le concept souvent repris de « méta-source » qui lui permet de décrire la quantification par l’historien comme une activité de « modélisation » voire de « simulation ». La méta-source n’est pas la source, elle n’est pas un « fait », elle est un ensemble cohérent de données que construit le chercheur en fonction d’un modèle qu’il veut tester en situation expérimentale. La méta-source, n’est pas le réel, dit Genet ; c’est un appauvrissement du réel ce qui n’est pas un défaut mais un avantage parce qu’elle crée un observable maîtrisé qui peut répondre en les confirmant ou les infirmant à des hypothèses. La méthode de recherche historique que développe Jean-Philippe Genet n’est pas un cas isolé ni spontané. Il n’est pas anodin que cet auteur s’appuie sur et cite François Furet qui écrivait dans Les Annales en 1971 : « L’historien d'aujourd'hui se trouve obligé à renoncer à la naïveté méthodologique et à réfléchir aux conditions d'établissement de son savoir. L'ordinateur lui en donne le loisir, en le libérant de ce qui occupait jusqu'ici l'essentiel de son temps, la collecte des données sur ses fiches. Mais il le contraint, en revanche, à un travail préalable sur l'organisation des séries de données et sur leur signification par rapport à ce qu'il cherche. Comme toutes les sciences sociales, mais peut-être avec un peu de retard, l'histoire d'aujourd'hui passe de l'implicite à l'explicite. Le codage des données suppose leur définition; leur définition implique un certain nombre de choix et d'hypothèses d'autant plus conscientes qu'il faut les penser en fonction de la logique d'un programme. Ainsi tombe définitivement le masque d'une objectivité historique qui se trouverait cachée dans les “faits”, et découverte en même temps qu'eux; l'historien ne peut plus échapper à la conscience qu'il a construit ses “faits”,, et que l'objectivité de sa recherche tient non seulement à l'emploi de procédures correctes dans l’élaboration et le traitement de ces “faits”, mais aussi à leur pertinence par rapport aux hypothèses de sa recherche.[[Furet, François. “Histoire Quantitative et Construction Du Fait Historique.” Annales. Économies, Sociétés, Civilisations 26, no. 1 (1971): 63–75. doi:10.3406/ahess.1971.422459. ]]» Jean-Philippe Genet s’inscrit donc dans une tradition historiographique qui se nourrit à des théories similaires en sociologie, linguistique et d’autres disciplines et devrait être aujourd’hui plus entendue parce qu’elle permet de mettre en évidence les modèles théoriques qui sont sous-jacents à la manipulation des données quantifiées. Alors que le mouvement de naturalisation de ces données tourne aujourd’hui à plein régime dans tous les domaines de la vie sociale, on a un besoin flagrant de regard critique sur la quantification. Prendre la « politique des grands nombres » pour objet d’enquête historique, comme l’a brillamment proposé Alain Desrosières[[Desrosières, Alain. La politique des grands nombres histoire de la raison statistique. Paris: La Découverte, 2010. ]] est une manière de le faire. Mais la quantification comme méthode donne aussi à celui qui la pratique, quel que soit par ailleurs son objet d’étude, une compétence spécifique qui l’autorise à porter un regard critique sur sa mobilisation plus ou moins contrôlée par différents acteurs sociaux. D’ailleurs, c’est un des intérêts de la revue Histoire et Mesure que de prendre la quantification à la fois comme objet d’étude historique et comme méthode d’enquête historique, justement parce que l’un se nourrit de l’autre[[“À propos d’Histoire & Mesure.” Text. Histoire & mesure, November 30, 1999. http://histoiremesure.revues.org/1059. ]]. Quels sont donc les modèles théoriques des algorithmes qui nous gouvernent ? Comment et pour quel objectif sont construites les « méta-sources » numériques par lesquelles les sociétés commerciales et les gouvernements qui nous contrôlent se représentent nos vies ? Ces questions doivent être traitées de manière urgente et il revient à celui qui en a développé une compréhension particulière d’éclairer le débat public. L’archive S’il y a un domaine qui relève du champ de compétence particulier sinon exclusif de l’historien, c’est bien celui de l’archive ; or la « grande conversion numérique »[[Doueihi, Milad. La grande conversion numérique. [Paris]: Éditions du Seuil, 2008. ]] concerne certes l’historien, amené à travailler sur des archives numérisées et de plus en plus nativement numériques qui lui posent des problèmes spécifiques, mais elle concerne aussi l’ensemble de la société dont les mécanismes de construction de la mémoire semblent profondément perturbés par la nouvelle donne technologique. L’historien américain Roy Rosenzweig a bien mis en évidence dans un article livré à l’American Historical Review les questions que laisse ouvertes l’archive numérique, « entre pénurie et abondance ».[[Rosenzweig, Roy. “Scarcity or Abundance? Preserving the Past in a Digital Era.” The American Historical Review 108, no. 3 (June 1, 2003): 735–762. doi:10.1086/ahr/108.3.735. ]] Car celle-ci semble témoigner dans les usages sociaux dont elle fait l’objet, d’une sorte de déréglement de la mémoire, entre amnésie et hypermnésie. Il n’est pas difficile à l’historien de montrer l’extraordinaire fragilité de l’archive numérique qui, par exemple, contrairement à son équivalent matériel ne subit pas toujours un processus de dégradation progressif et partiel mais parfois total et soudain : il suffit dans certains cas qu’un seul octet soit corrompu pour que l’ensemble du support d’enregistrement numérique soit inutilisable. Mais c’est sur une autre faiblesse de l’archive numérique qu’insiste avec raison l’historien américain : c’est sur sa constitution et sa prise en charge par des acteurs privés et parfois commerciaux dont les motivations ne sont nécessairement pas les mêmes que les institutions patrimoniales qui font traditionnellement ce travail et ont développé des compétences spécifiques. Deux exemples peuvent être évoqués : d’un côté, la constitution d’une archive complète des groupes de discussions Usenet par Google, de l’autre, la pratique d’archivage du Web par la fondation Internet Archive. Rosenzweig pointe l’extraordinaire fragilité de cette archive qui dépend pour l’essentiel du bon vouloir d’un seul homme, Brewster Kahle, fondateur de la société Alexa, et de l’implication des donateurs qui soutiennent son entreprise. Pourtant, dans un mouvement quasiment symétrique inverse, l’archive numérique continue de provoquer un fantasme opposé : celui d’une mémoire exhaustive, sans perte d’information, une « hypermnésie » rendue possible par le faible coût de stockage de l’information numérique. Ce fantasme est tout à fait visible dans la prétention que manifestent les jeunes chercheurs Jean-Baptiste Michel et Erez Aiden à déduire des « culturomiques »,[[Michel, Jean-Baptiste, Yuan K Shen, Aviva P Aiden, Adrian Veres, Matthew K Gray, The Google Books Team, Joseph P Pickett, et al. “Quantitative Analysis of Culture Using Millions of Digitized Books.” Science (December 2010). doi:10.1126/science.1199644. ]] des lois de la culture, de l’analyse des fréquences des n-grams dans l’archive numérisée Google Books : que l’archive sur laquelle ils travaillent ait été constituée selon des règles particulières et d’ailleurs inconnues, puisque le corpus en lui-même n’est jamais décrit, leur importe peu. C’est au prix de cet oubli, de cet « oubli de l’oubli » dit Milad Doueihi que peut surgir la notion très problématique de « lois de la culture ». C’est encore avec Milad Doueihi qu’il faut poursuivre la réflexion pour comprendre tout à fait le rôle que peut jouer l’historien dans ce contexte. Car celui-ci oppose à la prétention de la mathesis universelle qui resurgit aujourd’hui dans les fourgons du numérique, ce qu’il qualifie d’« impératif philologique » en s’appuyant sur la philosophie historique de Vico[[Vico, Giambattista. La Science nouvelle (1725). Paris: Gallimard, 1993. ]]. Qu’est-ce que l’impératif philologique ? Simplement la nécessité de restituer les conditions de production des savoirs dans leurs variations et leur inévitable fragilité. Pour Doueihi, l’impératif philologique s’applique au numérique comme il s’est appliqué à tous les autres objets historiques : il s’agit de mettre en évidence les effets d’interprétation, les déplacements sémantiques, mais aussi les mythes fondateurs qui fondent les usages de ces technologies. Mais aussi : les biais, les manques, les impensés dont sont porteuses les archives numériques sur lesquels prétend se constituer un nouveau savoir universel : « La scientificité de cette approche et de cette méthode prend forme grâce à un oubli révélateur. Un oubli rendu possible par une confusion inhérente au monde numérique : l’absolutisme de l’archive est souvent pris pour une garantie quant à l’accès et même à la lisibilité des documents et objets préservés. Or cet accès et cette lisibilité sont façonnés par la structure des archives comme par les catégories de classification, les tags et les présupposés, pour ne pas dire les préjugés, informant la formulation et la mise en place des systèmes d’accès. Ainsi l’humanisme numérique n’hésite point à plaider pour une approche plus historique, capable de conjuguer l’ancien et le moderne. »[[Doueihi, Milad. Pour Un Humanisme Numérique. Seuil, 2011. Chapitre : « Pourquoi un humanisme numérique ? » ]] On ne saurait mieux plaider pour l’indispensable regard de l’historien au coeur des développements les plus contemporains des sciences du numérique. Le Récit Mais l’histoire est aussi affaire de mémoire. Et la mobilisation de l’histoire pour la construction d’une mémoire, ou plutôt de mémoires fait aujourd’hui l’objet des plus vives controverses. Depuis le projet avorté de création d’une maison d’histoire de France[[Babelon, Jean-Pierre, Backouche, Isabelle, and Vincent, James-Sarazin, Ariane Duclert. Quel musée d’histoire pour la France ? Paris: A. Colin, 2011. ]] jusqu’aux polémiques entourant la reconstitution de la tête de Robespierre[[Corcostegui, Imanol. “Pourquoi la reconstitution du visage de Robespierre énerve les historiens.” Blog. Rue89, December 24, 2013. http://www.rue89.com/2013/12/24/pourquoi-reconstitution-visage-robespierre-enerve-les-historiens-248566. ]] en passant par les succès de librairie du très médiatique Lorant Deutsch, c’est toujours la problématique du roman national que l’on voit ressurgir[[Blanc, William, Aurore Chéry, and Christophe Naudin. Les historiens de garde: de Lorànt Deutsch à Patrick Buisson, la résurgence du roman national. Paris: Ed. Inculte, 2013. ]] sans grande surprise étant donné l’état de désarroi identitaire dans lequel se trouve le pays. Dans ce contexte, les historiens de profession se trouvent placés dans une situation inconfortable. Ils sont soumis à ce que l’on pourrait qualifier d’antinomie de la raison académique : d’un côté, ils peuvent déplorer que leurs recherches occupent une place marginale dans l’espace public - c’est le complexe de la tour d’ivoire ; mais d’un autre côté, ils déplorent aussi que l’histoire fasse l’objet d’un intérêt important dans la société, parce qu’elle est alors soumise à des distorsions, réappropriations, manipulations et interprétations incontrôlées pour être mise au service d’intérêts politiques, religieux, sociaux et quelquefois économiques. Cette situation est une antinomie parce qu’elle porte en soi sa propre contradiction et repose sur une illusion : l’intérêt d’une société pour la production de savoirs sur sa propre histoire est nécessairement nourri de motivations qui sont étrangères aux objectifs et normes qui régulent le champ académique. Refuser ce fait est simplement faire preuve de sociocentrisme : une société n’est pas une grande université. La question des relations difficiles entre vérité académique ou scientifique et vérité sociale, en particulier en matière d’histoire n’est pas nouvelle[[Habermas, Jurgen, « De l’usage public de l’histoire ». In Écrits politiques. Culture, droit, histoire, Cerf, 1990 ]]. L’histoire que produit l’Académie établit des faits - et les réfute, elle isole des séries chronologiques et teste des hypothèses sur des enchaînements de causalité. L’histoire que produit la société est faite de mémoire(s), elle se constitue en récit de son propre passé le plus souvent en fonction des questions contemporaines qui la travaillent pour se projeter dans l’avenir. Science historique d’un côté, histoire mémorielle de l’autre ; quelles relations entre les deux [[La journée d'études était introduite par une conférence donnée par Philippe Joutard qui explorait précisément cette question a partir du livre qu'il vient de publier : Philippe Joutard, Histoire et mémoires, conflits et alliance, Paris, La Découverte, 2013]] ? Si vouloir établir une coïncidence parfaite entre elles est une illusion, se résoudre à leur disjonction complète est un grave danger. Car on sait bien ce que deviennent les mythes historiques qui s’épanouissent en toute liberté sous la poussée des dynamiques sociales sans plus jamais être mis en doute, sans être questionnés à l’aune d’une « vérité » qui présente une forme d’alterité irréductible au consensus des croyances partagées au sein du corps social. Il reste que cette relation complexe a pu être prise en charge par des dispositifs de médiation plus ou moins fonctionnels jusqu’ici mais qui traversent aujourd’hui une crise profonde : l’Ecole en particulier, où l’enseignement de l’histoire joue encore un rôle très important, mais aussi la presse et l’édition. Comment réinventer une relation de médiation entre histoire et mémoire dans le contexte contemporain d’une société fragmentée, désintermédiée et dont les processus de communication passent de plus en plus massivement par les technologies numériques ? Une piste possible peut être trouvée du côté d’un mouvement né dans d’autres circonstances et en réponse à d’autres enjeux, mais dont la pertinence apparaît aujourd’hui de manière très claire. Né à la fin des années 70, aux Etats-Unis et au Canada particulièrement, la public history est issue à la fois de l’émergence politique des minorités ethniques et des classes dominées entraînant un intérêt accru pour l’histoire sociale et ce qu’on n’appelait pas encore histoire « post-coloniale », et en même temps d’une diminution drastique du nombre de postes académiques conduisant un certain nombre de jeunes chercheurs à exercer leur art au sein de communautés locales, d’associations culturelles, de compagnies privées ou d’administrations publiques[[Zelis, Guy. “Vers une histoire publique.” Le Débat n° 177, no. 5 (November 20, 2013): 153–162. doi:10.3917/deba.177.0153. ]]. Ce mouvement qui est aujourd’hui fortement structuré au niveau national et international, avec l’International Federation for Public History, est particulièrement utile pour aider à repenser la relation entre l’histoire comme discipline académique et son environnement social en dépassant le vieux schéma d’une vérité scientifique pure élaborée en laboratoire et qui viendrait s’imposer à l’ensemble des acteurs sociaux en suivant des canaux de communication unidirectionnels. Elle permet d’envisager la constitution du savoir historique comme une co-construction à laquelle participent professionnels et amateurs non pas de manière indifférenciée mais en apportant chacun sa spécificité. Or, dans ce mouvement, les dispositifs que proposent les technologies numériques, et en particulier les médias sociaux jouent un rôle de plus en plus important[[Digital humanities Luxembourg. L’histoire contemporaine à l’ère numérique. Edited by Frédéric Clavert and Serge Noiret. 1 vols. Bruxelles, Peter Lang, 2013. ]]. C’est en particulier ce qu’explore avec succès le Center for History and New Media de l’Université Georges Mason à Washington. Fondé par le même Roy Rosenzweig évoqué plus haut, le CHNM est connu dans le champ des humanités numériques pour avoir inventé les ThatCamps et proposé à l’ensemble de la communauté académique l’excellent outil de gestion de références bibliographiques Zotero. Mais ce centre de recherche contribue aussi par la conduite de divers projets et la réalisation de divers outils propres à la public history. C’est le cas en particulier du projet September 11 Digital Archive[[[http://911digitalarchive.org/->http://911digitalarchive.org/] ]] qui a proposé aux habitants de New York de verser dans une archive numérique toutes sortes de documents, emails, photographies, affiches, récits relatifs aux attaques terroristes de 2001 sur Manhattan. Constituée sous la direction d’une équipe d’historiens professionnels, l’archive a pu rassembler 240 000 documents, soigneusement décrits, catégorisés, rassemblés en collections et préservés sur le long terme par la Bibliothèque du Congrès. Du côté des outils, c’est Omeka qui constitue sans doute la contribution la plus importante du CHNM à la public history. Ce logiciel permet en effet de publier en ligne très facilement et avec une simplicité déconcertante des collections d’objets numériques ou numérisés tout en respectant des normes de description et d’archivage conformes à l’état de l’art. Destiné aux « scholars, museums, libraries, archives, and enthusiasts »,[[“Omeka.” Accessed January 5, 2014. http://omeka.org/. ]] Omeka cible particulièrement les institutions de petite taille, ayant de très faibles moyens, en leur fournissant la capacité de donner accès et de valoriser le patrimoine culturel des communautés locales qu’elles servent. De ce point de vue, il représente un bon exemple de la manière dont les technologies numériques contribuent à une redistribution en direction d’un plus large éventail d’acteurs des moyens de production du matériau historique[[Lire sur ce sujet la mise au point très complète proposé par Noiret, Serge. “La digital history : histoire et mémoire à la portée de tous.” BookSection, 2012. http://books.openedition.org/oep/258. ]]. Dans la même logique, on pourrait évoquer, en France, le projet PhotosNormandie, qui mobilise la plateforme grand public de partage de photos Flickr pour publier en ligne une collection d’archives photographiques de l’armée américaine documentant la campagne de Normandie à la fin de la seconde guerre mondiale. Cette archive publique en ligne permet à tout un ensemble de spécialistes d’histoire militaire, d’érudits locaux, d’enseignants et d’historiens de documenter les photographies qui la constituent. Elle permet la construction d’un collectif « amateur » selon les termes de son fondateur Patrick Peccatte qui ne prétend pas se substituer à l’historien professionnel mais lui fournir des informations et matériaux qu’il pourra exploiter[[Peccatte, Patrick. “PhotosNormandie a cinq ans – un bilan en forme de FAQ.” Déjà vu, January 27, 2012. http://culturevisuelle.org/dejavu/1097. ]]. Conclusion Dans son introduction à l’ouvrage collectif qu’il a dirigé avec A. Zorzi : Les Historiens et l’informatique ; un métier à réinventer[[Ateliers pour l’histoire et l’informatique, Genet, Jean-Philippe, Zorzi, Andrea, École française de Rome, ed. Les historiens et l’informatique un métier à réinventer. Rome: École française de Rome, 2011. ]], Jean-Philippe Genet se livre à un important travail historiographie. Il y reprend en effet l’histoire de ces relations depuis leurs débuts après la seconde guerre mondiale. C’est une histoire passionnante parce qu’elle met en lumière les rencontres fructueuses et les rendez-vous ratés d’une discipline avec une ensemble d’outils techniques, plus même, avec une technologie qu’on ne peut considérer comme anodine. Incontestablement, nous avons aujourd’hui besoin de ce type de retour réflexif susceptible de mieux éclairer les enjeux contemporains. Signalons, dans le même ordre d’idées, celui qu’effectua à l’issue de sa carrière académique Corinne Welger-Barboza dans le domaine de l’histoire de l’art[[Berra, Aurélien. “DH EHESS : Technologie et Histoire de L’art.” Philologie À Venir, January 8, 2013. http://philologia.hypotheses.org/1036. ]], en remontant bien au delà du numérique uniquement, d’ailleurs. Ces deux exemples témoignent de l’importance d’un nouveau champ qui s’ouvre et que l’on peut élargir à d’autres disciplines des sciences humaines pour proposer de poser les fondations d’une histoire des humanités numériques, encore largement à construire. Cette histoire, est à la fois technique et intellectuelle. Elle permet de proposer une lecture critique des développements actuels, aussi bien au sein des différentes disciplines des sciences humaines et sociales, que de la société elle-même.
Jakob Nielsen, le pape de l'"usabilité" des sites web, vient de rendre public une étude montrant que le taux de réussite d'opérations simples sur un échantillon de 19 sites web est trois fois moins élevé lorsque l'internaute est handicapé et doit recourir à un écran tactile ou un verre grossissant.
2001-11-11 22:29:57
Beyond Accessibility
http://www.useit.com/alertbox/20011111.html
Un article à lire dans Salon sur les mésaventures de Brian West, un jeune américain qui après avoir réussi à hacker le site de son journal local a téléphoné à la rédaction pour leur signaler les trous de sécurité du serveur utilisé. En guise de remerciement, le journal en question a assigné en justice son bienfaiteur. Affaire banale qui permet à Salon de faire le point sur les difficultés que la législation américaine pose aux recherches de sécurité des réseaux.
2001-09-30 21:05:15
Salon
http://www.salon.com/tech/feature/2001/08/29/west/index.html
C'est ainsi que pourrait s'intituler un article paru dans le <a href="http://www.technologyreview.com/magazine/oct01/talbot.asp" target="_blank">dernier numéro</a> de Technology Review, le magazine en ligne publié par le MIT. Au delà de l'aspect hagiographique de ce long article, on en retiendra surtout la multitude de renseignements qu'il fournit sur l'histoire de cette agence très particulière du département de la défense américain, qui inventa l'ancêtre d'Internet en son temps.
2001-10-01 10:31:50
http://
A lire, une analyse du cabinet de prospective Pfeiffer consulting qui s'inquiète de l'arrivée quasi-simultanée sur le marché des deux nouveaux systèmes d'exploitation que sont Microsoft XP et MacOSX. Loin de relancer le marché déprimé de l'informatique individuelle comme l'espèrent de nombreux analystes, ces nouveaux produits risquent fort, selon le cabinet d'étude, d'accroître encore la confusion. Il est clair en effet que nombre d'utilisateurs ne feront pas l'effort de mettre à jour leur machine et que les deux systèmes d'exploitation ne se diffuseront que par le biais des versions pré-installés...c'est-à-dire lentement. C'est donc près de dix systèmes d'exploitation qui vont se trouver simultanément présents sur l'ensemble du parc informatique individuel, rendant encore plus inextricable un marché déjà passablement confus.
2001-10-01 10:32:08
Pfeiffer Report
http://www.pfeifferreport.com/trends/ett_osconf.html
Le droit sur la propriété intellectuelle fait l'objet depuis quelques années de nombreux abus de la part des entreprises commerciales, aboutissant à une véritable menace sur la liberté d'expression. En réaction contre cette privatisation rampante des idées, nombre d'individus, issus pour la plupart du monde informatique où ces questions ont pris une importance considérable, ont adopté des positions alternatives vis-à-vis de la reproduction / modification de leur production. Désigné sous le terme générique de "copyleft", ce mouvement propose aujourd'hui une multitude de licences diverses aux noms aussi ésotériques que GPL, LGPL, LAL. Samizdat, webzine engagé dans une critique documentée de la mondialisation libérale, vient de publier un article sur ces différentes licences et tente d'élaborer une position raisonnable entre l'actuel copyright et l'absence totale de protection des auteurs, notamment contre une utilisation commerciale de leurs oeuvres.
2001-10-01 10:32:21
Samizdat
http://infos.samizdat.net/article.php3?id_article=82
Le forum des droits sur l'Internet vient de mettre en place un nouveau groupe de travail sur les liens hypertextes. Issu du rapport Christian Paul sur la régulation du réseau, le FDI a pour objectif d'organiser la réflexion publique sur les nouveaux litiges juridiques liés aux NTIC. Association soutenue par des acteurs économiques, institutionnels et associatifs qui ont seuls le droit d'y adhérer, le FDI compte parmi ses membres le fameux GESTE, regroupant les intérêts des grands éditeurs français d'information en ligne.Le choix des liens hypertextes comme thème de travail n'a donc rien d'un hasard. Au centre des nombreux conflits en droit de la propriété intellectuelle, cette question a fait l'objet d'une <a href:http://www.geste.fr/travaux1.htm" target="_blank"> charte</a> très discutable élaborée par le GESTE. Les résultats du groupe de travail serviront donc de test pour le FDI : s'agit-il simplement, comme le dénoncent déjà <a href="http://www.uzine.net/article827.html" target="_blank">certains</a>, du faux-nez d'une administration au service d'intérêts économiques privés ou d'un réel forum permettant l'élaboration d'une position acceptable par tous ?
2001-10-03 16:40:59
FDI
http://www.foruminternet.org
La cour de la cassation vient de rendre un arrêt historique pour les droits des salariés. Amenée à se prononcer sur le conflit qui oppose depuis 1995 un employé de l'entreprise Nikon à sa direction, elle considère en effet que celle-ci n'avait pas le droit de fouiller dans la correspondance électronique de son employé commme elle l'a fait. La cour de cassation considère en effet que le mail, même au sein de l'entreprise est protégé par le droit à la vie privée, en dépit des chartes "maison" qui auront pu être négociées. Cette décision prend donc le contrepied d'une tendance lourde de ces dernières années où les règles d'utilisation des NTIC étaient systématiquement renvoyées à la négociation d'entreprise. L'importance de cette décision est due au fait que les arrêts de la cour de cassation font jurisprudence, celle-ci étant une des instances qui sont à la source du droit français, contrairement aux juridictions inférieures. Elle ne pourra donc être ignorée dans les jugements à venir et, comme telle, constitue sans doute la première mesure de protection effective du cyber-salarié. Internet serait-il en passe de ne plus être une zone de non-droit ?
2001-10-04 22:34:26
L'arrêt sur Juritel
http://www.juritel.com/juri2000/ldjpage.asp?index=423
Le 13 novembre, le parlement européen a adopté en première lecture le rapport Cappato modifiant la directive européenne de 1997 relative à la protection des données personnelles. Ce texte très attendu définit entre autres les conditions de conservation des données de connexion et l'usage des cookies par les sites commerciaux
2001-11-14 20:15:49
Le rapport Cappato
http://www2.europarl.eu.int/omk/OM-Europarl?PROG=REPORT&L=FR&PUBREF=-//EP//TEXT+REPORT+A5-2001-0374+0+NOT+SGML+V0//FR
Quel sujet est le plus important ? C'est la question que se posent les membres de l'ICANN à l'occasion de leur rencontre annuelle en ce moment même à Marina Del Rey. C'est normalement le rapport Bildt sur la démocratisation de l'organisme régulateur du réseau qui devait être au centre du débat. Les directeurs ont pensé que les attentats du 11 septembre avaient changé l'ordre des priorités et s'intéressent désormais aux moyens de sécuriser les serveurs DNS. Intense polémique en perspective...
2001-11-14 20:26:59
Article de Computerworld
http://www.computerworld.com/storyba/0,4125,NAV47_STO65657,00.html
Le management de projets peut-il fonctionner de manière totalement décentralisé ? Oui, répond Georges Dafermos dans un article publié dans First Monday ; la preuve, le projet Linux qui vit et progresse par la grâce d'un réseau de milliers de contributeurs bénévoles. Une étonnante étude qui met bien en valeur l'innovation intellectuelle que constitue le logiciel open source.
2001-11-14 20:35:47
First Monday
http://www.firstmonday.dk/issues/current_issue/dafermos/index.html
C'est en tout cas ce que semble croire Bill Gates qui a présenté une version spécialement conçue pour elles de Windows XP lors du Comdex 2001. C'est plutôt du côté constructeurs que se situe le goulot d'étranglement, avec une offre matérielle très restreinte. Au vu de l'état actuel du marché informatique, on peut légitimement douter que celle-ci explose dans les mois à venir.
2001-11-14 23:24:43
PCworld
http://www.pcworld.com/news/article/0,aid,70524,00.asp
"A quoi sert un site perso ?" Voilà longtemps que <a href="http://grosse.fatigue.free.fr" target="_blank">Grosse Fatigue</a> égrène régulièrement sur la toile ses chroniques désabusées d'un monde perdu. Deux ans après sa première mise en ligne, le temps est venu pour lui de faire la révision des 100000 visiteurs en s'interrogeant sur l'utilité de ces journaux intimes, plus ou moins convaincants, plus ou moins originaux que des milliers d'anonymes exposent sur la toile.Bizarre, et émouvant, celui qui s'était fait une spécialité d'un certain pessimisme (et scepticisme) souriant, prolonge sa réflexion par ce qui pourrait s'apparenter à un plaidoyer pour les sites persos. Parce qu'il est trop facile de taper sur eux bien sûr, mais aussi parce qu'ils sont de véritables "machines à relations humaines", provoquant des rencontres, des échanges qui n'auraient pu se faire dans le monde physique.
2001-10-12 14:51:55
uZine
http://www.uzine.net/article1163.html
C'est la question que se pose "Phreakout" dans les colonnes de Osopinion. Après deux mois d'efforts intensifs et infructueux pour apprendre à sa vieille mère à se servir d'un ordinateur, MacOS 9 et Windows 98, l'auteur de cet article en conclut que les interfaces graphiques ne sont absolument pas intuitives. Pourquoi pas se demande-t-il, ne pas en revenir à la bonne vieille commande en mode texte qui a l'avantage de demander un apprentissage réduit et de présenter à l'utilisateur un environnement homogène ?
2001-11-06 11:47:22
OSopinion
http://www.osopinion.com/perl/story/14562.html
Le commerce électronique n'est plus déormais qu'une forme de commerce parmi d'autres. C'est l'enseignement que le New-York Times tire de ces derniers mois. Il remarque en effet que l'évolution des ventes on-line est maintenant strictement similaire à celle du monde physique. Et ceci est d'autant plus vrai que la plupart des boutiques virtuelles qui ont résisté au krach de l'année dernière ne sont jamais que des extensions de marques déjà bien implantées dans le commerce traditionnel, à l'exception notable d'Amazon.
2001-11-11 10:49:13
NYTimes
http://www.nytimes.com/2001/11/05/technology/05ONLI.html?todaysheadlines=&pagewanted=print
A lire, l'article de O1 net qui montre comment l'amendement à la Loi Sur la Sécurité Quotidienne sur les données de connexion autorise les FAI à commercialiser ces mêmes données, avec l'autorisation des internautes ; cette disposition était prévue dans la LSI, mais on ne voit pas très bien ce qu'elle vient faire dans la lutte anti-terroriste
2001-11-11 10:45:01
01net
http://www.01net.com/rdn?oid=166045&rub=2796
Dans le contexte de la LSQ approuvée par l'Assemblée Nationale le 31 octobre dernier, le Forum des Droits sur l'Internet poursuit son travail de sensibilisation en ouvrant un deuxième forum sur le thème cybercrime et démocratie. Celui-ci a pour sujet la conservation des données de connexion par les FAI qui a fait l'objet d'un des amendements contestés
2001-11-11 10:45:42
FDI
http://www.foruminternet.org/forums/
Dans un entretien avec la rédaction américaine de Zdnet, Tim Berners-Lee se déclare "révolté" par l'attitude de Microsoft, suite aux problèmes de compatibilité survenus fin octobre sur le portail MSN.com.
2001-11-11 10:47:16
Zdnet
http://news.zdnet.fr/story/0,,t118-s2098690,00.html
Le Conseil de l'Europe vient de ratifier la convention contre la cyber-criminalité sur laquelle il travaillait depuis plus de deux ans. Peu de nouveauté au menu de cette 27ème et ultime version, sinon un accord complémentaire, demandé par la France, visant à poursuivre les sites faisant l'apologie de la haine raciale. Facultatif, ce volet ne devrait logiquement pas être signé par les Etats-Unis, croit savoir le New York Times, et donc aurait peu d'effet.
2001-11-11 22:45:51
NYTimes
http://www.nytimes.com/2001/11/10/technology/10CYBE.html?todaysheadlines=&pagewanted=print
Cytale, la société française commercialisant l'ebook haut-de-gamme appelé Cybook, vient de lancer une offre commerciale permettant d'acquérir le petit bijou pour près de 3000f au lieu des 5700 en temps habituel. En contre-partie, le e-lecteur devra s'engager pour un an à souscrire un abonnement mensuel de 129f, lui donnant accès à Internet et à divers contenus gratuits. Une stratégie proche de celle utilisée avec succès par les vendeurs de téléphones portables...
2001-11-11 23:23:51
Pack Cybook
http://www.cytale.com/site/cybook/index.asp
Dans son dernier ouvrage, Jérémy Rifkin prophétisait l'avènement d'un nouvel âge pour le capitalisme, où la location et le droit d'accès remplacerait progressivement la notion de propriété. La notion de web service, que l'on nous annonce comme la grande révolution économique à venir, en est l'application la plus poussée dans le domaine informatique. Pour tout savoir si une nébuleuse conceptuelle encore bien mystérieuse, il faut lire le dossier constitué par la rédaction de Cnet sur le sujet
2001-11-11 23:32:20
Cnet
http://news.cnet.com/news/0-1007-201-7800551-0.html?tag=dd.ne.dtx.nl-sty.0
Le juriste Lawrence Lessig, auteur d'un nouvel ouvrage intitulé The Future of Ideas, portant sur les transformations du droit de la propriété intellectuelle à l'ère numérique, viendra faire une conférence à l'Institut d'Etudes Politiques de Paris le 1er février prochain à 15 heures. Il évoquera notamment "les enjeux politiques et juridiques de l'Internet en temps de crise ".
2001-11-11 23:54:04
Lessig
http://cyberlaw.stanford.edu/lessig/content/index.html
Le Comité Interministériel de la Réforme de l'Etat (CIRE) du 15 novembre a fourni à Michel Sapin l'occasion de lancer la deuxième étape du chantier gouvernemental pour la mise en place d'une administration électronique. L'objectif, ambitieux, est de généraliser les téléservices d'ici 2005 en offrant aux internautes la possibilité d'accomplir toutes leurs démarches administratives en ligne. Objectif ambitieux au vu d'une récente [étude->http://www.transfert.net/fr/cyber_societe/article.cfm?idx_rub=87&idx_art=7734] qui met la France au 19ème rang des e-gouvernements.
2001-11-15 20:56:01
Dossier CIRE sur le site du Premier Ministre
http://www.premier-ministre.gouv.fr/fr/p.cfm?ref=30003
On connaissait les déclarations de la Fédération internationale des droits de l'homme et de Reporters sans Frontières contre les mesures législatives prises dans la plupart des pays européens et en particulier en France à la suite des attentats du 11 septembre. Ces deux organisations viennent de s'allier à Human Rights Watch pour animer un site d'information sur ces mesures.
2001-11-16 20:51:22
Libertés immuables
http://www.enduring-freedoms.org/sommaire.php3
Selon Netéconomie, le ministre des finances a profité de la présentation de son budget devant la commission des finances de l'Assemblée Nationale pour relancer le projet Copernic visant à créer un cyber-guichet unique pour le contribuable. Prévu pour être opérationnel l'année prochaine, ce projet est dôté d'un budget de 51 millions d'euros.
2001-11-16 21:28:02
Netéconomie
http://www.neteconomie.com/perl/navig.pl/neteconomie/infos/article/20011115162811
Libération, Le Monde, Le Parisien,Les Echos, autant de titres qui ont développé d'importantes version en ligne de leurs publication. L'expérience est aujourd'hui terminée, faute de rentabilité et la plupart des rédactions se réduisent comme peau de chagrin.
2001-11-19 13:32:34
Décideur.com
http://www.infos-decideur.com/index.adml?f=14773
La semaine dernière un juge américain décidait que le jugement rendu l'année précédente par son homologue français imposant un filtrage à la firme Yahoo sur son site de ventes aux enchères ne pouvait s'appliquer aux Etats-Unis. Salué par les organisations américaines de défense des droits civiques comme une juste protection du premier amendement, cette décision ne constitue pourtant pas une innovation juridique, constate le New York Times ; le juge Fogel ayant simplement considéré les limitations nationales des décisions de justice.
2001-11-18 19:55:17
New York Times
http://www.nytimes.com/2001/11/16/technology/16CYBERLAW.html?todaysheadlines
Ca y est, c'est fait. Depuis le 19 novembre, Internet Actu a basculé dans le modèle payant. Ce changement d'orientation, décidé de longue date, est motivé comme toujours par l'effondrement des recettes publicitaires. Reste à savoir si l'essai sera concluant. Les tarifs sont en effet assez élevés pour une publication immatérielle, l'abonnement annuel étant facturé pour l'instant 34 € pour la version hebdomdaire du journal. La consultation des archives reste, elle, gratuite.
2001-11-20 13:36:07
Internet Actu
http://www.internetactu.com/accueil.html
Une récente décision de l'Organisation Mondiale de la Propriété Intellectuelle vient de donner raison à Vivendi dans le conflit qui l'opposait à J. Sallen, propriétaire du nom de domaine "vivendiuniversalsucks.com". Pour l'OMPI, le nom de domaine ("Vivendiçacraint" en français) risque de provoquer la confusion dans l'esprit des internautes qui pourrait penser avoir affaire à un site de la multinationale. Effectivement...
2001-11-20 13:56:55
La décision de l'OMPI
http://arbiter.wipo.int/domains/decisions/html/2001/d2001-1121.html
C'est une étude publiée le mois dernier par le cabinet de consultants Arhur Andersen. Le panorama des sites culturels pour l'année 2001 relève la prise de conscience par un nombre grandissant d'institutions des spécificités de la communication sur Internet. S'il y a cette année globalement moins de sites que l'année précédente, ceux-ci sont cependant plus pertinents et ne se contentent plus d'être un doublon électronique de brochures papier.
2001-11-20 20:58:03
E-culture
http://www.arthurandersen.com/website.nsf/content/CountriesFranceMediaCenterEculture2001!OpenDocument
Selon une étude du Pew Internet and American life, 12% des internautes américains auraient subi la fermeture d'un de leurs sites préférés depuis l'éclatement de la bulle spéculative sur la net-économie. 17% d'entre eux se sont vus proposer l'accès payant à un service similaire, mais seulement 12% d'entre eux ont accepté de mettre la main au portefeuille. La majorité du panel sélectionné par l'institut de recherche a en effet réussi à retrouver un site équivalent et gratuit.
2001-11-20 21:09:35
Pew Internet and american life
http://www.pewinternet.org/reports/toc.asp?Report=48
C'est la conclusion d'une étude menée par le Pew Internet and Amrican Life sur cinq grandes villes américaines : Austin, Cleveland, Nashville, Portland et Washington. L'auteur de cette étude y montre que dans chaque cas, dans des configurations sociales différentes, les communautés locales on su utiliser Internet comme outil de communication pour revitaliser le lien social, notamment en faveur des plus défavorisés. Une constante dans ces études de cas : les initiatives viennent toujours de la base ; elles s'appuient évidemment sur la notion très particulière aux Etats-Unis de "communauté", quasiment inconnue chez nous.
2001-11-21 21:06:02
Cities Online: Urban Growth and the Internet (PDF)
Cities Online: Urban Growth and the Internet
Après moult aventures de toutes sortes, plans de sauvetage et tutelles diverses, le mensuel Futur-e-s qui explorait depuis un an les méandres de la société de l'information vient d'être mis en liquidation judiciaire par le Tribunal de Commerce. Issue prévisible à une période d'observation de quatre mois au cours de laquelle la rédaction du magazine n'ont pas su compenser l'effondrement des recettes publicitaires que connaît tout le secteur.
2001-11-29 19:20:34
Futur-e-s
http://www.futur-e-s.com/home/index.php?Page_ID=1
C'est le sens de la dernière initiative venue de Redmond. La firme de Bill Gates vient en effet de lancer en fanfare une nouvelle division baptisée eHome et dédiée au divertissement familial au sein du foyer.
2001-11-29 19:27:35
L'article d'Internetnews
http://www.internetnews.com/bus-news/article/0,,3_928231,00.html
Selon un article de Modbee, l'industrie du disque s'apprêterait à généraliser l'usage de CD équipés de systèmes de protection en empêchant la reproduction. Quelques utilisateurs en ont déjà fait l'expérience, à leur détriment puisqu'il semble que ces disques ne puissent être lus par la plupart des ordinateurs. Selon Modbee, une notice explicative devrait autoriser les acheteurs à retourner les diques qu'ils ont achetés en cas de dysfonctionnement. Plusieurs partisans de la libre copie des titres musicaux ont déjà appelé à retourner systématiquement ces disques afin de les rendre impopulaires auprès des revendeurs.
2001-12-01 21:49:20
Modbee
http://www.modbee.com/24hour/entertainment/story/183508p-1775112c.html
C'est ce que vient de décider une cour d'appel américaine qui devait rendre sa décision sur le procès opposant le magazine de hackers 2600 à l'industrie du cinéma, à propos de la publication du code permettant de lire des DVD (DECSS). Si globalement, le 1er amendement de la constitution américaine protège la liberté d'expression, raisonne la cour d'appel, cette protection est limitée dans un certain nombre de cas, et notamment lorsque cette expression contient un "contenu neutre ou non-expressif". Ce serait le cas du DECSS et du code informatique en général. Au delà du cas particulier jugé ici, cette décision est un coup dur pour tous ceux qui luttent contre les lois protégeant le copyright en informatique, en particulier l'Electronic Frontier Foundation qui en a fait son cheval de bataille.
2001-12-01 22:20:41
Wired
http://hb.lycos.com/header?Z=431811&VID=5102&LHM=0&LHS=2
L'institut statistique Jupiter Mediametrix vient de publier une étude portant sur la consommation américaine par Internet lors de la première semaine après Thanksgiving. Il apparaît que le traffic sur les sites commerciaux américains a fait un bon global de 43%, indiquant une forte vitalité de tout le secteur. A entrer dans le détail de ces chiffres, il est cependant clair que les entreprises qui ont le plus profité de cette progression sont les entreprises traditionnelles disposant d'une boutique en ligne, contrairement aux "pure players" qui n'ont pour leur part enregistré une progression que de 15% environ.
2001-12-01 22:44:06
Jupiter MediaMetrix
http://www.jmm.com/xp/jmm/press/2001/pr_112901.xml
Selon une récente étude de l'UCLA Center for Communication and Policy, l'année 2001 a plutôt été bonne pour ce qui est de l'utilisation du réseau par les foyers américains. Ainsi, selon cette étude, la part de la population connectée serait passée en un an de 67% à 72%. De la même manière, la part de la population non connectée l'est de moins en moins par manque d'intérêt et une part plus importante d'entre elle compte se connecter dans les prochains mois. Parmi les utilisations les plus fréquentes du réseau, le mail et la messagerie instantanée sont toujours autant plébiscitées.
2001-12-01 22:52:20
Le rapport de l'UCLA
http://ccp.ucla.edu/pages/internet-report.asp
Le très renseigné Marc Laimé dresse en une d'uZine la liste des moyens mis en oeuvre par l'industrie du loisir pour collecter une foule de renseignements sur nos habitudes de vie. Il fait apparaître le rôle essentiel que jouent les entreprises de datamining et le coup d'accélérateur que la convergence numérique donne à ces pratiques.
2001-12-02 08:17:36
uZine
http://www.uzine.net/article1249.html
C'est ce qu'a découvert une agence gouvernementale irakienne lorsqu'elle voulut enregistrer un nom de domaine auprès de Verisign. Selon la société d'enregistrement, l'embargo commmercial décrété par les Etats-Unis contre l'Irak s'applique aussi aux prestations de service sur Internet.
2002-01-20 14:07:11
Embargo commercial contre un nom de domaine irakien
http://news.zdnet.fr/zdnetfr/news/story/0,,t118-s2102662,00.html?nl=zdinternet_txt
Selon la chaîne de télévision CNN, le Ministère de l'Information de Chine populaire contraindrait désormais les fournisseurs d'accès à surveiller les e-mails de leurs abonnés. Les prestataires techniques seraient donc désormais responsables des messages subversifs qui pourraient être communiqués par ce biais, ainsi que de ceux qui sont publiés sur leurs sites Web.
2002-01-20 14:18:51
China orders Net providers to screen e-mail
http://www.cnn.com/2002/TECH/internet/01/18/china.internet.ap/index.html
Le Département du Commerce américain chercherait-il à profiter des attentats du 11 septembre pour retarder l'indépendance de l'ICANN ? C'est ce que pensent Andy Mueller et Karl Auerbach, deux des directeurs de l'organisation, qui expriment leurs critiques dans Wired
2002-01-20 18:13:01
Will U.S. Release Grip on ICANN?
http://www.wired.com/news/infostructure/0,1377,49836,00.html?tw=wn20020
Depuis le 14 janvier dernier, et jusqu'à la fin du mois, l'Atica, l'agence française de développement de l'administration électronique, propose aux e-citoyens de se prononcer sur l'ergononmie des sites administratifs. Il pourront ainsi récompenser - ou non -, les efforts que le mammouth dit consacrer à la mise en place de services performants.
2002-01-21 14:16:03
Electrophées 2001
http://www.atica.pm.gouv.fr/evenements_ateliers/electrophees2001.shtml
Depuis hier, le réseau ne bruisse que de rumeurs concernant d'éventuelles négociations en cours entre le géant de la communication AOL-Time Warner, et le plus important distributeur de logiciels Linux, Red Hat. Etonnant serait ce rapprochement, s'il s'avérait fondé, entre une entreprise qui a construit son succès sur la captation d'un public réputé technophobe, et un logiciel d'exploitation censément réservé aux nerds. Il est vrai que les deux ont un ennemi commun : Microsoft.
2002-01-20 20:38:21
AOL in Negotiations to Buy Red Hat
http://www.washtech.com/news/media/14759-1.html
La vidéoconférence est à la mode. Mais avec quelles technologies ? La Fondation Internet Nouvelle Génération publie un dossier sur le sujet, et s'interroge sur l'avenir du multicast, une technologie prometteuse en la matière.
2002-01-22 16:16:46
Vidéoconférence sur IP et multicast
http://www.fing.org/index.php?num=2481,2
Deux ans après la Zelig Conf', manifestation française des contre-cultures digitales, les organisateurs de l'événement proposent une nouvelle rencontre le week-end prochain. Le programme de la No-Zelig Conf' se ressent fortement des événements des derniers mois : cryptographie, Loi sur la Sécurité Quotidienne, vidéo-surveillance sont donc au menu de ce "hackmeeting",qui sera suivi par la remise de Big Brother Awards, rituellement remis chaque année par le collectif Privacy International à "toute personne ou institution ayant porté atteinte à la vie privée ou négligé de la protéger, ou faisant la promotion de la surveillance individuelle ou collective".
2002-01-21 22:19:08
No-Zelig Conf' 2002
http://no-zelig.org
C'est ce que révèle le magazine Technology Review dans un article sur un nouveau prototype mis au point par l'entreprise E-ink. Reposant sur l'insertion de millions de transistors de silicium au sein d'un film plastique, cette technologie pourrait être disponible dans le commerce dès 2005
2002-01-27 14:02:46
Flexible Displays Gain Momentum
http://www.technologyreview.com/articles/print_version/cameron012202.asp
On sait la bataille que se livrent les deux géants du logiciel pour imposer leur lecteur de musique et de vidéo sur le bureau de l'utilisateur. Une jeune société californienne, Audiobase, vient de déposer un brevet lui permettant de développer son produit phare : un lecteur de médias en java, entièrement intégré au navigateur web. L'ouverture d'une bande musicale devient donc totalement transparente pour l'utilisateur qui n'a plus à recourir à un lecteur externe.
2002-01-27 14:09:39
Audiobase
http://www.audiobase.com
Après plusieurs jours de flottement, AOL a fini par démentir avoir cherché à racheter Red Hat, contrairement à ce qu'affirmait WashTech. Ce qui est sûr en revanche, c'est que Netscape, désormais entreprise filiale du groupe de communication, porte plainte contre Microsoft et demande réparation des dommages que lui aurait causés les méthodes employées par la firme de Redmond pendant la "guerre des navigateurs". L'objectif d'AOL ? Forcer Microsoft a lui ouvrir sa future plate-forme .net, selon Lawrence Lessig. La clé de l'affaire, ajoute le New York Times, c'est l'accès.
2002-01-27 14:22:18
In AOL's Suit Against Microsoft, the Key Word Is Access
http://www.nytimes.com/2002/01/24/technology/ebusiness/24SOFT.html?todaysheadlines=&pagewanted=print
Myron Krueger est un des pionniers de la réalité virtuelle. Depuis 1969, il élabore des instruments permettant à l'homme de s'immerger totalement dans un environnement numérique, et s'interroge sur les usages auxquels ces technologies peuvent s'associer. Ctheory lui demande dans sa dernière livraison de faire le point sur son expérience.
2002-01-27 14:35:47
Myron Krueger live
http://www.ctheory.net/text_file.asp?pick=328
C'est la première bonne nouvelle pour la netéconomie depuis longtemps. Pour la première fois, Amazon.com a dégagé pour 5 millions de dollars de bénéfices lors du dernier trimestre 2001. La preuve que les pure playersont encore un avenir ?
2002-01-27 14:44:34
A Surprise From Amazon: Its First Profit
http://www.nytimes.com/2002/01/23/technology/ebusiness/23AMAZ.html?todaysheadlines=&pagewanted=print
L'association IRIS (Imaginons un réseau Internet solidaire) a déposé plainte contre la France auprès de la Commission européenne, pour non respect du droit communautaire. Cette plainte concerne la loi n°2001-1062 du 15 novembre 2001 sur la sécurité quotidienne (LSQ), visant particulièrement son article 29 (conservation des données techniques relatives à une communication, pendant une période pouvant s'étendre jusqu'à un an). Déposée par IRIS le 21 décembre 2001, la plainte a été jugée recevable par la Commission européenne en janvier 2002. Elle est actuellement examinée par la Commission, qui jugera de l'opportunité de saisir ultérieurement la Cour de justice des Communautés européennes. L'association rappelle que la France a déjà été condamnée à deux reprises par la Cour de justice des Communautés européennes, sur plainte de la Commission, pour manquement à son obligation de transposition des Directives 95/46/CE (arrêt du 14 février 2001) et 97/66/CE (arrêt du 18 janvier 2001). Aujourd'hui, la France manque une fois de plus à ses obligations en adoptant une mesure législative contraire à des dispositions contenues dans ces deux Directives, ainsi qu'à des principes du droit communautaire
2002-01-27 15:11:53
L'association Iris
http://www.iris.sgdg.org
C'est la question que se pose Wired, vu la riche actualité dont le groupe de communication a fait l'objet la semaine dernière : nouveau procès contre Microsoft, rumeurs de rachat de Red Hat, remaniements à la tête du groupe, augmentation drastique des tarifs d'accès aux contenus proposés aux abonnés. Mais que fait AOL ?
2002-01-28 10:36:51
Exactly What Is AOL Up To?
http://www.wired.com/news/print/0,1294,49965,00.html
Un excellent article destiné au grand public, à lire sur Alternet : Omar Pahati, un des rédacteurs du magazine alternatif, y décrit la guerre que le FBI a déclenché il y a un mois contre ce qu'il considère être de véritables "gangs" de pirates. Des gangs peut-être, argumente le journaliste, mais dont les motivations ne sont pas pécuniaires...
2002-01-28 11:34:03
Digital Pirates and the "Warez" Wars
http://www.alternet.org/story.html?StoryID=12283
Vous connaissez Jonah Peretti ? C'est le jeune homme qui voulut faire inscrire "sweatshop" sur ses Nike personnalisées. En quelques jours, il est devenu célèbre dans le monde entier grâce à cette affaire. Depuis, il a mis sur pied avec sa soeur un service téléphonique très étrange baptisé Rejectline. Alternet publie une interviw de ce nouveau guerillero des médias.
2002-01-28 11:51:32
Digital Pirates and the "Warez" Wars
http://www.alternet.org/story.html?StoryID=12276
C'est un texte de première importance que vient de publier BugBrother, sur le site de la No-zelig Conf. "LSQ : sortez couvert !" est tout simplement une revue de détail extrêmement bien faite des différents outils dont dispose l'utilisateur pour protéger la confidentialité de ses communications. Librement inspiré d'un texte rédigé par Ian Brown, un cryptographe anglais, au lendemain de l'adoption du Rip Act, cet article est à lire de toute urgence dans la nouveau contexte législatif français.
2002-01-28 12:17:27
No-Zelig Conf
http://no-zelig.org/article.php3?id_article=11
Quelle confiance accorder aux "labels de confiance" et autres "certificats" de bonnes pratiques en matière de commerce électronique qui fleurissent depuis plusieurs mois sur les sites marchands ? C'est à cette importante question que s'est attaquée la mission pour l'économie numérique au sein du Ministère de l'Economie et des Finances. Elle vient de publier son rapport : du bon boulot.
2002-01-28 12:42:41
Le rapport du Minefi [PDF]
http://www.minefi.gouv.fr/men/groupes_travail/rapport_gt42.pdf
Les utilisateurs de système Linux le connaissent bien. Wine est un programme permettant de faire tourner des applications Windows sous Linux, permettant ainsi de pallier aux déficiences du célèbre pingouin en matière d'applications bureautiques. Le problème est que Wine est en développement et demande encore pas mal de connaissances techniques. Wired fait le point sur un logiciel prometteur dont une première version finale pourrait être disponible prochainement.
2002-01-28 12:52:34
Can WINE Ferment Move to Linux?
http://www.wired.com/news/print/0,1294,49719,00.html
Avec 2800 sites à la fin de l'année 2001, le commerce électronique français se stabilise, par opposition aux années précédentes qui avaient connu une croissance exponentielle. Maturation du marché disent les optimistes. Reste à mesurer tout cela en terme de chiffre d'affaire.
2002-02-04 18:14:33
Baromètre Le Guide.com
http://www.leguide.com/conc/Barometre_4T01.pdf
Ils s'appellent Replay TV, SnapStream, et c'est le cauchemar des producteurs d'émissions de télévision. Ces logiciels offrent en effet la possibilité de capturer les émissions, de les modifier, les expurger des coupures publicitaires et les reproduire à l'infini, les ravalant au rang de vulgaires mp3 "napstérisables". Alléchant, non ? Plus d'explications sur le Boston Globe
2002-02-05 11:39:18
The television industry is running scared
http://www.boston.com/dailyglobe2/035/business/The_television_industry_is_running_scared+.shtml
Parce qu'ils ne peuvent se les envoyer d'un réseau à l'autre. C'est la réponse qu'apporte Technology Review pour expliquer que le nouveau monde n'ait pas adopté ce moyen de communication massivement utilisé par les Européens. Tandis que ces derniers ont réussi à s'entendre pour adopter un protocole commun, la concurrence entre opérateurs téléphoniques aux Etats-Unis est telle qu'il est quasiment impossible d'adresser un SMS sur un terminal relié à un autre réseau que le sien. Un exemple à méditer.
2002-02-04 22:32:10
Message in a Bottleneck
http://r.pm0.net/s/c?13q.1hwn.9.9el.4c0j
Le système d'identification et de mémorisation des données personnelles utilisé par Microsoft risque fort de faire l'objet d'un prochain procès, déclenché par une plainte de l'EPIC, une association de protection de la vie privée. L'association vient en effet d'envoyer une lettre aux procureurs des cinquante Etats américains dans laquelle elle dénonce les failles de sécurité de Passport, susceptibles selon elle, d'engager la reponsabilité de son éditeur.
2002-02-04 23:13:07
La lettre de l'EPIC
http://www.epic.org/privacy/consumer/microsoft/stateagletter.html
"Priorité aux clients directs, les curieux peuvent patienter. Tel semble être l'objectif des entreprises. Selon une étude, si 72% des réclamations par email reçoivent une réponse, les demandes de stage ou d'informations sont ignorées."
2002-02-04 23:22:12
Zdnet
http://news.zdnet.fr/zdnetfr/news/story/0,,t118-s2103463,00.html?nl=zdinternet_txt
"Le public américain a traditionnellement joui de la possibilité de copier pour son usage personnel des oeuvres soumises à copyright sans autorisation préalable. Ce droit d'un "usage équitable" est à la fondation de la manière dont le peuple américain reçoit et utilise l'information". Et ce droit est aujourd'hui menacé par le Digital Millenium Copyright Act, explique Rick Boucher, un membre de la chambre des représentants, dans les colonnes de News.com. Il explique pourquoi.
2002-02-04 23:34:09
Time to rewrite DMCA
http://news.com.com/2010-1078-825335.html
Un tribunal canadien a décidé d'interdire un site révisionniste, animé par Ernst Zundel, ce qui constitue une première en Amérique du Nord. Il reste que cette décision ne risque pas d'avoir beaucoup d'effet, le site, et son webmestre, étant hébergés aux Etats-Unis
2002-02-05 12:01:06
Commission canadienne des droits de la personne
http://www.chrc-ccdp.ca/news-comm/2002/NewsComm180102.asp?l=f
C'est ce qu'essaie de mettre au point le groupe américain Truste, avec l'appui des plus grosses entreprises commerciales. La méthode consiste à délivrer des sceaux de certification aux entreprises prêtes à se conformer à des règles minimales en matière de courrier publicitaire. Les mails envoyés par ces entreprises offriraient donc à l'utilisateur un certain nombre de garanties. Ceci permettrait donc de séparer le bon grain de l'ivraie, et de rendre plus efficace un support publicitaire que les internautes ne lisent pratiquement plus.
2002-02-04 23:47:37
Weeding In the Garden Of Good E-Mail
http://www.washtech.com/news/dotcom/14941-1.html
Pourquoi le contenu en ligne ne se vend pas ? Andreas Pfeiffer croit connaître la réponse : parce qu'aucune valeur n'y est associée. Le problème, selon cet analyste de talent, réside dans le statut incertain de la publication en ligne. Ce n'est ni un objet, ni un service, les deux choses pour lesquelles nous sommes prêts à payer actuellement. Du coup, elle ne bénéficie d'aucune "valeur perçue", un concept pour le moins intéressant.
2002-02-05 12:58:52
Pfeiffer Report
http://www.pfeifferreport.com/trends/ett_beyondcontent.html
Après plusieurs années de laissez-aller, la Federal Trade Commission américaine a décidé d'assainir vigoureusement le milieu de la publicité par mail. Dans son collimateur, les messages indiquant une fausse adresse de retour et ceux qui ne respecteraient pas les règles de l'opt-out, actuellement en vigueur sur le continent américain. Il faut dire que le spam y a atteint des proportions gigantesques, qui finissent par handicaper les cyber-marchands les plus sérieux.
2002-02-05 13:15:25
FTC cooking up a spam attack
http://zdnet.com.com/2100-1106-827631.html
C'est ce que dit Jakob Nielsen dans le dernier numéro de son Alertbox. Le succès de la firme Apple avec son dernier imac montre selon le gourou de l'"usabilité" sur le web, que le prix n'est pas le seul élément de compétition sur le marché des ordinateurs personnels. Cela vaut aussi pour les logiciels ajoute-t-il, dont la conception pourrait être grandement améliorée. Et en guise de bonus, il nous donne un truc qui permettrait aux utilisateurs de Windows XP d'économiser 2000$ par an.
2002-02-05 13:52:14
Jakon Nielsen's Alertbox
http://www.useit.com/alertbox/20020203.html
Au second jour de sa session annuelle, à New York, le Forum Economique Mondial a été victime sur son site web d'une attaque de type DDOS de la part d'assaillants non identifiés. Assiégés dans la rue par les militants anti-mondialisation, les dirigeants de ce monde le sont donc aussi dans le cyberespace où il est bien plus difficile d'organiser des charges de policiers.
2002-02-05 14:00:15
Hackers Hit Global Leaders' Summit
http://www.nytimes.com/reuters/technology/tech-forum-hackers.html?todaysheadlines
Icebox est le premier ordinateur de cuisine en vente. Disponible sous deux formes, dont l'une peut s'accrocher sous un placard mural, il serait résistant à l'eau, à la chaleur et aux projections de graisse ! Vendu à près de 3000$ tout de même, il donne accès à Internet, fait office de lecteur de DVD et CD ainsi que de télévision, le tout sous Windows CE. Il peut aussi être relié à une caméra interne permettant de surveiller le sommeil du petit dernier.
2002-02-05 14:12:27
Icebox
http://www.iceboxllc.com/
C'est ce que révèle Wired dans un article qui fait suite aux récentes déclarations de l'inventeur du CD contre les éditeurs de disques et les systèmes anti-piratage qu'ils tentent d'imposer au consommateur. Le contructeur hollandais qui vend aussi très bien des graveurs de CD s'érige contre ces pratiques. Tout le monde attend un procès monstre entre les deux géants : Philips contre Universal.
2002-02-05 14:50:44
Philips burning on protection
http://www.wired.com/news/print/0,1294,50101,00.html
C'est, selon le NUA Institute, le passe-temps favori des européens, et singulièrement des britanniques. On savait déjà à quel point le vieux continent, après le téléphone portable, s'est entiché de cette nouvelle forme de communication. On sait désormais pourquoi. Le très sérieux institut de recherche sur les usages des réseaux n'hésite d'ailleurs pas à fournir des exemples de déclarations enflammées ou salaces en mode Texto. Edifiant.
2002-02-05 14:59:22
Modern flirts use SMS
http://www.nua.ie/surveys/analysis/weekly_editorial.html
Empêtré comme jamais dans ses propres dissensions internes, qui vont jusqu'à faire peser de sérieuses menaces sur son avenir, l'ICANN demande l'avis des internautes sur une éventuelle réforme de son mode de fontionnement. Le "Committee on ICANN Evolution and Reform", mis sur pied tout récemment doit notamment se prononcer sur le projet présenté à Accra par Stuart Lynn. Une page Web présente son travail et permet à chacun de donner son avis. Quant à savoir s'il en sera tenu compte...
2002-04-04 20:01:38
ICANN
http://www.icann.org/announcements/announcement-27mar02.htm
Avec un budget en hausse de près de 16%, le secteur des Technologies de l'Information bénéficie d'investissements importants de la part de l'administration Bush qui croit encore à la Nouvelle Economie. A condition qu'elle soit sécurisée, car les dépenses liées à la sécurité informatique augmentent, elles, de 60%.
2002-02-06 22:09:30
Zdnet
http://zdnet.com.com/2102-1106-829484.html
Le développement des nouvelles technologies au sein de l’entreprise et en particulier de l’internet modifie en profondeur les relations et pratiques sociales. Ce phénomène affecte autant les relations de l’employeur avec les représentants du personnel que les relations de l’employeur avec chaque salarié. Le 15 février, le Forum des Droits de l'Internet organisera une table ronde sur cette question, en collaboration avec le magazine Liaisons Sociales. Les internatues peuvent d'ores et déjà poser leurs questions aux spécialistes invités.
2002-02-06 22:15:12
"Internet et les relations du travail : le cybertravailleur"
http://www.canalweb.net/cwsite/emis/f/forumdroitstv/une.asp?d=forumdroits
C’est ce qu’explique Russel Pavlicek dans Newsforge. La recette ? acheter des mailstations pour cent dollars, voire vingt d’occasion sur Ebay et configurer un vieux pc sous linux pour faire office de serveur de mails. L’ordinateur prend en charge les appels téléphoniques venant des mailstations et route les messages vers le réseau. Dans le prochain article, on nous expliquera comment transformer son pc en ISP ?
2002-02-11 17:59:38
Newsforge
http://www.newsforge.com/article.pl?sid=02/02/05/171219
David Coursey, le chroniqueur vedette de Zdnet croit avoir trouvé la solution pour arrêter le spam, une véritable plaie qui ronge Internet. Son truc ? Faire payer les spammeurs, et non ceux qui reçoivent le spam, comme c’est le cas actuellement. Autre solution, complémentaire mais pas moins efficace : exiger une authentification des expéditeurs de courrier électronique au niveau des serveurs mails. A partir du moment où envoyer un prospectus électronique vantant les mérites de l’ »herbal Viagra » à des millions d’exemplaires peut coûter une jolie petite somme, on verra sûrement disparaître ce genre de pratique nous assure-t-il. Oui, mais qui est prêt à mettre en oeuvre ses solutions ?
2002-02-11 18:01:03
Zdnet
http://www.zdnet.com/anchordesk/stories/story/0,10738,2845621,00.html
Microsoft, IBM, BEA Systems et Intel sont en train de mettre sur pied un nouveau consortium dédié aux web services. Les web services sont des outils informatiques permettant de distribuer l’accès à des applications informatiques via Internet pour tous les types de terminaux, et on nous dit que c’est la prochaine révolution. Fort bien, mais les entreprises en question sont concurrentes dans ce domaine. Arriveront-elles à se mettre d’accord sur des protocoles communs ? Pas sûr annoncent deux analystes du cabinet d’études Gartner
2002-02-11 18:02:29
Gartner
http://www3.gartner.com/resources/104300/104330/104330.pdf
Pourquoi les E-books ne se vendent-ils pas ? C’est à cette question que tente de répondre Rita Knox, une analyste de chez Gartner. Un constat sans appel : trop chers, trop confus, trop cloisonnés, trop pauvres en contenu. Pourquoi les consommateurs en effet, paieraient-ils aussi voire plus cher qu’un livre sur support papier, alors que le E-book ne leur offre actuellement rien de plus, sinon une qualité de lecture relativement dégradée. Son conseil aux constructeurs et éditeurs ? Retroussez vos manches !
2002-02-11 18:03:44
Gartner
http://www4.gartner.com/DisplayDocument?doc_cd=104277
La presse a beaucoup évoqué la dernière initiative des défenseurs du logiciel libre allemands, et leur campagne visant à obtenir que le Parlement adopte des solutions de type Linux lors de la prochaine rénovation de son système informatique. Sourceforge rapporte pour sa part que cette initiative a provoqué l’ire du président de Microsoft Allemagne, qui s’est fendu d’une lettre aux parlementaires : non, affirme-t-il, Microsoft ne constitue pas une menace contre la démocratie, contrairement à ce qui est écrit sur le site bundestux.de qui promeut la campagne
2002-02-11 18:04:49
IDG en Suédois ;-)
http://www.idg.se/ArticlePages/200202/06/20020206153900833_CS58/20020206153900833_CS58.dbp.asp
Une récente étude publiée par l’UCLA Internet Project confirme l’émergence du courrier électronique comme usage principal d’Internet. Cette étude qui porte sur le comportement des internautes au lendemain des attaques du 11 septembre, montre que près d’un américain sur deux a envoyé ou reçu au moins un mail en rapport avec les attentats. Dans nombre de cas, le courrier électronique a même été l’occasion de nouer ou renouer des liens que n’ont pu entretenir le téléphone ou la correspondance classique. Comme source d’information en revanche le Web a été très largement délaissé au profit de la télévision, qui règne incontestablement en période de crise.
2002-02-11 18:06:05
UCLA Internet Report
http://www.ccp.ucla.edu/pdf/UCLA-Internet-Report-2002.pdf
Selon l’agence Associated Press, l’éditeur de solutions de sécurité Network Associates serait attaqué en justice par l’attorney de la ville de New York pour atteinte à la liberté d’expression. L’éditeur prétend en effet empêcher tout compte-rendu ou article sur ses logiciels qui ne soit pas expressément autorisé ; c’est en tout cas ce qui est écrit dans la licence d’utilisation qui accompagne chacun des logiciels en téléchargement ou démonstration. Si NA est pointé du doigt dans ce cas précis, l’entreprise californienne n’est pas seule à adopter ce type de pratiques. Nombre d’éditeurs de logiciels s’appuient en effet sur des licences abusives pour limiter l’usage que l’on peut faire de leurs produits.
2002-02-11 18:07:46
Associated Press
http://apnews.excite.com/article/20020207/D7HHCC280.html
Selon la 9ème court d’appel fédérale américaine, la reproduction d’une image ou d’une photo en vignette ne constitue pas une infraction à la loi sur le copyright. L’affaire que le tribunal avait à juger opposait le photographe Leslie Kelly au moteur de recherche Ditto.com. Ce dernier, comme tous les moteurs de recherche présente ses résultats sous forme de galeries de vignettes cliquables. Pas de problème ont dit les juges, car cet usage apporte une information supplémentaire. Il n’en va pas de même pour la reproduction en grandeur nature de la même image, à l’intérieur d’une frame ou par déclenchement d’un lien ont-ils ajouté, condamnant du même coup Ditto.com à verser des dommages et intérêts dont le montant reste à déterminer
2002-02-11 18:08:53
Newsbyte
http://www.newsbytes.com/cgi-bin/udt/im.display.printable?client.id=newsbytes&story.id=174326
Le Conseil de l’Europe a récemment finalisé un accord international de lutte contre la cybercriminalité. Cet accord, vivement critiqué par un grand nombre d’associations de défense de la liberté d’expression, était en préparation depuis plusieurs années et a connu un nombre incalculable de versions à cause des multiples intérêts en jeu. Depuis, le Conseil a délégué à un comité spécifique la charge de rédiger un protocole additionnel portant sur sur la criminalisation des actes de nature raciste et xénophobe commis à travers les réseaux informatiques . Depuis plusieurs semaines, les associations membres du Global Internet Liberty Campaign, dont l’association IRIS en France, réclamaient que les étapes préparatoires à ce protocole fussent rendues publiques. C’est aujourd’hui chose faite. Le protocole dans sa dernière version provisoire est librement consultable sur le site d’IRIS, qui y consacre tout un dossier
2002-02-11 18:10:19
IRIS
http://www.iris.sgdg.org/actions/cybercrime/pc-rx/
"Le gouvernement poursuit son objectif de voir la totalité de la population française connectée à l'internet haut débit d'ici à 2005. Il a autorisé le déploiement d'un réseau de fibres optiques passant par les lignes haute tension." Un article à lire sur Zdnet
2002-02-11 18:15:28
Zdnet
http://news.zdnet.fr/story/0,,t119-s2103930,00.html
C'est ce que dit quelqu'un de bien placé pour le savoir: Bob Young, le président de la première distribution grand public de Linux, Red Hat, considère que le marché de l'ordinateur de bureau est hors de porté du pingouin. Une interview disponible sur Zdnet UK
2002-02-11 18:27:17
Zdnet UK
http://news.zdnet.co.uk/story/0,,t269-s2103670,00.html
C'est la thèse que Patrick Leleu, PDG de Noos, développe cette semaine dans les colonnes du Journal du net. Son hypothèse ? La plupart des internautes se fichent d'avoir une connexion à haut débit qui ne correspond pas à leur utilisation du réseau. En revanche, la connexion illimitée qui leur permet d'utiliser le net sans avoir à garder un oeil rivé sur la montre leur apporte un bien plus grand confort d'utilisation. Patrick Leleu défend évidemment sa propre chapelle, puisque Noos propose une connexion câble illimitée à bas débit pour 15 € par mois. Il n'en reste pas moins que l'expérience est originale et mérite d'être suivie.
2002-06-03 08:47:01
Journal du net
http://www.journaldunet.com/tribune/020603tribune.shtml
Lundi 11 février 2002, la CNIL a rendu public son second rapport sur la cyber-surveillance sur les lieux de travail. Ce document de première importance ne se contente pas d'analyser une situation instable et une jurisprudence parfois contradictoire. Il prend aussi le risque d'émettre des recommandations et s'intéresse au sujet encore peu abordé en France de l'utilisation par les syndicats des outils informatiques de l'entreprise.
2002-02-12 16:21:33
Rapport de la CNIL (PDF)
http://www.cnil.fr/thematic/docs/entrep/cybersurveillance2.pdf
C'est ce que vient de considérer le Conseil d'Etat à propos d'une demande en annulation qui avait été envoyée par ce moyen à la préfecture du Jura quelques jours après les dernières élections municipales. Cette décision constitue une grande première et, selon le Forum des Droits de l'Internet, pourrait poser "la première pierre de ce qui pourrait devenir le régime du recours en ligne en matière administrative"
2002-02-12 16:35:59
Forum des Droits de l'Internet
http://www.foruminternet.org/actualites/lire.phtml?id=252
Un procès ridicule. C'est ainsi qu'apparaît aux yeux de la plupart des observateurs la procédure engagée par British Telecom pour faire reconnaître son droit à rémunération pour l'usage des hyperliens, sur lesquels l'opérateur national aurait déposé un brevet dès 1976 aux Etats-Unis. Il est désormais acquis que l'entreprise britannique ne touchera pas de royalties rétrospectifs. Quant à une rémunération sur l'usage futur des liens, même si elle était accordée, elle ne ferait qu'engager nombre de programmeurs à imaginer un moyen pour contourner le brevet. Il paraît que c'est facile.
2002-02-12 21:31:40
Wired
http://www.wired.com/news/business/0,1367,50361,00.html
Les ministres européens des finances ont signé, mardi 12 février, une directive obligeant les sites Web de commerce électronique situés en dehors du territoire des 15 Etats membres à appliquer la taxe sur la valeur ajoutée sur leurs ventes aux consommateurs européens. Cette mesure, réclamée depuis longtemps par les cybermarchands européens est censée mettre fin à une distorsion de concurrence entre marchands communautaires et américains principalement. Elle s'applique uniquement aux transactions grand public et non aux échanges commerciaux inter-entreprises qui représentent à l'heure actuelle près de 90% des transactions.
2002-02-13 19:55:39
Le Monde
http://interactif.lemonde.fr/article/0,5611,2866--262618-0,FF.html
C'est celui que visite près de 87% des internautes français, selon le dernier baromètre e-stat. Ainsi, l'immense majorité des utilisateurs du Web reviennent toujours ou souvent sur les mêmes sites, ce qui explique l'importance des accès directs - 23%- via la barre d'adresse du navigateur ou les signets personnels, parmi les différents modes d'accès aux sites web. Autre enseignement important, avec près de 57% des accès, les échanges de liens sur sites personnels représentent la première source de trafic pour ce type de sites.
2002-02-18 16:57:32
estat
http://prof.estat.com/cgi-bin/ft/286086114286?class=Comm_Presse&page=InternautesHabits&estat_url=http%3A%2F%2Fwww.estat.com%2Fcontent%2Ffr%2Fpresse%2F20020207%2Fsurf.pdf%3F
Intenses défouloirs télématiques, les forums de discussion sont souvent parasités par des échanges extrêmement violents entre participants. Injures, diffamation et attaques racistes et xénophobes y sont monnaie courante. La justice semble désormais décidée à y mettre son nez. C'est ce qui ressort de la condamnation d'un internaute belge devant une juridiction bruxelloise, attaqué par le prestataire d'accès et d'hébergement Infonie pour avoir tenu des propos xénophobes sur un de ses forums.
2002-02-18 17:08:37
Juriscom
http://www.juriscom.net/txt/jurisfr/cti/tpibruxelles20020115.htm
C'est le titre du rapport que vient de constituer la CFDT-Cadres quelques jours après celui de la CNIL sur la cybersurveillance sur le lieu de travail. Le syndicat formule douze propositions qui recoupent d'ailleurs en partie celles de la CNIL. La plus intéressante d'entre elles concerne cependant la reconnaissance d'un véritable "droit à la déconnexion" qui permettrait de limiter les astreintes abusives et insidieuses imposées aux salariés via notamment les outils de communication nomades.
2002-02-18 21:34:46
CFDT-Cadres(PDF)
http://www.cadres-plus.net/GDM/TIC_1.pdf
La semaine dernière, nous faisions état de l'apparition d'un syndicat des producteurs de contenu Web, les Webproducteurs, dont la première action fut de demander aux fournisseurs d'accès de participer au financement de leurs activités. Cette semaine, les FAI ont publié une réponse ; pas tendre on s'en doute. L'Association des Fournisseurs d'Accès rappelle en effet que le principal obstacle à une réelle démocratisation de l'accès au réseau qui se fait toujours attendre en France, réside dans le coût reativement élevé de cet accès. Manière de dire évidemment que, mis à contribution, les FAI répercuteront les prélèvements sur les internautes. Pour finir, l'association ne manque pas d'humour en saluant le travail et la créativité de tous les acteurs de l'Internet, fournisseurs de prestations, créateurs de contenus, mais aussi les auteurs des 2 135 000 pages personnelles rédigées gratuitement et hébergées par ses membres. Entendez : il faudra les rémunérer eux aussi...
2002-02-18 22:17:49
Association des Fournisseurs d'Accès
http://www.afa-france.com
C'est le nom d'un nouveau projet de loi américain visant à réprimer plus durement les intrusions illégales dans les systèmes informatiques. Ce projet de loi vise à clarifier certains points laissés en suspens par le USA Patriot Act, et vise à renforcer la lutte contre le hacking.
2002-02-18 23:33:49
Zdnet
http://news.zdnet.fr/cgi-bin/fr/printer_friendly.cgi?id=2104405
Le magazine juridique Jnet rapporte qu'un journaliste du site de sécurité informatique Kitetoa a été condamné pour fraude informatique à l'encontre du site Tati.fr. Kitetoa a en effet pour habitude de tester les systèmes de sécurité des entreprises et administrations françaises en tentant de s'y introduire frauduleusement. Appartenant à la tradition des "white hat hackers", Kitetoa ne tire pourtant pas profit de ses exploits : il a pour tradition de prévenir les administrateurs des systèmes concernés avant de publier les failles de sécurité constatées. Pire encore, selon les informations données par Jnet, Kitetoa n'aurait fait qu'exploiter un bug courant du navigateur Netscape, lui permettant de remonter dans l'arborescence des répertoires présents sur le site. Pour finir, le magazine [Zataz->http://www.zataz.com/zataz/news.php?id=595&file=02.html] révèle que la condamnation fut décidée par le juge contre l'avis du Ministère Public, pour qui l'infraction n'était pas constituée.
2002-02-19 09:46:53
Kitetoa
http://www.kitetoa.com
Semaine terrible pour le troisième cablo-opérateur américain Comcast : il s'est en effet fait pincer en train d'enregistrer les habitudes de surf de ses clients, sans doute afin de constituer un fichier pour le moins renseigné et lucratif. Enorme scandale dans le petit monde des internautes avertis qui voient se profiler un futur à la "big brother". L'opérateur a promis qu'on ne l'y reprendrait plus.
2002-02-19 10:55:00
Multimedium
http://www.mmedium.com/cgi-bin/nouvelles.cgi?Id=6275
Linux Journal rapporte qu'un tribunal américain vient de donner raison à un utilisateur attaqué par Adobe pour non-respect de la licence d'utilisation. Celui-ci en effet a tenté de revendre un logiciel non utilisé fourni avec son ordinateur, alors que toute revente est interdite par la licence de ce logiciel. Le juge a cependant considéré que l'utilisateur, propriétaire de ce logiciel avait le droit de le revendre, et que les termes de la licence étaient illégaux. Une importante décision qui met un frein aux débordements de ces textes, de plus en plus envahissants et limitatifs
2002-02-19 11:01:10
Linux Journal
http://www.linuxjournal.com/article.php?sid=5628
Dans un récent article, le San Francisco Chronicle révèle que plusieurs universitaires américains, parmi lesquels le célèbre Lawrence Lessig, auteur de Future of Ideas, travaillent actuellement sur un projet de service juridique gratuit aux créateurs, leur permettant de protéger leur oeuvre sans pour autant recourir au traditionnel copyright, très restrictif. Portant le nom de Creative Commons, cette entrerprise leur permettra d'obtenir automatiquement un texte juridiquement valide détaillant le type exact de licence qu'ils souhaitent accorder à leurs utilisateurs. Un service qui, habituellement, coûte extrêmement cher. Ce projet n'est pas dénué d'arrière-pensée politique et accompagne un mouvement qui conteste depuis plusieurs années maintenant l'évolution actuelle du droit sur la propriété intellectuelle, réputée au yeux du même Lessag, stérilisante et illégitime
2002-02-19 11:02:36
SFGate
http://www.sfgate.com/cgi-bin/article.cgi?file=/gate/archive/2002/02/11/creatcom.DTL&type=printable
La prochaine édition du Forum Mondial de la Démocratie Electronique se tiendra les jeudi 11 et vendredi 12 avril 2002 au Palais des Arts et des Congrès d'Issy-les-Moulineaux (France). Cette troisième édition se déroulera quelques semaines avant l'élection présidentielle française et quelques mois avant les élections législatives françaises et allemandes. Elle sera l'occasion de mieux connaître la vision des responsables politiques de la Société de l'Information à l'horizon 2010. Les thèmes abordés concerneront également la fracture numérique, l'administration électronique, le vote par Internet, l'e-citoyenneté et la cybersécurité
2002-02-19 11:03:58
e-démocratie
http://www.issy.com/e-democratie/
Jour après jour, les opposants au copyright semblent gagner davantage de partisans. De manière significative, leurs idées, parties du monde informatique, se propagent dans d'autres domaines de la création intellectuelle. Ainsi, tout récemment, la revue anglosaxonne New Scientist s'est livrée, le temps d'un article, aux joies ineffables de la licence libre. De quel article s'agit-il ? D'un article sur le coyleft, évidemment...Très stimulantt au demeurant, et qui montre comment ce mouvement peut ou ne peut pas être appliqué à la musique, la création littéraire, au droit, voire aux boissons gazeuses !
2002-02-19 11:10:34
New Scientist
http://www.newscientist.com/hottopics/copyleft/forumhome.jsp
La pratique du weblog, ce système permettant de publier instantanément toute sorte de textes, humeurs, brèves et états d'âme sur le Web est en train de devenir un véritable phénomène de société aux Etats-Unis ; au point d'émoustiller les éditeurs de la très sérieuse revue du MIT, Technology Review. Loin de mépriser ce mode de publication instantanée ouvert à tous et finalement très communautaire, la revue y voit une forme de renaissance du Web, et en accord parfait avec l'état d'esprit originel du réseau : un moyen de communication décentralisé et égalitaire, propre à créer ou plutôt re-créer un espace public de discussion ouvert et démocratique
2002-02-19 11:11:49
Technology Review
http://www.technologyreview.com/articles/print_version/jenkins0302.asp
Certains hackers se livrent à un nouveau sport : sillonner les villes à bord de camionnettes et s'introduire dans les réseaux sans fils des entreprises du coin. Ces réseaux ont en effet la particularité de porter au delà des bâtiments pour lesquels ils sont déployés et de n'offrir quasiment aucune sécurité. Cerise sur le gâteau, le réseau sans fil offre un accès anonyme à quiconque peut s'y connecter : il n'y a pas ici de fournisseur d'accès par lequel l'origine de l'intrusion peut être détectée. Matt Olson, un journaliste indépendant a accompagné quelques uns de ces hackers à roulettes dans leurs virées nocturnes. C'est à lire sur Alternet
2002-02-19 11:12:58
Aternet
http://www.alternet.org/story.html?StoryID=12406
La jeune société alsacienne Infostance, spécialisée dans la mise en oeuvre de technologies Intranet/Extranet pour les entreprises propose aux établissements scolaires un logiciel en "asp" pour le moins novateur : Scolastance. Une fois mis en place, ce système de gestion d'informations à destination de la communauté éducative est accessible par l'intermédiaire d'un navigateur web aux différents acteurs d'un établissement : administration, enseignants, élèves et parents, fournissant à chacun les moyens d'échanger les informations qui le concernent : notes, absences, cahier de texte, pages personnelles, emploi du temps, l'ensemble des informations propres à la vie scolaire sont ainsi facilement et automatiquement communiquées à qui de droit. Le système permet aussi de mettre en place des forums où les différents membres de la communauté peuvent envoyer ou publier des messages. Peu connu au sein du monde éducatif, Scolastance est actuellement utilisé ou en passe de l'être au sein de cinq établissements de la région de Mulhouse, pour un résultat qui doit encore être évalué. Il n'en est pas moins extrêmement prometteur.
2002-02-19 11:13:52
Scolastance
http://www.scolastance.com/pages/Accueil.asp
Gratuits et simples d’utilisation, les logiciels libres devraient être les plus à même de répondre aux besoins informatiques des administrations et établissements scolaires. L’expérience prouve que c’est loin d’être le cas, en particulier par manque d’information. Car les logiciels libres ne bénéficient pas du même matraquage publicitaire que leurs équivalents commerciaux. C’est à ce besoin d’informations qu’une équipe d’enseignants et formateurs de la région parisienne ont décidé de répondre en créant un annuaire des logiciels libres, spécialement pour l’éducation. Framasoft ne fait d’ailleurs pas que recenser plusieurs centaines de logiciels ; très pédagogique, le site explique en détails ce qu’est un logiciel libre, les problématiques liées à ce type de licence et renvoie aux textes incontournables sur le sujet
2002-02-24 14:20:01
Framasoft
http://www.framasoft.net
On y a vu apparaître censure, mouchards électroniques et firewalls politiques ; avec l’aide des plus grandes entreprises occidentales, Yahoo bien sûr, mais aussi, et cela se sait moins, Cisco et Network Associates. Conclusion d’Ethan Gutmann qui a écrit cette remarquable enquête pour le Daily Standard : « [cette situation] n’est pas due à un échec de l’architecture d’Internet, mais à celui des valeurs des grandes entreprises américaines. »
2002-02-25 20:42:12
Daily Standard
http://www.weeklystandard.com/Content/Public/Articles/000/000/000/922dgmtd.asp
La Cour Suprême des Etats-Unis vient, selon le New York Times, d’accepter le dépôt d’une plainte contre une des dispositions étendant la durée du copyright sur les textes, films et pièces musicales. Le plaignant n’est autre qu’un éditeur indépendant qui publie des oeuvres tombées dans le domaine public et qui a vu passer sous son nez, pour vingt ans de plus, un certain nombre d’œuvres qu’il attendait de pied ferme. En 1790 apprend-on, le copyright ne durait que 14 ans. Il est aujourd’hui de 70 ans après la mort du créateur, et de 95 ans s’il est détenu par une entreprise.
2002-02-25 20:47:00
New York Times
http://www.nytimes.com/aponline/national/AP-Scotus-Internet-Libraries.html?todaysheadlines=&pagewanted=print
C’est la conclusion d’un excellent article de Margaret Berry, rédactrice en chef de New Architect. L’auteur y fait une revue de détails des différents systèmes payants de distribution de musique en ligne : Pressplay, RealOne et consorts. Manifestement, les éditeurs obsédés par les questions de sécurité (ce n’est pas une nouveauté ! ) ont tout fait pour décourager l’utilisateur de recourir à leurs services. Car les systèmes de gestion des droits de reproduction (DRM en anglais) sont à ce point restrictifs qu’ils constituent de véritables casse-têtes pour l’internaute. Impossibilité d’écouter les titres ailleurs que sur un ordinateur, téléchargements à rallonge de programmes et plugins, abus commerciaux comme la mise en oeuvre de vente liée, sans parler des limitations ou interdictions de graver les titres téléchargés, tels sont quelques une des charges énumérées contre une industrie pour le moins myope.
2002-02-25 20:43:56
New Architect
http://www.newarchitectmag.com/documents/s=2452/new1011653160573/index.html
C’est la conclusion d’un rapport émanant de la commission européenne sur l’efficacité de l’accord conclu entre les Etats-Unis et la Commission Européenne sur le traitement des données personnelles en provenance du vieux continent par les entreprises américaines. Non seulement 154 entreprises seulement ont contresigné cet accord, mais en plus la moitié d’entre elles respecte les termes de l’accord. Pire encore révèle le rapport, si la plupart des autres entreprises ne l’ont pas signé, ce n’est pas nécessairement par mauvaise volonté, mais par manque d’information ! Un accusé dans cette affaire, la Federal Trade Commission qui ne fait pas son travail et qui n’a pas nécessairement les moyens légaux pour le faire respecter.
2002-02-27 20:02:55
Europemedia
http://europemedia.net/shownews.asp?ArticleID=8608
A lire, un article sur Alternet qui explique comment la Federal Communications Commission américaine qui supervise le marché des médias vient de faire sauter deux lois contraignantes qui empêchaient les concentrations, déjà importantes dans le secteur d’aller plus loin. Selon Lakshmi Chaudhry, ces nouvelles dispositions permettraient à AOL d’acheter NBC, et à Comcast d’acheter Disney. La FCC est dirigée par Michael Powell, qualifié par le webzine Salon de « l’homme des media borgs à Washington » ; celui-ci aurait déclaré que le marché est sa seule religion. Le marché ? Quel marché ?
2002-02-27 20:04:14
Alternet
http://www.alternet.org/story.html?StoryID=12451
C’est le titre d’un dossier très bien fait par l’ATICA, l’Agence pour les Technologies de l'Information et de la Communication dans l'Administration, sur les moyens mis à disposition des parents pour exercer un contrôle sur les contenus auxquels leurs enfants peuvent ou non avoir accès sur Internet. Très pédagogique et équilibré, le dossier explique bien les avantages et limitations de chaque méthode utilisée. Plus intéressant encore, le texte du dossier est librement reproductible à condition d’en citer la source. Un vrai travail de service public.
2002-02-27 20:05:50
Atica
http://www.atica.pm.gouv.fr/dossiers/documents/controle_parental2002.shtml
-MaJ Wired rapporte que le Conseil de l’Europe est en train d’élaborer un second protocole additionnel à son Traité contre la Cybercriminalité, définitivement adopté en novembre dernier. Ce second additif - le premier porte sur la criminalisation d’actes racistes ou xénophobes sur le réseau -, donnerait aux Etats des pouvoirs étendus pour traquer, décrypter et intercepter les communications électroniques entre groupes terroristes ou présumés tels. Le plus étonnant est la méthode employée par l’organisme international pour élaborer son texte. Reconnu implicitement par Peter Csonka, le chef de la division des crimes économiques du Conseil, ce travail est déclaré secret et le Conseil se refuse à en dévoiler le moindre détail, jusqu’au nom des participants du groupe de travail. Une méthode un peu étonnante pour un texte aussi important. Le 28 février, les associations signataires de la Global Internet Liberty Campaign ont adressé une [lettre->http://www.iris.sgdg.org/les-iris/lbi/lbi-280202.html] au Conseil de l'Europe signifiant leur réprobation et demandant des précisions.
2002-02-27 20:07:37
Wired
http://www.wired.com/news/politics/0,1283,50529,00.html
La lutte entreprise par les majors contre le “piratage” de la musique en ligne, et notamment contre Napster et ses avatars, le fut au nom de l’intérêt des artistes, prétendument grugés de leurs droits à rémunération par ces systèmes d’échanges gratuits. Les mauvais esprits soupçonnaient quelque prétexte fallacieux derrière ce type d’arguments. Une simple règle de trois vient de confirmer leurs suspicion : sur le système payant de distribution de musique en ligne Pressplay, chaque chanson téléchargée rapporte 0,0023 $ à l’artiste qui l’a créée. Pourquoi pas après tout, si les artistes avaient signé des contrats permettant de tels niveaux de rémunération. Le problème est qu’il n’en a rien été, et que les labels ont « vendus » les titres aux plateformes sans rien demander aux principaux intéressés. Furieux, les impresarios demandent que les titres soient immédiatement enlevés des sites Web, et envoient des lettres de type « cease-and-desist » aux compagnies exploitant ces systèmes. Exactement le même type de lettres que celles que ces mêmes compagnies envoyaient encore il y a quelque temps à Napster... Cherchez le pirate.
2002-02-27 20:08:46
New York Times
http://www.nytimes.com/2002/02/18/technology/18SONG.html?pagewanted=print
Objets d’un “buzz” étonnant, les Web Services sont aussi au centre de légendes tenaces ; à force d’entendre répéter partout que c’est la révolution du siècle, on finit par ne plus savoir de quoi il s’agit exactement. Le très sérieux cabinet d’études Gartner siffle la fin de la récréation en publiant une liste de ce que sera et ne sera pas, fera et ne fera pas la nouvelle technologie. Instructif...
2002-02-27 20:10:04
Gartner
http://www4.gartner.com/DisplayDocument?doc_cd=104567
L’Institut Netvalue vient de publier son bilan de l’Internet 2001. Il ressort de cette étude que le nombre de connexion à domicile a fortement augmenté en France au cours de l’année avec près de 10 millions d’internautes, soit 25% des foyers. Le nombre des connexions sur le lieu de travail reste stable. La France reste malgré tout derrière l’Allemagne et le Royaume-Unis pour le nombre de foyers connectés. La structure sociologique de la population connectée témoigne, selon Netvalue, de la maturité du marché, puisque le fossé hommes/femmes tend à se combler avec une répartition de 58 et 42 %. On notera enfin que le décollage du haut-débit se fait toujours attendre avec près de 10% des foyers connectés qui utilisent ces technologies.
2002-02-27 20:16:00
Cyperus
http://cl01.cyperus.fr/cyperusfr/FR/PressRelease.nsf/PressReleasesInternet/2002021515381247?OpenDocument
C'est le "scoop" livré par Newsforgeforge hier, et repris par Bloomberg. Selon le netzine spécialisé du logiciel libre, AOL serait sur le point d'abandonner l'utilisation d'Internet Explorer comme navigateur par défaut dans la prochaine version de son interface propriétaire, pour se tourner vers un logiciel « maison », basé sur le moteur Gecko développé par Netscape. On sait que Netscape a été racheté il y a quelques années par AOL, sans que jusqu?à présent la société de Dulles ait fait grand chose de son savoir-faire dans le domaine des navigateurs. Si l'information est confirmée, elle constituera un tournant majeur de l'histoire du Web, puisqu?à l'heure actuelle, la plupart des sites commerciaux sont optimisés exclusivement pour Internet Explorer qui domine largement le marché. Utilisé dans la nouvelle version de Netscape Navigator, Gecko constitue aussi le moteur du navigateur open-source Mozilla, très utilisé par les adeptes du système d?exploitation Linux. Il est peu probable cependant, précise Newsforge, qu?AOL déploie dans un futur proche une interface complète tournant sous Linux. Il n?en reste pas moins que le plus important des fournisseurs d?accès semble s?intéresser de très près à ce système d?exploitation qu?il utilise déjà massivement pour ses propres serveurs. On se souvient qu?il y a quelques semaines, la rumeur avait couru d?un possible rachat de Red Hat qui commercialise la plus importante distribution Linux, par cette société. Rumeur démentie par la suite, mais qui reposait probablement sur des discussions réelles entre les deux compagnies. Cette nouvelle information, qui demande encore à être confirmée, vient après les durs affrontements entre AOL et Microsoft à propos de Windows Media Player, actuellement distribué dans le kit de connexion d?AOL. Microsoft voulait empêcher AOL de distribuer dans le même kit le logiciel de son concurrent Real Networks, demande qui a provoqué la rupture des négociations entre les deux poids lourds de l'informatique. A ce jour, le contrat de distribution mutuelle qui arrive bientôt à échéance n?a toujours pas été renouvelé.
2002-03-12 12:49:20
Newsforge
http://www.newsforge.com/article.pl?sid=02/03/08/1957252&mode=thread
Ils sont des centaines de webmasters à avoir reçu ces lettres de menaces, dites « cease-and-desist », que l’industrie du copyright envoie à tous ceux qu’elle soupçonne d’enfreindre la très restrictive législation sur le droit de reproduction. Ils sont des centaines à être victimes de ce que l’Electronic Frontier Foundation appelle le « chilling effect » qui tend à restreindre considérablement la liberté d’expression. Car un grand nombre de ces lettres sont sans fondement juridique et ne visent qu’à terroriser des webmasters amateurs peu au courant de leurs droits. C’est pourquoi l’EFF, en collaboration avec les départements juridiques de plusieurs universités américaines vient d’ouvrir un site permettant aux webmasters de publier les lettres qu’ils ont reçu, de recevoir des conseils juridiques, en un mot, de ne pas rester isolés face à des moguls dont la puissance est écrasante. Accessoirement, l’EFF se propose sur ce site de jouer les météorologues et de prendre la température de l’activité juridique liée à Internet en jouant le rôle qu’elle tient depuis sa fondation de vigie des droits civiques dans l’espace électronique.
2002-03-05 00:19:20
Chilling Effect
http://www.chillingeffects.org/
Le logiciel de navigation Netscape 6 espionnerait le comportement de ses utilisateurs selon le magazine Newsbyte. C'est en tout cas ce qu'a découvert un informaticien hollandais lorsqu'il s'est aperçu que Netscape faisait tourner des scripts lorsqu'il lançait des recherches via sa barre d'adresse. Ainsi, à chaque fois qu'un internatue lance une recherche via la fonction " search " de la barre d'adresse, et quel que soit le mot recherché, Netscape envoie le mot clé accompagné de l'adresse IP de l'utilisateur ainsi que d'un identifiant unique à un serveur Netscape. Pour quoi faire ? se demandent les esprits chagrins. Pour établir des statistiques globales et anonymisées, répondent les responsables de la firme possédée par AOL, qui invoquent des besoins de facturation envers les sites partenaires auxquels le navigateur renvoie pas ce biais.
2002-03-12 22:36:38
Newsbyte
http://www.newsbytes.com/news/02/175035.html
C'est la mésaventure arrivée au quotidien suédois Aftonbaldet, parce qu'un de ses forums en ligne affichait des propos clairement antisémites publiés par un de ses lecteurs </SUMMARY> <ARTICLE>C'est la mésaventure arrivée au quotidien suédois Aftonbaldet, parce qu'un de ses forums en ligne affichait des propos clairement antisémites publiés par un de ses lecteurs. Erreur supplémentaire, les forums du journal sont modérés, ou censés l'être, mais sans doute dans des conditions désastreuses pour que le modérateur ait laissé passer une telle énormité. Il lui a fallu plusieurs jours pour se rendre compte de l'erreur et retirer le message. Trop tard, pour le tribunal qui a reconnu le responsable éditorial de l'édition en ligne du journal coupable de provocation à la haine raciale.
2002-03-12 22:38:04
The Register
http://www.theregister.co.uk/content/6/24352.html
Paceblade présentera lors du prochain Cebit, le plus important salon d'exposition pour les produits d'informatique personnelle, qui se déroulera à partir du 13 mars à Hanovre, son dernier produit révolutionnaire : le Pacebook, un ordinateur très particulier. Celui-ci peut en effet, grâce à son écran LCD détachable et tactile, faire office, tout à la fois, de portable, de tablet pc et d'ordinateur de bureau. Doté d'un processeur Crusoé cadencé à 600 Mhz, la bête est équipée de 128 Mo de mémoire vive ainsi que de tout ce qu'on est en droit d'attendre d'un véritable portable : slot pcmcia, disque dur de 10 Go, autonomie de 5 heures sur batterie lithium-ion. Mais le plus impressionnant est la combinaison entre l'écran de 12 pouces, détachable et utilisable en mode portrait ou paysage indifféremment, et le clavier à liaison infra-rouge, qui permet une utilisation véritablement nomade de cette machine. La merveille sera sans doute commercialisée aux alentours de 2000 $
2002-03-12 22:40:25
Paceblade
http://www.paceblade.com/new/index.html
Que se passe-t-il lorsque des serveurs de mailing lists sont branchés les uns sur les autres ? Une inondation de courrier électronique. Et lorsque les mailing lists sont configurées pour envoyer des messages de confirmation de réception ? Une boucle infernale qui dégénère en tsunami. C'est ce qui est arrivé récemment au malheureux responsable de la liste security@suse.com, qui traite des questions relatives à la distribution Linux Suse. Une personne malintentionnée ou étourdie a tout simplement retransmis tous les messages adressés à la mailing list d'un magazine féminin de Singapour sur cette liste de diffusion. Et comme cette personne a fait les choses en beauté, elle en a profité pour brancher une redirection automatique sur les mailing lists d'une vingtaine d'autre sociétés, pami lesquelles des listes d'inscription qui envoient des confirmations automatiquement ; lesquelles confirmations, refaisant le chemin inverse furent redistribués à tous les inscrits des autres mailing lists ; lesquels inscrits ont envoyé évidemment des mails pour protester contre cette avalanche de courrier ; lesquels mails ont été redistribués...et ainsi de suite jusqu'à ce que quelqu'un, de chez Suse justement ait eu la bonne idée de débrancher son serveur avant que celui-ci ne fonde un câble. Tout cela a un petit côté apprenti-sorcier des plus amusants.
2002-03-12 22:41:34
Zdnet
http://zdnet.com.com/2100-1105-848901.html
Strategic Lawsuit Against Public Participation : c'est ainsi que plusieurs associations de défense de la liberté d'expression américaines, parmi lesquelles l'Electronic Frontier Foundation appellent ces procès systématiques en diffamation que les entreprises engagent contre les individus qui les critiquent sur les forums de discussion en ligne. En fait, argumente dans Wired un avocat spécialisé dans ce genre d'affaires, la diffamation n'est que rarement caractérisée ; pour cela, il faut que le message posté évoque des faits précis qui s'avèrent faux. Nombre d'Etats considèrent que l'expression simple d'une opinion négative sur quelqu'un ou une entreprise ne peut constituer une diffamation. Il n'en reste pas moins que la plupart du temps, une lettre manaçant de procès suffit à tétaniser les détracteurs, qui savent encourir des dépenses financières bien au-dessus de leurs moyens. Le but est alors atteint : faire taire les critiques pour le prix d'un timbre.
2002-03-12 22:43:01
Wired
http://www.wired.com/news/business/0,1367,50548,00.html
C'est un sujet de plaisanterie connu parmi les utilisateurs de PC : les Pentium chauffent tellement qu'on pourrait faire cuire un oeuf dessus. Evidemment, il a bien fallu que quelqu'un fasse l'essai </SUMMARY> <ARTICLE>C'est un sujet de plaisanterie connu parmi les utilisateurs de PC : les Pentium chauffent tellement qu'on pourrait faire cuire un oeuf dessus. Evidemment, il a bien fallu que quelqu'un fasse l'essai, non pas avec un Intel mais avec un Athlon XP cadencé à 1500 Mhz, preuve si'il en était besoin que les processeurs AMD sont aussi performant que les Intel sur ce point. Et ça marche ! Trubador, le désormais célèbre geek qui a tenté l'expérience a publié toutes les photos sur le web. Son prochain défi ? Cuire le bacon avec.
2002-03-12 22:44:04
Photos
http://www.handyscripts.co.uk/trubador_egg.htm
On sait à quel point le deeplinking, le fait de renvoyer par hyperlien les lecteurs d'un article vers une page spécifique d'un site web externe, et non sa page d'accueil, est soumis à controverse. En France par exemple, le Geste, qui représente les intérêts des éditeurs professionnels de contenus en ligne, l'interdit formellement et n'est pas loin de considérer cette pratique courante sur le web comme une infraction à la loi sur la propriété intellectuelle. On se demande bien pourquoi, au vu d'un excellent article de Jakob Nielsen, gourou reconnu de la conception de sites Web : plein de bon sens, celui-ci montre en effet qu'il vaut mieux donner tout de suite aux internautes l'information qu'ils cherchent plutôt que de chercher à les ballader sur de multiples pages remplies de publicité avant de leur permettre d'accéder à ce qu'ils désirent. D'autant plus, assène Jakob Nielsen, que les sites Web sont tellement mal faits qu'ils perdent près de 27% de leurs visiteurs en cours de route. Conclusion du gourou de l'"usabilité " : " deeplinking is good linking " ; quitte à montrer sur chacune des pages de son site que celui-ci contient de nombreuses autres choses intéressantes (pour un exemple flagrant, regardez à droite).
2002-03-12 22:45:06
Useit
http://www.useit.com/alertbox/20020303.html
The Register rapporte que la commission en charge des achats informatiques pour l'administration dépendant du gouvernement britannique vient d'ouvrir son marché aux concurrents de Microsoft pour l'achat de suites bureautiques. Au Royaume-Uni, comme dans la plupart des autres pays, les fonctionnaires travaillent en effet exclusivement avec Microsoft Office. A la suite de la révision par la firme de Redmond de sa politique de licence, mais aussi parce que nombre d'ordinateurs publics sont trop obsolètes pour faire tourner les logiciels de la gamme XP, l'Office of Gouvernement Commerce donne désormais la possibilité à ses services de se fournir chez le concurrent Sun qui propose la suite Star Office. C'est une demi-victoire pour Sun et un demi-échac pour Microsoft dans la mesure où chaque service aura la possibilité de choisir entre les deux produits. Il s'agit cependant d'un changement important qui brise le quasi-monopole de Microsoft sur les ordinateurs du secteur public. Il est à mettre en parallèle avec la récente décision des municipalités danoises de passer à Linux, décision similaire à celle du Bundestag allemand. Et en France ?
2002-03-12 22:46:22
The Register
http://www.theregister.co.uk/content/4/24258.html
C'est le message que lance Andy Oram, un des principaux éditeurs de chez O'Reilly, spécialisé dans le domaine du peer-to-peer et des logiciels libres. Pour Oram, les conflits qui oppposent utilisateurs et éditeurs de contenus sur le Web autour de la question du copyright sont des archaïsmes qui doivent bientôt disparaître. Et de renvoyer les uns et les autres dos-à-dos en montrant que chacun utilise Internet comme un média du XXème siècle : une radio, une télévision ou un cinéma alors que le réseau n'est manifestement pas fait pour cela. Chaque technologie de communication génère sa propre forme de production culturelle argumente-t-il avec raison. Le cinéma, la chaîne Hi-fi et le livre sont bien plus adaptés à la diffusion de masse de films, musique et romans que notre écran d'ordinateur. C'est pourquoi il reste encore à produire une forme de création artistique qui soit adaptée au réseau, totalement différente de la bouillie pour chats que produisent majors et studios dans un continuel mouvement d'appauvrissement culturel. Un art continuellement " en progrès ", changeant continuellement, jamais définitf qui renouvellerait indéfiniment l'intérêt esthétique. Vaste programme ! mais pas des moins intéressants.
2002-03-12 22:47:33
O'Reilly
http://www.openp2p.com/pub/a/p2p/2002/03/08/media.html
-Communiqué de presse Les sites LinuxFrench.NET, Linuxfr.org, Portalux.com, KDE-France.org, NoCopyright.fr.st, gcu-squad.org, Independant Technologies, Planète Libre, TuxFamily ; Les associations AFUL, ALDIL, APRIL, Linux-Azur, Parinux, ALL. Appellent les consommateurs à refuser d'être victime des ventes forcées de logiciels, par le biais de ventes liées dites « OEM », lorsqu'ils achètent un ordinateur. Ces pratiques sont illégales, nous ne pouvons les faire cesser qu'avec l'aide des consommateurs. Nous appelons les consommateurs victimes de ces pratiques à saisir la direction de la consommation, de la concurrence et de la répression des fraudes en suivant la procédure décrite sur le document disponible à cette adresse : http://www.linuxfrench.net/oem/procedure/comment.html Les « consommateurs victimes de ces pratiques » sont : Ceux qui désirent acheter un PC sans Windows, et qui ont affaire à un commerçant leur imposant l'achat de Windows concomittant à celui du PC. Ceux qui désirent un ordinateur équipé de Windows en licence non-OEM, et qui ont affaire à un commerçant leur imposant Windows en licence OEM. Ceux qui veulent un devis détaillant le prix de l'ordinateur et de chacun des logiciels l'accompagnant - y compris Windows - afin de comparer des offres concurrentes mais qui ne peuvent l'obtenir. Nous invitons ces consommateurs à faire valoir leurs droits en saisissant la direction de la répression des fraudes à chaque infraction constatée. Nous demandons : à ce que l'État mette en oeuvre les moyens dont il dispose afin de faire cesser immédiatement ces infractions; à la DGCCRF de saisir l'autorité de régulation dans les meilleurs délais, afin qu'il soit statué clairement et définitivement sur le respect des règles élémentaires du marché et de la concurrence en matière de logiciels et systèmes d'exploitation pour ordinateurs personnels. à ce qu'une délégation représentant les utilisateurs de logiciels libres soit reçue par le Secrétaire d'État aux PME, au commerce, à l'artisanat et à la consommation. À l'heure où de nombreux hommes politiques s'expriment sur le concept de «l'impunité zéro», nous nous interrogeons sur le laxisme permettant aux géants de l'informatique de violer les fondements des droits de la consommation et de la concurrence en toute impunité.
2002-03-10 00:00:00
Linux French
http://www.linuxfrench.net/article.php3?id_article=857
Les pourriels, ce sont les messages de "spam" tels que les canadiens francophones les appellent. Ceux-ci, révèle Jean-Pierre Cloutier dans sa "Chronique de Cybérie" du 26 février, représentent près de 20% de la consommation totale de bande passante. J.P. Cloutier nous explique au passage comment les entreprises spammeuses font pour collecter des adresses électroniques. On est aujourd'hui bien loin du simple relevé sur des forums de discussion, puisque ces entreprises utilisent désormais des "robots renifleurs" qui parcourent les pages web à la recherche d'adresses ou même, génèrent automatiquement ces adresses en mélangeant arbitrairement des suites de lettres. Le nombre d'adresses est tel et le coût d'envoi si peu élevé que cette méthode à l'aveugle est encore rentable !
2002-03-13 21:59:33
Chroniques de Cybérie
http://cyberie.qc.ca/chronik/20020226.html#c
C'est ce que vient de montrer une étude conduite au département d'économie de l'université du Michigan sur deux groupes d'étudiants suivant le même cours de micro-économie, les uns en ligne, les autres en face-à-face. L'étude montre que les résultats du groupe de cyber-étudiants sont de 10% inférieurs aux autres, ce qui est cosidéré comme suffisant pour ne pas être un artefact statistique. Un autre aspect de l'étude est plus intéressant encore : il montre que les étudiantes en ligne ont aussi bien réussi que les camarades masculins, ce qui est rarement le cas dans une classe physique. Pourquoi ? Une des hypothèses est qu'elles échappent alors aux effets d'intimidation que déploient involontairement (ou volontairement) les garçons en classe.
2002-03-13 22:09:52
The Chronicle of Higher Education
http://chronicle.com/free/2002/02/2002022501u.htm
Technology Review publie cette semaine un article sur un projet soutenu par le MIT et appelé "Oxygène" : il s'agit d'explorer les possiblités ouvertes par la dissémination dans l'environnement quotidien de multiples puces travaillant de concert pour atteindre un objectif donné. Ainsi, outre la conception d'un microprocesseur non dédié à basse consommation destiné aux appareils nomades, les laboratoires du MIT développent des systèmes de repérage en intérieur à partir des signaux croisés qu'émettent des puces réparties dans un bâtiment, ou encore la possibilité pour un écran de s'adapter automatiquement à la vision d'un individu à partir de signes analysés par un logiciel de reconnaissance faciale. Une brève vision de noitre futur donc.
2002-03-19 00:01:02
Technology Reviw
http://www.technologyreview.com/articles/brown022502.asp
A lire dans le Washington Post, le point de vue exprimé par Jack Valenti, président de Motion Picture Associations à propos du piratage sur Internet. Dans cette tribune, le représentant le plus en vue du lobby cinématographique américain répond à Lawrence Lessig en expliquant que son industrie est trop fragile pour supporter le coût du piratage...et qu'elle a besoin de l'aide des constructeurs de matériel informatique pour protéger ses oeuvres. Cet article intervient en pleine polémique sur le projet de loi actuellement en discussion au Congrès qui prévoit d'interdire la fabrication et la vente de matériels permettant la reproduction illégale de contenus protégés par copyright.
2002-03-19 00:04:28
Washington Post
http://www.washingtonpost.com/wp-dyn/articles/A62085-2002Feb24.html
C'est ce qu'a déclaré récemment Don Box un des responsables du développement de la plate-forme .Net, reposant sur le concept de Web Service. Le protocole inventé par Tim Berners-Lee argumente-t-il est en effet peu adapté à l'implémentation de ce type de systèmes : asymétrique, il repose sur une architecture serveur-client aujourd'hui dépassée. Reconnaissant la solidité du protocole, dont le principal avantage est qu'il est indépendant de toute plate-forme propriétaire, , Don Box ajoute donc que la crédibilité d'une alternative quelconque à HTTP devra passer par une interopérabilité maximale entre les solutions adoptées par les grands acteurs du Web Service. Une gageure...
2002-03-19 00:05:54
Zdnet
http://zdnet.com.com/2100-1105-845220.html
Mysql AB, la société éditrice de la base de donnée "open source" du même nom a intenté une action en justice contre la société Progress Software Corporation parce que celle-ci a distribué une version commerciale de mysql qui viole la licence GPL régissant ce programme : une des premières versions de la base de données distribuée par Progress Softwre n'a pas été accompagnée de son code-source, ce qui est obligatoire selon les termes de la licence publiée par la Free Software Foundation. Et même si cette erreur fut réparée par la suite, la société a alors perdu tous ses droits sur le code, argumentent les avocats de mysql AB. Les juristes de la FSF sont appelés à la barre en qualité de témoin.
2002-03-19 00:07:20
The Register
http://www.theregister.co.uk/content/4/24219.html
Quelle est l'entreprise qui a le plus contribué à l'innovation dans le domaine informatique au cours de ces dernières années ? Microsoft ? Intel ? Cisco ? Perdu ! C'est la chaîne de supermarchés Wal-Mart estime Michael Schrage dans un excellent article pour Technology Review. Le monstre américain du commerce de détail, par sa puissance de feu en termes d'investissements fut en effet l'acteur le plus à même d'imposer, directement ou indirectement des standards de production et de tarifs à ses partenaires. Dans un récent rapport sur les gains de productivité aux Etats-Unis dans les cinq dernières années du siècle, le prix nobel d'économie Robert Solow, a d'ailleurs montré que l'aggressivité de Wal-Mart sur les prix durant cette période eut des conséquences très importantes en obligeant ses concurrents et fournisseurs à s'aligner. D'où le recours massif à l'informatisation dans la chaîne logistique qui donna un coup de fouet considérable à l'industrie de ce secteur. Conclusion de l'auteur, la loi de Moore n'est vraie dans la Silicon Valley que pour autant qu'est vérifiée la loi de Wal-Mart dans l'Arkansas.
2002-03-19 00:08:46
Technology Review
http://www.technologyreview.com/articles/schrage0302.asp
Ces dernières années, les offres commerciales de bureaux virtuels se sont multipliées, fournissant aux travailleurs nomades un accès immédiat et universel à leurs documents personnels, quel que soit le lieu où ils se trouvent. La notion d'espace virtuel de travail collaboratif est moins avancée d'un point de vue commercial. C'est une bonne raison pour évoquer l'offre de Mayetic Village qui propose gratuitement un espace de 200 Mo aux communautés professionnelles qui souhaitent gérer en ligne leur projets. Mayetic Village leur offre une gamme étendue de services qui vont de la classique messagerie jusqu'au suivi des révisions de documents en passant par le calendrier partagé et la mise en place de salles de réunions virtuelles. L'offre gratuite propose une interface standard qui peut être personnalisée et complétée contre paiement. Les "eCommunautés" ainsi créées peuvent bénéficier d'une interface publique par l'intermédiaire de laquelle elle peuvent publier des informations en direction de l'extérieur.
2002-03-19 00:10:20
Mayetic Village
http://www.mayeticvillage.fr/home.nsf/Pages/HomePage
On savait à quel point les produits commercialisés par la firme Apple faisaient l'objet d'un véritable culte de la part de leurs utilisateurs. Avec le dernier i-mac, le culte est en train de tourner au fétichisme hard. Wired rapporte qu'étant donné les ratés de la chaîne de production et l'allongement des délais de livraison (qui peuvent être suivis étape par étape sur le site Apple), le petit bijou est attendu comme le Messie dans les familles américaines. Et le déballage de ce qui n'est tout de même qu'un ordinateur donne lieu à des "unpacking party" avec invités, cérémonial, bouteille de vin (signe non ambigü qu'il s'agit d'un moment "spécial") et grandes pompes. On prend des photos et on les placent sur un site Web spécialement dédié au bébé bien sûr. Est-ce bien raisonnable ?
2002-03-19 00:12:06
Wired
http://www.wired.com/news/mac/0,2125,50384,00.html?tw=wn20020301
Gestion chaotique du DNS, absence de cryptographie, folie du .com, pour Bob Frankston, un des co-inventeurs de Visicalc et un des anciens dirigeants de Lotus, Internet est très mal parti. Dans un article dont le ton est proche du weblog, il fustige les évolutions actuelles du réseau et dresse la liste des résolutions qui pourraient le sauver : 1. Développer la "connectivité" en en retirant le monopole à l'industrie des télécommunications qui ont tout intérêt à en organiser la rareté 2. Déployer IPv6 maintenant et cesser d'attendre indéfiniment, afin de pouvoir attribuer à chacun une "adresse réelle", ce qui est l'objectif, par exemple, du projet Enum 3. Généraliser l'usage de la cryptographie 4. Séparer distinctement les tâches de gestion du DNS (techniques) de celles qui concernent les noms de domaines et qui relèvent du marché. Un point de vue original que l'on peut retrouver sur le site d'opinion qu'il anime avec d'autres vétérans de l'informatique, SATN
2002-03-19 00:13:32
SATN
http://www.satn.org/about/missinginternet.htm
C'est la conclusion que l'on peut tirer de la lecture d'un article de l'agence Associated Press diffué par CNN. P3P est un protocole développé par le W3C permettant de labelliser les politiques de confidentialité mises en oeuvre par les sites Web. L'originalité de P3P est de formaliser ces politiques et de les transformer en un langage compréhensible pour les logiciels. D'où la possiblité d'un marquage automatisé des sites Web pour ce qui est de la manière dont ils traitent les données personnelles de l'utilisateur. Internet Explorer 6 par exemple est un des premiers navigateurs à l'utiliser en partie. Les critiques à l'encontre de P3P sont nombreuses, à commencer par celle qui évoque le sentiment fallacieux que la sécurité des données personnelles repose entièrement sur la technique ; il n'en est rien car P3P n'est qu'un dispositif de signalement, pas une protection.
2002-03-19 00:14:51
CNN
http://www.cnn.com/2002/TECH/internet/03/16/privacy.labels.ap/index.html
C'est le tableau que tente de dresser Kevin Kelly dans la partie magazine du New York Times, avec un remarquable article qui explore toutes les possibilités d'évolution dans le nouveau contexte technologique. Sa théorie ? La musique est en train de subir une triple révolution dont le syndrome Napster n'est que la moindre des conséquences : car si la révolution numérique autorise une reproduction parfaite et pour un coût nul des créations musicales, elle autorise aussi chacun à recréer ces oeuvres, à les personnaliser en les modifiant, que ce soit au niveau des sonorités, des rythmes ou de l'ordre des pistes. Et s'il faut chercher un modèle économique pour ce nouvel âge de la musique numérisée, il est clair pour l'auteur qu'il ne pourra plus reposer sur la simple reproduction à grande échelle, désormais accessible à tous. Plusieurs activités jusqu'à présent périphériques feront l'objet d'une contre-partie financière : la personnalisation, l'authenticité ou la sélection. Cette évolution implique de la part des éditeurs un effort de redéfinition de leur activité, effort qu'ils ne souhaitent pas encore entreprendre. Parallèlement, Kevin Kelly montre combien la numérisation musicale constitue une opportunité pour une réappropriation individuelle de la musique et le déploiement d'un éternel processus de recréation de l'oeuvre par des milliers d'auditeurs actifs. A l'exact opposé de la vision que proposent les majors de l'industrie du disque qui ne savent pas sortir d'un modèle de consommation passive et stérile, il montre que la valeur d'une oeuvre passe par sa fécondité et sa capacité à être reprise, modifiée, déformée, appropriée. La définition même de la culture en somme.
2002-03-19 00:16:26
New York Times
http://www.nytimes.com/2002/03/17/magazine/17ONLINE.html?todaysheadlines
Manuel Castells est professeur de sociologie et de planification urbaine et régionale depuis 1979 à l'université de Californie à Berkeley. Il a enseigné pendant 10 ans à l'Ecole des hautes études en sciences sociales (EHESS) à Paris. Docteur en lettre de l'université de Paris-V, il a publié 20 livres en plusieurs langues et a enseigné comme professeur invité dans une quinzaine d'universités en Europe, Amérique du Nord, Amérique latine, Asie. Castells a publié une vingtaine d'ouvrages dont les trois tomes de sa trilogie consacrée à L'ère de l'information: - Volume 1 : La société en réseaux, Fayard, 1998 (nouvelle édition en 2001). - Volume 2 : Le pouvoir de l'identité, Fayard, 1999. - Volume 3 : Fin de millénaire, Fayard, 1999.]]
2002-03-19 21:53:44
La galaxie Internet
http://www.homo-numericus.bonidoo.net/article.php3?id_article=124
A l'occasion de la Fête de l'Internet, la ville d'Angoulême a pris une belle initiative saluée à juste titre par Da Linux French Page : la municipalité a distribué pas moins de 26000 CD contenant une cinquantaine de logiciels libres accompagnés de liens et d'explications pour les non-initiés. On peut d'ailleurs retrouver ces ressources sur le site de la ville qui tourne évidemment sous Spip.
2002-03-25 21:50:29
Linuxfr
http://linuxfr.org/2002/03/22/7677,0,1,0,0.html
Cette année encore, le Ministère de l'Economie et des Finances propose aux internautes contribuables d'effectuer leur déclaration de revenus en ligne. Mais cette année est la première où ce type de service connaît une telle popularité. Avec près de 100000 télédéclarations, Laurent Fabius peut s'estimer satisfait par comparaison avec les 17000 déclarations de l'année dernière. De toutes les administrations, le Minefi est celle qui s'est le plus investi, et le plus tôt, dans le développement de services en ligne. Un effort aujourd'hui couronné de succès, d'autant qu'il offre une simplification appréciable des démarches administratives.
2002-03-25 22:13:11
AFP sur Yahoo
http://fr.news.yahoo.com/020325/1/2j1es.html
C'est la question dont débattent actuellement les industriels du diverstissement devant le congrès américain. Dans le contexte d'un projet de loi visant à rendre obligatoire l'utilisation de dispositifs anti-copie sur le territoire américain, les dirigeants de Disney, Newscorp d'un côté, AOLTime Warner de l'autre semblent en profond désaccord sur la conduite à adopter pour lutter contre le piratage des contenus numériques. Pour les uns, le Congrès doit intervenir en l'absence d'accord avec l'industrie manufacturière de produits électroniques, pour les autres, le secteur est tout à fait capable de régler cette question par lui-même.
2002-03-26 22:41:18
Washtech
http://www.washtech.com/news/regulation/15678-1.html
Avec l'explosion de la bulle spéculative et l'effondrement de la rémunération des bannières on avait cru avoir contenu l'inflation publicitaire sur le Web. Funeste erreur ! Cnet rapporte que les publicitaires concoctent et mettent déjà en place de nouveaux formats publicitaires s'appuyant de plus en plus sur du "rich media". Vendus plus chers, c'est nouveaux espaces publicitaires recourant massivement à la vidéo et à l'animation flash ont pour objectif de se rapprocher le plus possible des publicités télévisées.
2002-03-26 22:42:52
Cnet
http://news.com.com/2100-1023-860769.html
Microsoft prépare un nouveau système de fichiers révolutionnaire annonce Cnet dans un dossier spécial fort bien fait : plutôt que définir un format de fichier par application, Windows stockerait à l'avenir tous les fichiers Microsoft, en particulier ceux édités par la suite bureautique Office dans une base de donnée de type Sql. Ce changement radical dans la gestion des fichiers aurait de nombreux avantages, dont celui de préparer la voie à la future plate-forme de web services développée par le même Microsoft. Autre avantage non négligeable pour la firme de Redmond s'inquiète Newsforge, les fichiers deviendraient totalement illisibles pour d'autres applications concurrentes : l'utilisateur est "coincé" par son système d'exploitation, et à terme, perd même de vue la notion de fichier. On retrouve ici une loi universelle du développement de logiciels : plus de simplicité est égal à moins de choix et de concurrence. [Newsforge->http://reports.newsforge.com/article.pl?sid=02/03/22/204220]
2002-03-26 22:44:15
Cnet
http://news.com.com/2009-1017-857509.html
On savait que le Consumer Broadband and Digital Television Promotion Act (CBDTPA) proposé par la sénateur Fritz Hollings doit obliger tous les contructeurs de matériel informatique à y intégrer des dispositifs anti-copie sous peine de poursuites. Declan McCullagh révèle dans Wired que ces dispositions très restrictives pourraient s'appliquer en fait à tout ce qui se passe à l'intérieur d'un ordinateur, et donc aux logiciels aussi, selon une lecture extrême mais pas improbable du projet de loi. Les principales victimes en seraient évidemment les programmeurs qui devraient obligatoirement intégrer à leur code un dispositif agréé par l'administration fédérale. Pire encore, télécharger à l'étranger un programme non homologué serait aussi passible de poursuites criminelles en toute logique. Autant dire qu'un vent de révolte souffle aux Etats-Unis où certains commencent à dénoncer ce qui s'apparente de plus en plus à l'érection d'un véritable pare-feu informationnel autour du territoire américain.
2002-03-26 22:47:32
Wired
http://www.wired.com/news/politics/0,1283,51274,00.html
C'est le truc que vient de trouver un internaute de l'Oregon, fatigué de recevoir quotidiennement des messages publicitaires en provenance d'une entreprise. Commme il n'arrivait évidemment pas à se désabonner de leur liste de diffusion - pour laquelle il ne s'était jamais abonné, il a décidé un jour de facturer à cette entreprise 25$ par e-mail envoyé, pour rémunérer son temps de téléchargement et de lecture, avant de porter plainte devant un tribunal de Portland. Apparemment, selon les lois de l'Oregon, qui ne dit mot consent, car avant que l'affaire n'en vienne à être jugée, l'entreprise en question a accepté un réglement à l'amiable d'une hauteur de 5000$ ; ce n'est pas une fortune, mais l'affaire constitue une victoire de principe. Conclusion de l'internaute malin : "si vous voulez que les entreprises vous laissent tranquille, ne les attaquez pas à la gorge mais au porte-monnaie. Il y a toutes les chances pour qu'elles vous entendent."
2002-03-26 22:49:10
Oregonlive
http://www.oregonlive.com/news/oregonian/margie_boule/index.ssf?/xml/story.ssf/html_standard.xsl?/base/living/101654257012015148.xml
L'évolution devenait évidente : depuis plusieurs mois, les problématiques de ceux qui cherchent à promouvoir l'utilisation de logiciels libres et de ceux qui cherchent à défendre la liberté d'expression sur le réseau devenaient de plus en plus communes. Des lois comme le Digital Millenium Act ou des projets comme le SSSCA s'attaquent à l'un et à l'autre. Depuis l'emprisonnement de Dimitri Sklyarov et surtout le procès de 2600, les défenseurs américains des droits civiques tendent à trouver une parade à la législation sur le copyright en se réfugiant derrière le premier amendement à la constitution américaine : le code informatique devient donc un "discours" protégé à ce titre comme les autres. Ces derniers jours, la Free Software Foundation qui s'attache à défendre le logiciel libre a décidé de soutenir le projet "Digital speech" animé en particulier par Jonathan Watterson, désormais salarié par la Fondation
2002-03-26 22:50:59
Digital Speech
http://digitalspeech.org/index.html
C'est ce que révèle une étude menée par Netvalue sur le mois de décembre 2001 et janvier 2002. Avec près de 550 millions de mails envoyés et reçus, les foyers britaniques sont aussi les champions d'Europe du courrier électronique, bien devant les Français et les Allemands. Reste à savoir combien de messages publicitaires se sont glissés dans une masse aussi énorme.
2002-03-27 14:49:42
Nua
http://www.nua.ie/surveys/index.cgi?f=VS&art_id=905357770&rel=true
L'Internet Content Rating Association qui se définit comme une sorte de consortium réunissant plusieurs gros producteurs de contenus, vient de mettre en ligne sur son site Web un nouveau logiciel de filtrage. Reposant sur le protocole PICS, ce logiciel qui peut s'installer directement dans le navigateur de l'utilisateur bloque l'accès à des contenus offensants pour les enfants. La méthode de filtrage mise en oeuvre est nécessairement efficace : elle repose sur l'auto-étiquetage des sites Web qui doivent s'inscrire auprès de l'association pour obtenir un label. Reste à savoir si les responsables des sites suivront et iront se déclarer auprès de l'ICRA.
2002-03-27 14:54:12
Zdnet
http://news.zdnet.fr/cgi-bin/fr/printer_friendly.cgi?id=2106976
Entendu dans le cadre du procès Microsoft, un responsable d'AOL souhaiterait, selon Washtech, que les sanctions prises par les états contre la firme de Redmond autorisent les entreprises à produire et vendre des versions du célèbre système d'exploitation adaptées à leurs propres couleurs . Cette mesure offrirait aux consommateurs un choix plus large correspondant à leurs centres d'intérêt. Elle empêcherait en outre Microsoft de profiter de sa position dominante sur le secteur des systèmes d'exploitation pour imposer ses propres logiciels dans d'autres domaines. Cette "solution" constitue sans doute la pire des options pour Redmond, qui craint la réduction de son système d'exploitation au rang de "matière première" (commodity).
2002-04-04 20:34:46
Washtech
http://www.washtech.com/cgi-bin/udt/WTW.PRINT.STORY?client=washtech-test&storyid=15986
Chirac, Jospin, Mamère, Hue, Laguillier, ils ont tous leur site Internet. L'actuelle campagne présidentielle fait la part belle à Internet pour ce qui est de la communication électorale, au prix de quelques dérapages qui ont donné lieu à des rappels à l'ordre de la part de la CNIL. Le Forum des Droits sur l'Internet s'attaque à son tour au sujet en constituant un dossier de référence que pourront consulter les internautes soucieux d'équité dans le débat politique.
2002-04-04 21:50:55
Forum des Droits sur Internet
http://www.foruminternet.org/publications/lire.phtml?id=279
Quel est le droit applicable aux logiciels informatiques ? Quelle est la portée de la récente proposition de directive de la Commission européenne qui a déclenché la colère des défenseurs du logiciel libre ? Thibault Verbiest, avocat et consultant fait le point sur la question dans les colonnes du Journal du Net, en un article très clair et sans parti-pris.
2002-04-04 22:20:44
Journal du net
http://www.journaldunet.com/juridique/juridique.shtml
Le dernier disque de Céline Dion, édité par Sony, est équippé du système de protection Key2audio qui corrompt les informations de session le rendant illisible sur ordinateur. L'information n'aurait rien de nouveau si l'on n'apprenait par l'intermédiaire du Hollywood Reporter qu'il est aussi conçu pour faire crasher l'ordinateur de l'utilisateur. Possesseurs d'un Mac, ne vous réjouissez pas trop vite. Car on apprend que les ordinateurs Apple subissent le même sort ; voire pire puisqu'une fois dans le lecteur, le CD ne peut plus être éjecté selon la procédure normale. C'est une punition ?
2002-04-04 22:39:56
Hollywood Reporter
http://www.hollywoodreporter.com/hollywoodreporter/music/article_display.jsp?vnu_content_id=1456095
Une étude à retenir en pleine "affaire Meyssan" qui a vu certains grands journaux attaquer Internet commme source d'information crédible : la société de conseil Hopscotch a demandé à 418 journalistes de plusieurs pays quelles étaient leurs sources d'information ; c'est Internet qui vient en tête, avant les réseaux personnels et les journaux. Cette étude montre donc que les journalistes, même les Français, sont de grands utilisateurs d'Internet qu'ils utilisent essentiellement pour chercher des informations précises
2002-04-06 15:35:45
Hopscotch
http://www.hopscotch-europe.com/fr/etudes/index.html
Cnet rapporte qu'Overture, une des plus importantes compagnies commercialisant des technologies de recherche d'information en syndication vient de porter plainte contre Google, le plus important moteur de recherche pour violation d'un de ses brevets industriels. Ce procès intervient alors que la plupart des moteurs de recherche, dont Google, développent des services payants de référencement qui garantissent, dans ce dernier cas, la mise en valeur de liens associés à des mots-clés. La particularité du brevet déposé par Overture est de protéger une "business method" de manière très large, au même titre que le one-click-shopping breveté par Amazon, qui a récemment provoqué un débat considérable aux Etats-Unis. Une affaire propre à relancer la polémique sur le sujet, dans la mesure où, selon certains juristes, elle pourrait menacer la simple mise en oeuvre de référencement payant sur laquelle Overture prétend avoir des droits.
2002-04-06 23:30:03
Cnet
http://news.com.com/2100-1023-876861.html
Wired raconte comment trois anciens programmeurs et développeurs de jeux vidéo ont un jour décidé de mettre leur talent au profit de la création artistique en créant des scènes animées et interactives dans des musées et galleries. [Shadow Garden->http://www.mine-control.com/], une de leurs oeuvres les plus réussies, permet aux visiteurs de modifier en déplaçant leur ombre la représentation d'éléments naturels projetée sur les murs d'une pièce.
2002-04-06 23:54:51
Wired
http://r.hotwired.com/r/wn_headlines/http://www.wired.com/news/culture/0,1284,51223,00.html
Michelle Dellio fait le point dans Wired sur les récentes mesures prises par les entreprises de services Web pour accroître leurs profits. Première victime, le respect de la vie privée de leurs utilisateurs dont les données personnelles sont désormais exploitées sans vergogne ; avec une déferlante de pub ciblée et intrusive qui pointe à l'horizon ; un horizon pas si lointain d'ailleurs. En témoigne le nouveau logiciel "Ooqa Ooqa" développé par United Virtualities, qui permettra aux annonceurs d'insérer leurs écrans publicitaires dans la barre d'outil du navigateur et de modifier les favoris et préférences Internet des utilisateurs.
2002-04-07 00:06:10
Wired
http://r.hotwired.com/r/wn_headlines/http://www.wired.com/news/privacy/0,1848,51520,00.html
Avec les fulgurants progrès technologiques qu'a connus cette industrie depuis dix ans, les jeux vidéo sont devenus incroyablement réalistes. Mais le jeu en vaut-il la chandelle, se demande le New York Times. L'intérêt du jeu découle en effet souvent de sa capacité à s'abstraire de la réalité, à définir un univers de jeu simplifié, dont les règles sont arbitraires et l'environnement maîtrisable. Un jeu aussi réaliste que Flight Simulator 2 est-il toujours aussi amusant ? L'est-il plus que les jeux d'arcade comme Mario Bros ou Pacman qui sont simplissimes et qui ont connu (et connaissent encore) un succès quasi-universel ? De bonnes questions qui dessinent en creux une des critiques les plus pertinentes de la tendance actuelle dans cette industrie et dépassent enfin l'éternel faux débat sur la question de la violence.
2002-04-07 21:45:07
New York Times
http://www.nytimes.com/2002/04/06/arts/design/06VIDE.html?todaysheadlines
Salon.com rapporte une étonnante hitoire à propos d'une liste de discussion américaine dont les participants ont été accusés devant la justice pour avoir critiqué une entreprise commercialisant...des plantes d'aquarium. L'affaire remonte à un mail diffusé sur la liste dans lequel un client malheureux de Pets Warehouse se plaignait d'un retard de livraison pour des produits achetés dans cette entreprise. Un fil de discussion s'ensuivit dans lequel plusieurs dizaines d'abonnés donnèrent leur avis sur la question. Mal leur en a pris, car le vendeur d'algues a décidé de traîner tout le monde, y compris l'hébergeur de la liste, en justice pour diffamation et "conspiration" contre son entreprise. Et nombre d'entre eux, effrayés par les frais de justice durent faire amende honorable.
2002-04-07 22:44:23
Salon
http://www.salon.com/tech/feature/2002/04/04/aquatic_plants/index.html
Mauvaise nouvelle pour le Ministère des Finances : même à prix cassé, les opérateurs étrangers, commme Deutsche Telekom ne veulent pas candidater pour les licences du téléphone de troisième génération. Le motif, rapporte Silicon.fr, en est la mainmise de l'opérateur historique sur le marché global des télécommunications françaises. Et François Maire, le président de DT France, d'évoquer le marché du haut débit qui reste désespérément fermé à la concurrence. Coup de bluff de la part de l'opérateur allemand qui espère lier UMTS et ADSL en frappant au portefeuille ? Possible.
2002-04-08 14:13:41
Slicon.fr
http://www.silicon.fr/a5466
C'est la question que se pose News.com dans un excellent article qui rend compte d'une récente étude réalisée par Forrester. Les experts du cabinet d'études se sont en particulier interrogés sur la notion de "customisation" des produits, censée apporter un avantage non négligeable au commerce en ligne par rapport à son équivalent off-line. Or, constatent-ils, la possibilité de personnaliser chaque produit que l'on achète est loin d'être rehcerhcée par tous les consommateurs, et surtout pour tous les produits. L'information est le type même de produit personnalisable ; mais pas les voitures, à la fois pour des raisons techniques et de rentabilité. L'entreprise Dell, universellement citée pour son système de vente d'ordinateurs sur mesure vent en fait essentiellement des produits standards. Et ainsi de suite pour montrer que l'avenir porche du commerce électronique résidera certainement dans la vente sur catalogue, à l'ancienne.
2002-04-08 16:11:59
Cnet
http://news.com.com/2009-1017-871917.html
Ou plutôt son passionara ; car il s'agit de Russel McOrmond, un consultant spécialisé dans le logiciel libre, prêt à "aller en prison" pour regarder des DVD sous Linux. Les logiciels de lecture sous Linux utilisent en effet le fameux DECSS pour decrypter les DVD commerciaux, dotés de fonctionnalité anti-piratage. L'utiliser constitue donc, au regard de la législation américaine par exemple, une infraction à la loi sur le copyright, et singulièrement au fameux DMCA qui a fait couler tant d'encre. Or, le Canada s'apprête a adopter une législation similaire, ce qui fait bondir notre "croisé anti-coypright" comme l'appelle l'Ottawa Citizen qui explique par ailleurs très bien la plus récente actualité sur la question du copyright.
2002-04-08 16:38:41
Ottawa Citizen
http://www.canada.com/ottawa/ottawacitizen/specials/business/story.html
La cour d'appel de Paris vient de condamner l'éditeur d'un site pornographique français à 30000 euros d'amende pour filtrage insuffisant à l'égard des mineurs. Le tribunal a en effet considéré que la mise en place d'un texte d'avertissement sur la page d'accueil du site était insuffisante et ne constituait pas une mesure de filtrage efficace. Une décision importante dans la mesure où la majorité des sites de cette nature, surtout lorsqu'ils sont personnels, ne mettent pas en place de telles mesures.
2002-04-08 17:01:25
Silicon.fr
http://www.silicon.fr/a5459
Soucieuse d'offrir un maximum de sécurité à l'acte d'achat en ligne, la Société Générale vient de lancer un nouveau service associé à la carte bleue dont disposent ses clients. Cette "e-carte bleue" est en fait un logiciel qui crée une nouvelle carte virtuelle pour chaque acte d'achat, dotée d'un numéro à usage unique. Ceci évite en particulier que le numéro d'identification des cartes soit utilisé par la suite frauduleusement. L'idée est astucieuse ; les conditions de mise en place du système le sont tout autant : la Société Générale facture en effet 0.5 € sur chaque transaction en sus de "frais d'activation" d'un montant de 6 € payables une fois, alors que le service lui profite au premier chef ; les banques oublient en effet souvent de préciser qu'elles sont tenues de rembourser les sommes débitées en cas d'utilisation frauduleuse d'un numéro de carte bleue en l'absence de signature physique de son détenteur.
2002-04-10 23:13:17
Société générale
http://www.socgen.com/sdp/opencpfr.html?ID=F19B571CFA4303BEC1256B950052E772
Les deux principaux câblo-opérateurs français sont à vendre, nous apprend Le Monde. Noos, détenu par le groupe Suez et NC-Numéricâble, filiale de Canal+ (et donc du groupe Vivendi Universal) seraient ainsi sur le point d'être cédés par leur maison-mère. A qui ? Mystère pour le moment, même s'il est probable qu'il s'agisse d'investisseurs américains : AOL ou Lyberty Media. Ces grandes manoeuvres ne sont pas sans conséquence pour le futur. On rappelera notamment que le câble est déjà aux Etats-Unis le vecteur privilégié de la convergence numérique permettant de faire passer dans les même tuyaux tous les contenus. Or, sur ce point, Noos est sans doute l'opérateur le plus avancé en France, comme nous le constations déjà lors du lancement de son service de vidéoclub en ligne. Et s'il est clair que Vivendi ne laissera pas son principal concurrent, Aol, prendre le contrôle de Numéricâble, il ne peut rien faire pour Noos, qui offre quand même une solide base de 100000 connectés à Internet, et de 900000 clients. Et dans la mesure précisément où le développement de l'ADSL est durablement bloqué par le maintien de facto du monopole de France Telecom, le câble constitue en France un vecteur privilégié de diffusion de l'accès haut-débit.
2002-04-10 23:28:00
Le Monde
http://www.lemonde.fr/imprimer_article/0,6063,269442,00.html
C'est ainsi que Cnet appelle ces publicités d'un nouveau genre qui s'installent automatiquement avec le téléchargement d'un logiciel. Le logiciel Kazaa a récemment fait l'objet d'une vive polémique parce qu'il recelait un deuxième logiciel caché dont un des objectifs, une fois activé, est d'afficher des publicités sur le bureau de l'utilisateur. Mais il n'est pas le seul, prévient Cnet : Gator, un logiciel de gestion de données personnelles fait la même chose...sauf qu'il a le bon goût d'en prévenir l'utilisateur, lui. Il n'en reste pas moins que ce type d'utilitaires, en partie financé par l'affichage intrusif d'écrans publicitaires au cours de son fonctionnement est appelé à se développer. Gare à ce que vous téléchargez !
2002-04-10 23:46:27
Cnet
http://news.com.com/2100-1023-877568.html
Le nouvel Ipod, lecteur portable de mp3 imaginé et commercialisé par Apple n'a pas fini de faire parler de lui. Ce super-walkman qui se charge au moyen d'un port Firewire et stocke les morceaux de musique sur un disque dur qui peut aussi accueillir des fichiers de toutes natures, est en train de se transformer en véritable PDA complet grâce à des applications développées par des passionnés. La dernière en date, rapporte Wired, est un lecteur de news qui permet de télécharger les derniers titres de ses sites préférés pour les lire ensuite tranquillement sur l'écran LCD du petit bijou. Une seule question désormais : quand fera-t-il le café ?
2002-04-11 20:44:11
Wired
http://www.wired.com/news/mac/0,2125,51586,00.html
Pascal Fortin publie le texte d'une communication orale prononcée le 5 avril 2002 dans le cadre d'une journée d'étude sur « L'internationalisation de la communication » organisée par la Maison des Sciences de l'Homme de l'Université Paris-Nord. S'interrogeant sur les derniers développements de la crise qui secoue régulièrement l'organisme de gestion des noms de domaine, ce chercheur en sciences sociales construit un discours critique à l'égard d'un mode de gestion à la fois peu transparent et dépendant du gouvernement américain.
2002-04-12 22:50:03
Article sur le serveur d'IRIS
http://www.iris.sgdg.org/les-iris/lbi/lbi-110402.html
Un article de la récente loi sur la sécurité quotidienne, adoptée en urgence au lendemain des attentats du 11 septembre, prévoit d'autoriser les fournisseurs d'accès à Internet de conserver pendant un an les données de connexion relatives à leurs clients. Cette disposition, parmi d'autres, a suscité des réactions très négatives parmi les défenseurs de la vie privée, parce qu'elle ouvre la voie à la possibilité d'une surveilllance généralisée des activités individuelles sur le réseau, et pire, encore, à l'utilisation commmerciale de ces données. En réaction à cet article de loi, l'association Globenet, fournisseur militant de services divers liés à Internet, propose un service d'accès sans abonnement qui garantit un anonymat relatif. Il suffit de créer un login associé à un mot de passe et d'utiliser le numéro de téléphone d'accès aux modems de l'association. Celle-ci ne connaît donc ni le nom, ni l'adresse, ni aucune autre donnée personnelle concernant ses utilisateurs, et ne risque donc pas de les divulguer. Une initiative astucieuse, limitée tout de même par la mémorisation des numéros de téléphone appelants. Ces données de connexion réduites à leur plus simple expression seront cependant, assure Globenet, automatiquement cryptées et ne pourront être dévoilées que sur requête judiciaire.
2002-04-22 12:10:38
No Log
http://www.no-log.org
Privacy International, une association britannique de défense de la vie privée dans les systèmes informatiques décerne chaque année un trophée récompensant ironiquement les individus ou institutions qui ont, par leur initiative, le mieux menacé la vie privée des citoyens au cours de l'année. Il y a quelques jours, c'était la branche américaine de l'association qui désignaite les heureux élus, qui ne furent autres que l'Attorney General John Ashcroft, récompensé pour l'USA Patriot Act dont il est l'initiateur, et Larry Ellison, le très médiatique PDG d'Oracle qui eut la bonne idée de proposer l'instauration d'une carte nationale d'identité électronique (dont Oracle aurait la gestion bien sûr) dans un pays par nature rétif à ce type de fichage.
2002-04-22 14:10:53
The Register
http://www.theregister.co.uk/content/6/24949.html
Les réseaux locaux sans fil (Wi-Fi) sont à la mode. The Guardian mène l'enquête sur les communautés locales britanniques qui mettent en place des points d'accès publics grâce à cette technologie : n'importe qui peut en effet se transformer en fournisseur d'accès, à condition d'acquérir une base et des cartes réseau. De plus en plus populaire, le prix de ce matériel baisse de jour en jour et est désormais accessible aux particuliers. L'enthousiasme est grand, et ces initiatives constituent, selon le journal, une menace sérieuse pour les futurs réseaux privés de troisième génération, s'ils sont amenés à se développer. Car au prix où les licences ont été accordées, les entreprises commerciales risquenr de faire payer très cher leurs services ; des services qui pourraient être accessibles gratuitement, en ville du moins, grâce à Wi-Fi.
2002-04-22 15:38:13
The Guardian
http://www.guardian.co.uk/online/story/0,3605,685818,00.html
C'est sous ce titre que Oxblood Ruffin, un des animateurs du groupe de hackers Cult of the Dead Cow, propose, dans The Register, une analyse des activités du groupe auquel il appartient. Une salutaire mise au point sur l'hacktivisme, phénomène dont on parle beaucoup mais que l'on connaît peu. Contrairement à ce que l'on croit, explique Ruffin, le hacking n'a pas pour objectif de détruire, mais au contraire de favoriser par tous les moyens technologiques une meilleure circulation de l'information...y compris en s'attaquant à tous ceux qui veulent faire obstacle à la diffusion d'une information libre, pour des raisons économiques, ou plus souvent politiques.
2002-04-22 20:48:19
The Register
http://www.theregister.co.uk/content/6/24946.html
C'est la questions que se pose Havoc Pennington un développeur de chez Red Hat, une des premières distributions du logiciel Linux. Etroitement liés au monde Unix, ces logiciels sont en effet réputés pour leur faiblesse en ce qui concerne l'interface avec l'utilisateur (UI : User Interface). Pour Linux tout du moins, la situation s'est récemment améliorée notablement, avec l'avancée rapide des deux bureaux Kde et Gnome qui, s'ils ne concurrencent pas encore les bureaux de XP ou de MacOS X, commencent à s'en rapprocher sérieusement. Pourquoi un tel retard du logiciel libre par rapport à son équivalent commercial ? Quels sont les obstacles à une meilleure "usabilité" de ces logiciels ? Quel rôle peuvent jouer les entreprises commerciales dans ce développement ? Autant de questions auxquelles Pennington tente de répondre en toute honnêteté et de manière assez iconoclaste.
2002-04-25 10:22:49
Free Software and good user interfaces
http://www.106.pair.com/rhp/free-software-ui.html
Apple, la célèbre firme de Cuppertino, serait-elle une oeuvre du démon ? C'est en tout cas ce que croit le Dr. Richard Paley, professeur de théobiologie (!) à l'"université" Fellowship aux Etats-Unis. Première preuve à charge, le nom de la dernière mouture du système d'exploitation qu'utilisent les Mac du monde entier : Darwin. Il s'agit donc évidemment d'une honteuse propagande en faveur des thèses darwinienne sur l'évolution des espèces, contradiction démoniaque au récit de la Genèse sur la création du monde en 7 jours. Deuxième preuve à charge, Darwin est un dérivé du système Unix "open source" BSD. Or, pour Paley, open source = communisme (pourquoi faire dans le détail en effet). Donc, Cuppertino est un repaire d'athées et de communistes. Troisième preuve à charge : l'iconographie : BSD est représenté par un petit démon, Apple par une pomme croquée, le slogan d'Apple "think different" est un appel à saturnales, etc. La rhétorique du professeur Paley est disponible sur le net. The Register qui a débusqué l'affaire, s'est finement demandé sur quel type de serveur tourne son site web. Réponse : Apache sous Linux évidemment. Bon sang ! Les Rouges sont partout !
2002-04-25 10:56:16
Apple promotes "Godless Darwinism and Communism"
http://www.theregister.co.uk/content/39/24968.html
Le développement de l'administration en ligne entraînera immanquablement l'apparition de litiges liés à cette nouvelle forme. Pour préparer le terrain, le Forum des Dorits sur Internet a mis sur pied un groupe de travail qui vient de publier un rapport d'étape intitulé "Réglements des litiges et administrations électroniques". Un gros travail qui tente d'établir une typologie complète des différents cas qui se présenteront et de formuler des recommandations pour la mise en place de procédures de traitement. Ce rapport fait l'objet d'un appel public à commentaires.
2002-04-25 11:48:35
FDI
http://www.foruminternet.org/publications/lire.phtml?id=293
Un des intérêts du procès Napster est qu'il permet de lever partiellement le voile sur lez fonctionnement de l'industrie musicale, et sur les questions de rémunération des artistes notamment. Salon rapporte le combat que mène Joseph Byrd, un créateur de musique électronique, contre Sony qui édita ses premiers disques dans les années 60. Byrd rapporte Salon, n'a jamais vu la couleur d'un dollar des royalties qui lui reviennent pour la vente de ces disques qui sont toujours au catalogue de l'éditeur. Aujourd'hui, il écrit au juge Patel qui s'occupe du procès Napster pour exposer son cas...qui est loin d'être unique.
2002-04-25 11:59:02
Salon.com
http://www.salon.com/tech/feature/2002/04/23/copyright/index.html
Les deux géants de la communication, AOL-Time Warner à ma gauche, Vivendi Universal à ma droite, présentent au même moment leur résultats financiers : une perte de 54 milliards de dollars au cours du premier trimestre 2002 pour le groupe américain, 13 milliards d'euros de perte pour l'année 2001 sont annoncés par Jean-Marie Messier au cours d'une Assemblée Générale d'actionnaire plutôt houleuse en raison des derniers événements de Canal +. A qui la faute ? A l'éclatement de la bulle spéculative sur les nouvelles technologies analyse Silicon.fr qui signale que les résultats d'activités des deux groupes sont par ailleurs plutôt bons.
2002-04-25 12:26:05
Silicon.fr
http://www.silicon.fr
C'est le système qu'est en train de mettre en place un supermarché situé à Washington : les clients habituels doivent s'enregistrer une première fois, ce qui prend quelques minutes, et par la suite, ils pourront laisser leurs moyens de paiement à la maison. Il leur suffira simplement de s'authentifier sur un lecteur d'empreintes bio-métriques. Leur carte de crédit sera automatiquement débitée du montant de leurs achats.
2002-04-29 12:26:29
Seattle-pi
http://seattlepi.nwsource.com/local/68217_thumb27.shtml
C'est le message que lance Vinton Cerf, le "père de l'Internet" dans la dernière RFC en date : "The Internet is for Everyone". Et de dresser dans le même mouvement la liste de toutes les conditions qui doivent être remplies pour que le réseau soit utilisé par un nombre croissant d'individus : cryptographie, standards, coùuts, technologies, usabilité, cadre légal, le patriarche fournit ici une perspective pas révolutionnaire mais exhausitve sur l'environnement d'Internet dans le futur.
2002-04-29 14:04:43
RFC3271
http://rfc3271.x42.com
Le 26 avril dernier, l'Organisation Mondiale de la Propriété Intellectuelle a organisé la "Journée de la Propriété Intellectuelle", qui a eu, on se demande pourquoi, un peu moins de retentissement que la Journée contre le tabac. Pour cette journée particulière, Wipeout, un collectif qui défend le maintien du domaine public a organisé un concours de textes sur le thème : "Qu'est-ce que la propriété intellectuelle signifie pour vous dans la vie quotidienne ?". Les onze gagnants viennent d'être désignés, et leurs essais sont publiés sur le site de Wipeout.
2002-04-29 14:20:27
Wipeout
http://www.wipout.net/home_fr.html
Un analyste de chez Gartner, Richard Hunter, publie un livre sur les conséquences que le développement des technologies numériques a eu sur nos vies quotidiennes : "World without secrets", publié chez Wiley, examine en détails les menaces qui pèsent sur notre vie privée, et donne des exemples à faire frémir. Il évoque aussi les nouvelles formes du militantisme en réseau et l'adaptation nécessaire des organisations, publiques ou privées, à ce nouvel environnement.
2002-04-29 14:32:46
New York Times
http://www.nytimes.com/2002/04/28/business/yourmoney/28VALU.html?todaysheadlines=&pagewanted=print
Les parents horrifiés de voir quotidiennement leurs petits bouts de choux se précipiter avec délices sur leur assistant personnel et (au choix) taper sur l'écran avec un légo, effacer la liste de contacts ou dessiner au feutre sur la coque de l'appareil, pourront bientôt leur offrir le Pixter, un Palm conçu par Fisher-Price pour les petits (à partir de 4 ans). Pas de réception de mails, ni de tasks list sur ce PDA ; mais plutôt des jeux, et une ardoise magique permettant de faire des dessins et d'animer des personnages. Wired rapporte qu'on se les arrache aux Etats-Unis où 500000 exemplaires ont déjà été vendus. Pourvu de courbes et de couleurs agréables, le Pixter n'a qu'un défaut : ce n'est pas celui des parents.
2002-04-29 15:56:57
Wired
http://www.wired.com/news/print/0,1294,52110,00.html
Judith Shulevitz a mené une enquête approfondie sur les weblogs, ces journaux privés que tout un chacun peut publier sur le net, très à la mode actuellement. Elle en expose ses conclusions dans le New York Times : la "blogosphère", sommet numérique du narcissisme, ne peut être rejetée sans examen ; en particulier parce qu'elle est un vecteur puissant de communication entre individus. Si elle énerve tant les journalistes professionnels argumente-t-elle, c'est que les "blogs" tendent à relativiser l'importance de leurs commentaires sur l'actualité, les reléguant au statut d'une voix parmi d'autres.
2002-05-06 14:40:14
New York Times
http://www.nytimes.com/2002/05/05/books/review/05SHULEVT.html
C'est une nouvelle qui a dû en surprendre plus d'un : le sénateur Fritz Hollings, auteur du projet de loi visant à interdire sur le territoire américain tout appareil informatique ne disposant de mécanismes de protection anti-copie, s'est récemment distingué en soutenant un deuxième projet intitulé "Online Personnal Privacy Act" dont l'objectif est de protéger la vie privée des internautes américains des appétits des compagnies commerciales. Après avoir défendu les intérêts du "big business", Hollings se ferait-il le défenseur du bien public ? Erreur, assène Salon.com ; car le projet de loi fait la distinction entre données sensibles (impossibles à collecter sans accord explicite de l'individu), et non sensibles, pour lesquelles on peut faire à peu près ce qu'on veut. On devine la suite : les données sensibles concernent l'âge, le sexe, la race, la religion, les données non sensibles tout le reste, et en particulier le nom, l'adresse, et le comportement. Salon n'a pas beaucoup de mal à nous convaincre que les entreprises de "profiling" du consommateur peuvent très facilement déduire les premières des secondes en recoupant quelques fichiers. CQFD
2002-05-06 15:02:02
Salon
http://www.salon.com/tech/feature/2002/04/26/hollings_spyware/index.html
C'est la question qui oppose actuellement les militants de l'Electronic Frontier Foundation au juge Stephen Limbaugh, à propos de l'interdiction de vendre certains jeux à des mineurs. Le juge fédéral vient de décider que les jeux vidéo ne pouvaient, comme "discours", être protégés par le premier amendement, suscitant des réactions passionnelles dans la rédaction de Salon.com, qui lui consacre un long article. Tout le débat porte sur la question de savoir si les jeux vidéo peuvent atteindre une dimension artistique, aborder des questions historiques, sociales ou politiques. Non, répond Limbaugh qui appuie son analyse sur les exemples de "Fear Effect", "doom", "Mortal Kombat" et Resident of Evil". Oui, rétorquent les juristes de l'EFF qui évoquent "Medal of Honor", "The Sim's", "Deus Ex" ou "Black & White". Anecdotique à première vue, ce débat est loin d'être insignifiant dans la mesure où le jeu vidéo est appelé à prendre une importance grandissante dans la consommation culturelle des pays développés, aux côtés du cinéma et de la littérature.
2002-05-06 15:25:11
Salon.com
http://www.salon.com/tech/feature/2002/05/06/games_as_speech/index.html
C'est ce que révèle Cnet qui publie le résultat d'une étude de Gartner sur les internautes et leurs données personnelles. Or, il apparaît que ceux-ci ne s'intéressent pas à la gestion de leur identité virtuelle : s'ils s'enregistrent sur les sites qu'ils fréquentent, c'est uniquement parce qu'ils y sont contraints pour accéder aux contenus de leur choix. Du coup, les systèmes de centralisation et de gestion des données personnelles à la Passport de Microsoft ou Magic Carpet d'AOL les attirent peu, ne serait-ce que parce qu'ils ne semblent pas mériter leur confiance... De ce point de vue, le système concurrent proposé par Sun, Liberty Alliance, semble mieux placé : il ne fait que proposer un standard que chaque prestataire de service pourra utiliser dans son propre système.
2002-05-06 16:01:16
Cnet
http://news.com.com/2102-1001-892808.html
C'est la fin des haricots. Après Futur-e-s, c'est au tour de Transfert de déposer le bilan. Le dernier grand magazine francophone consacré à la société de l'information cessera bientôt sa diffusion. Les causes sont connues, et toujours les mêmes : stagnation du lectorat et effondrement du marché publicitaire. Une disparition pour le moins paradoxale quand tous les indices sur l'utilisation du réseau par le grand public sont positifs. Transfert avait fait le pari d'accompagner cet élargissement des pratiques en informant sur ses aspects les moins techniques, les plus "sociétaux". Pari manqué et dont l'échec ne laisse pas d'inquiéter ; car ce magazine était un des rares à se faire l'écho des nombreux déséquilibres qui accompagnent la révolution numérique, à tenter de susciter un véritable débat contradictoire sur ses évolutions les plus problématiques. Qui le fera maintenant ?
2002-05-06 16:33:11
Transfert
http://www.transfert.net/fr/net_economie/article.cfm?idx_rub=86&idx_art=8442
On s'en doutait un peu, Wired le confirme : les nouvelles extensions de nom de domaine (gTLD en techno-jargon) ne connaissent pas le succès escompté. Et il ne faut certainement pas se fier aux chiffres de ventes des noms de domaine pour l'évaluer. Car pour Wired, il est patent que la plupart des nouveaux noms de domaine réservé sur ces extensions ne correspondent à aucun contenu : il s'agit dans la plupart des cas de pure spéculation ou d'achats préventifs de la part de sociétés qui veulent protéger leur marque. Encore une pierre dans la jardin de l'ICANN
2002-05-06 22:17:11
Wired
http://www.wired.com/news/print/0,1294,52274,00.html
Infostance annonce aujourd’hui le succès de la phase pilote de Scolastance au Collège de Brunstatt (68). Scolastance est utilisé dans ce collège en mode application hébergée. Installé sur un serveur hébergé hors de l'établissement scolaire, Scolastance devient immédiatement accessible à partir de n'importe quel poste connecté au réseau au travers d'un navigateur Internet. Le mode application hébergée vient compléter l’offre actuelle de Scolastance, déjà disponible depuis deux ans en mode Intranet et Extranet. Scolastance grâce à ces deux approches constitue une offre complète permettant à tous les acteurs des lycées et collèges, enseignants, personnels administratifs, élèves, parents, de saisir en ligne, de gérer, de consulter, via un navigateur Internet, les informations concernant la vie de l’établissement et de ses élèves, le tout en temps réel. " La phase pilote s’est très bien déroulée, nous sommes très satisfaits " déclare Gabriel Lienhard, Principal du collège Pierre Pflimlin de Brunstatt. " Lors du premier week-end après le démarrage du service nous avons reçu de nombreux messages d’encouragement de la part des parents. Au début, le service mis à disposition se limitait à l’information des parents sur les absences et notes de leurs enfants. Rapidement les professeurs se sont montrés intéressés également et ont souhaité avoir un accès au site. Ils peuvent donc aujourd’hui se connecter également et avoir accès à l’ensemble des données relatives à leurs élèves. Aujourd’hui, les parents commencent à demander que nous activions le forum qui leur est réservé. Dans mon établissement, j’ai pris le parti de ne pas imposer une modalité de fonctionnement, mais plutôt de la suggérer et de mettre “l’eau à la bouche”, avant d’offrir des services lorsque la demande est clairement formalisée. C’est pourquoi nous n’utilisons encore qu’une partie des services offerts par Scolastance. "
2002-05-06 22:57:32
Scolastance
http://www.scolastance.com
Ni les logiciels de filtrage, ni les législations répressives ne remplaceront la vigilance des parents et la mise en oeuvre d'une véritable éducation à l'utilisation d'Internet. C'est la conclusion d'un rapport que vient de publier le National Research Council intitulé "Youth, Pornography and Internet". Pour les rédacteurs du rapport, le sentiment de pouvoir s'en remettre à la technologie pour protéger ses enfants est une erreur qui mérite d'être démentie. Dotés d'un solide bon sens (une denrée de plus en plus rare), les auteurs du rapport détaillent ainsi sur plusieurs centaines de pages leurs conseils pour mettre en oeuvre des stratégies éducatives permettant aux enfants d'identifier et de se garder des dangers qui les guettent dans le cyberespace ; exactement comme dans la vie réelle
2002-05-06 23:16:28
National Research Council
http://www.nap.edu/books/0309082749/html/
Qui a dit que le gratuit ne rapportait pas d'argent ? Certainement l'éditeur de science-fiction Baen qui propose aux internautes des livres en libre téléchargement dans sa "Free library". Son pari ? Inciter les lecteurs à découvrir de nouveaux auteurs et à acheter par la suite d'autres romans. Eric Flint, un des écrivains publiés par Baen explique dans un long plaidoyer pourquoi le livre gratuit est un modèle économique qui marche : il le compare à l'essai de conduite gratuit des concessionnaires automobiles. Et il le démontre chiffres à l'appui ! Lorsque certains de ses livres ont été placés dans la Free Library, ses chiffres de vente (payante) ont brutalement augmenté. Pour Eric Flint, l'explication est simple : la Free Library représente pour lui une formidable publicité et contribue à le faire connaître d'un public peu enclin à débourser entre 10 et 20 dollars pour un auteur qu'il ne connaît pas. Il suffisait d'y penser.
2002-05-07 15:55:48
Prime Palaver
http://www.baen.com/library/palaver6.htm
Le département Métiers du Livre d'Aix-en-Provence ouvre pour la deuxième année les inscriptions de la licence professionnelle Réseaux et entreprise, option Édition numérique. Cette licence forme des personnes ressources spécialisées dans les mutations de l'édition traditionnelle liées à l'édition numérique. La formation offre aux étudiants sensibilisés aux métiers du livre une spécialisation clairement orientée vers les nouveaux supports d'édition et les nouvelles pratiques de publication (cédérom, Internet, objets électroniques, impression numérique, etc.). Douze étudiants seront recrutés cette année sur dossier et entretien pour une formation sur un an, comprenant un stage de 4 mois. La licence professionnelle est ouverte aux candidats qui sont au minimum titulaires d'un diplôme de niveau « bac + 2 ». Elle privilégie ceux qui peuvent faire valoir une expérience ou une formation affirmée dans les métiers du livre, dans la communication graphique ou multimédia.
2002-05-07 23:36:46
Iut Université d'Aix
http://www.iut.univ-aix.fr/formation.php3?type=licence_pro&nom=re_edit
Huit ans après son commencement, le procès Microsoft n'en finit pas de rebondir. Se défendant maintenant contr les accusations de Real Networks qui affirme que la firme de Redmond fausse la concurrence entre son lecteur multimédia Windows Media Player et Real Player, un cadre de Microsoft a reconnu que Windows Media Player était intégré au navigateur Internet Explorer, ce qui explique qu'il s'ouvre quelles que soit les préférences d'associations de fichiers mises en place par l'utilisateur. Un système d'exploitation dans lequel est intégré un navigateur web, dans lequel est intégré un lecteur multimédia aux fonctionnalités toujours plus diverses, voilà qui laisse peu de place pour d'éventuels concurrents. Dans ce nouveau procès, intenté par plusieurs états à la suite de l'abandon de sa plainte par l'Etat fédéral, Microsoft risque devoir être contraint par le juge à révéler au moins une partie du code-source de son système d'exploitation afin de permettre à ses concurrents d'écrire des logiciels pleinement fonctionnels. Le juge peut éventuellement ordonner la mise sur le marché d'un Windows modulaire, c'est-à-dire dont le navigateur et le lecteur de médias puisse être remplacés par les produits d'autre sociétés.
2002-05-07 23:44:13
New York Times
http://www.nytimes.com/aponline/technology/AP-Microsoft-Antitrust.html?todaysheadlines
France Télécom est régulièrement accusée de fausser la concurrence sur le marché de l'accès Internet à haut-débit en demandant aux fournisseurs d'accès désireux de proposer aux consommateurs une offre ADSL un tarif de reversion trop élevé. France Télécom profite en effet de son rôle de gestionnaire des lignes de communications résidentielles pour favoriser ses propres offres commerciales. L'Autorité de Régulation des Télécommunications somme donc depuis plusieurs mois l'opérateur historique de revoir ses tarifs à destination des fournisseurs d'accès ; ce qu'il fait...insuffisamment, puisque l'ART, dans une décision rendue publique aujourd'hui, vien de rendre un avis défavorable à la nouvelle grille tarifaire qu'il propose.
2002-05-08 00:04:29
Décision de l'ART
http://www.art-telecom.fr/communiques/communiques/2002/070502.htm
Cnet publie une interview de Ian Clarke, l'inventeur et animateur du sulfureux projet Freenet, ce réseau alternatif totalement anonyme qui garantit par construction une totale liberté d'expression. Interrogé sur les conséquences des attentats du 11 septembre sur un réseau supposé fournir un réseau de communication protégé pour les terroristes, Ian Clarke répond aux accusations...et évoque l'avenir du réseau dans un contxte législatif "post-Patriot Act"
2002-05-09 13:15:55
Cnet
http://news.com.com/2008-1082-899662.html
La presse américaine réagit depuis quelques jours à la décision européenne d'appliquer la TVA sur les produits vendus par Internet. Officiels de la Federal Trade Commission et cyber-marchands yankee se plaignent des difficultés techniques pour identifier le pays de résidence des acheteurs et de la lourdeur de la procédure de recouvrement. Il crient à une discrimination injuste envers le commerce électronique. Info ou intox ?
2002-05-10 20:25:27
Newsbyte
http://www.newsbytes.com/cgi-bin/udt/im.display.printable?client.id=newsbytes&story.id=176434
C'est l'expérience que rapporte Wired sur une école américaine accueillant des enfants handicapés, et qui peuvent faire des progrès notables grâce à un ordinateur très particulier. Celui-ci, baptisé "Xyberkid" est commmercialisé par la société Xybernaut qui produit des systèmes informatiques que l'on porte sur soi, près du corps, au départ essentiellement pour l'armée américaine ou des métiers à risques. Grâce à son écran tactile et son système de synthèse sonore, l'ordinateur "Xyberkid" permet à de jeunes autistes de pouvoir communiquer à nouveau et même, semble-t-il, d'apprendre à lire. Xyberkid n'est pas une recette miracle, prévient un des enseignants des enfants. Il s'agit simplement d'un outil, mais dans certains cas, extrêmement efficace pour ouvrir une voie de communication entre l'enfant et son environnement.
2002-05-10 22:42:12
Wired
http://www.wired.com/news/print/0,1294,52148,00.html
A la demande de Zdnet-UK, Richard Stallman, le créateur de la Free Software Foundation, répond aux récentes attaques de Bill Gates contre le logiciel libre. «Utiliser GPL / C'est contrôler nos droits / pour contrôler les vôtres» haïku anonyme découvert sur le Net et légèrement amélioré Si vous réfléchissez à la dernière attaque de Bill Gates contre la GNU General Public License ou GNU GPL (lire le texte du Chief Architect de Microsoft publié le [17 avril 2002->http://www.microsoft.com/billgates/speeches/2002/04-17glc.asp]), souvenez-vous qu'il faut savoir lire entre les lignes. Gates explique que les logiciels libres [free software, logiciels répondant à la dénomination de Stallman et distribués selon la GPL - Ndlr] concernés par la GPL ne peuvent pas être commercialisés, alors que cela a déjà été le cas. Même Microsoft vend un package qui intègre des logiciels en GPL (mais qui intègre également des logiciels qui ne sont pas libres, alors ne l'achetez pas!), IBM, Apple et HP distribuent et développent tous des logiciels libres en GPL. Mais ce ne sont pas les seuls, et d'autres sociétés plus petites le font également. Aux USA, c'est par exemple le cas de Red Hat et de Ada Core Technologies. En France, à ce qu'on m'a dit, il y a environ 50 PME qui proposent différents types de support pour les logiciels libres. J'imagine que le chiffre est plus élevé aux USA, mais je n'ai pas de données précises à ce sujet. Toutes ces sociétés ont déjà commercialisé du logiciel libre. Ce qu'elles ne peuvent pas faire, c'est se l'approprier. «Ce qui est à moi est à moi, et ce qui est à vous est à moi»... La vraie raison pour laquelle Microsoft s'attaque à la GPL, c'est qu'elle donne accès à des logiciels que Microsoft ne peut pas s'approprier et contrôler. L'approche de Microsoft des logiciels libres est simple : «Ce qui est à moi est à moi, et ce qui est à vous est à moi». Gates pense que Microsoft devrait avoir le droit de prendre les logiciels libres développés par d'autres pour en faire des versions propriétaires, dont le code source serait un secret de fabrication: ils veulent nous pousser à développer, mais pour mieux contrôler l'ensemble. Nous sommes supposés les remercier de s'intéresser à nous. Mais Microsoft n'a pas l'intention de nous soutenir à hauteur de notre bonne volonté: essayez de leur demander une copie du code source de Word ou même de Flight Simulator, pour partager avec le monde entier votre version améliorée du produit... Même pas en rêve! Dans la vision que Microsoft a du monde, la coopération ne va que dans un sens: vers eux ! Nous, nous disons: «partager et partager équitablement». Gates, bien qu'il soit passé par la maternelle, n'a pas encore appris à partager. Le programme de Shared Source («source partagée»), instauré récemment par Microsoft, n'a rien à voir avec le partage... Ce n'est qu'un autre nom pour «clause de confidentialité» (ou NDA, non disclosure agreement). Pensez-y à deux fois avant de vous engager, parce que ce n'est pas seulement anti-social, c'est également risqué. Vers 1990, des étudiants qui avaient étudié le code source secret de la version Unix [des laboratoires] de l'opérateur AT&T ont eu du mal à trouver un emploi, parce que AT&T avait menacé de poursuivre les étudiants qui utiliseraient des idées rappelant cette version d'Unix. AT&T a finalement fait marche arrière, mais avant cela, certains employeurs avaient peur d'engager quiconque avait signé un NDA avec AT&T. Microsoft est beaucoup plus puissant que AT&T ne l'était dans le domaine du logiciel, et beaucoup plus arrogant. Vous pensez vraiment que Microsoft ne va pas tirer avantage de sa puissance? Liberté, partage Le logiciel libre, c'est la liberté: la liberté pour les utilisateurs de contrôler l'usage qu'ils font de leur ordinateur. Un programme non-libre, c'est une atteinte à votre liberté : son but est de garder les utilisateurs divisés et dépendants, «verrouillés». Si l'on compare le monde du logiciel à la nature, les développeurs de logiciels propriétaires sont les prédateurs, et les utilisateurs la proie. Microsoft veut vous obliger à «louer» du logiciel, exactement comme l'industrie du disque veut vous obliger à «louer» la musique. Dans tous les cas, ils cherchent à y parvenir en vous empêchant de changer les logiciels sur votre ordinateur. Gates veut que vous restiez des proies, sous prétexte de créer des emplois. Est-ce vraiment sain de faire des produits nocifs pour les utilisateurs, juste pour employer davantage de gens à les produire ? C'est une politique de «chantiers nationaux», pas de l'économie de marché. Gates voudrait que tous les habitants du monde se précipitent pour travailler pour Microsoft, mais attention : il y aura des millions de perdants pour quelques dizaines de milliers de gagnants. Gates voudrait que tout le monde gagne de l'argent avec Microsoft, mais attention : ils ne rendront qu'une partie de l'argent qu'ils vous auront pris. Gates veut que vous restiez des proies, sous prétexte «d'innovation», mais il n'est pas besoin d'être économiste pour savoir que les monopoles entraînent des produits de moins bonne qualité, des prix plus élevés et une chute de l'innovation. Microsoft a dépensé des milliards de dollars en relations publiques, pour faire croire qu'ils étaient à l'origine d'idées volées aux autres, tout en prétendant être le seul monopole du logiciel qui bénéficie au public. Quiconque connaît un peu le monde du logiciel sait que ces affirmations sont ridicules. Les systèmes d'exploitation GNU/Linux vous offrent une chance de retrouver votre indépendance. Ne la ratez pas. Copyright 2002 Richard Stallman (http://www.stallman.org/). La reproduction exacte et la distribution intégrale de cet article est permise sur n'importe quel support d'archivage, pourvu que cette notice soit préservée. Article original en anglais: What Gates' attacks on the GPL really mean (1er mai 2002). Cet article a été publié sur [Zdnet-France->http://news.zdnet.fr/story/0,,t118-s2109752,00.html]
2002-05-11 21:55:16
Zdnet-UK (version anglaise de l'article)
http://www.anchordesk.co.uk/anchordesk/commentary/columns/0,2415,7112133,00.html
La BBC révèle qu'après Sony, Universal Music s'apprêterait à son tour à verser dans le CD incopiable pour la sortie du prochain album du chanteur de rap Eminem. Selon la télévision britannique, cette décision vise à empêcher un piratage des titres musicaux que l'industrie du disque juge désastreux pour son activité économique.
2002-05-11 22:36:27
BBC
http://news.bbc.co.uk/hi/english/entertainment/music/newsid_1962000/1962093.stm
L'utilisation de logiciels d'échange de fichiers musicaux de pair à pair comme Napster ou Kazaa entraîne-t-elle une augmentation ou une diminution de la vente de disques ? C'est la polémique qu'a fait surgir une récente étude publiée par l'institut Jupiter Mediametrix sur le comportement de 3000 utilisateurs adultes et dont les résultats font rugir d'indignation le puissant syndicat américain d'éditeurs de disques, la fameuse RIAA. Bataille de chiffres et arguments douteux sont au menu de cet excellent article polémique de Newsbyte.
2002-05-11 22:57:10
Newsbyte
http://www.newsbytes.com/cgi-bin/udt/im.display.printable?client.id=newsbytes&story.id=176497
Abiword est un logiciel de traitement de textes open source destiné à concurrencer Microsoft Word dans les foyers et pour les particuliers. Remarquable par sa légèreté et sa simplicité, Abiword vient enfin de sortir de sa phase de développement et propose une version finale 1.0 des plus stable. L'événement est tel apparemment, que la chaîne MSNBC se fend d'une critique très positive sur ce produit qu'elle compare à son équivalent commercial. Serait-ce le signe que les choses changent ? Car jusqu'à présent les logiciels libres n'accédaient que rarement aux colonnes du "Big Media".
2002-05-14 09:40:37
MSNBC
http://www.msnbc.com/news/751496.asp?0si=-&cp1=1
Et alors, rien. C'est ce que révèle une enquête menée par comScore, une société de mesure d'audience, à propos des conséquences de la décision prise par Yahoo d'envoyer du courrier commercial aux abonnés de son service Yahoo mail. Cette décision, destinée à rentabiliser les services nombreux et très populaires que Yahoo! met à la disposition des utillisateurs, avaient déclenché, il y a quelques semaines, un véritable concert de protestations de la part des acteurs sensibilisés aux questions de protection de la vie privée. Selon comScore, ces protestations ont eu un impact négligeable sur le comportement des utilisateurs qui, contrairement aux craintes de Yahoo!, ne se sont pas désabonnés massivement, ni même n'ont utilisé le formulaire d'opt-out mis en place par la société.
2002-05-14 10:31:15
New York Times
http://www.nytimes.com/2002/05/13/technology/ebusiness/13YAHO.html
-Mise à jour A quel étrange jeu joue le Réseau Voltaire ? Dans un [communiqué de presse->http://www.reseauvoltaire.net/actu/google-censure.htm] en date d'aujourd'hui, l'association affirme que les moteurs de recherche Google et Altavista ne le référencent plus dans leur base de données, et crie à la censure, en raison notamment des "révélations" fracassantes que délivrerait le livre "L'effroyable imposture". Le problème est que l'association Vivre Le Net réplique immédiatement à ces allégations en montrant, preuve à l'appui que si Google ne référence plus le site du Réseau, c'est tout simplement parce que celui-ci lui en interdit l'accès. S'agit-il d'une simple erreur technique commise sur un site soumis à rude épreuve depuis la publication du livre de Meyssan, ou d'une manipulation délibérée ? La réponse à cette passionnante question au prochain numéro. Note : à la suite de la publication de cette brève, le Réseau Voltaire nous a envoyé le texte qui suit en guise de précision : "1‹ L'interruption de référencement concerne les trois principaux moteurs de recherche utilisés aux USA (Google, Altavista et Alltheweb) 2‹ Elle touche toutes les pages dont l'URL commence par "reseauvoltaire.net" 3‹ Pour contourner cette interruption, l'URL reseauvoltaire.COM a été réactivée et renvoie les internautes sur le .NET 4‹ L'hébergeur du site reseauvoltaire.net assure ne pas avoir bloqué l'accès des robots butineurs des moteurs de recherche, mais s'opposer en permanence à des attaques par requêtes multiples. Les système de défense mis en place ne peuvent pas confondre l'activité d'un robot butineur (qui est fluide) avec celle d'une attaque par requête multiple. Au demeurant, contrairement à ce qu'indique vivrele.net, les systèmes de blocages sont paramétrés sur l'IP du robot et non sur son "User-agent". Il paraît donc impossible que l'herbergeur ait pu bloquer l'accès du robot butineur de Google en le confondant avec un robot procédant à des attaques par requêtes multiples. 5‹ Lorsque un robot butineur voit son accès bloqué, il peut selon son paramétrage ignorer le résultat ou l'archiver avec la mention "403 forbidden". C'est le cas de Google. Or, si l'on interroge Google à ce sujet, on relève : Google -> rechercher "403 forbidden" : environ 167 000 réponses Google -> rechercher "403 forbidden reseauvoltaire" : 0 réponses D'où l'on peut conclure que l'absence de référencement du site reseauvoltaire.net chez Google ne peut avoir comme origine un éventuel blocage d'accès."
2002-05-14 15:03:27
Vivre le Net
http://www.vivrele.net/node/597.html?
Le ebook a fait un flop auprès du grand public. Faut-il pour autant le jeter à la poubelle ? Non répond Washtech qui publie un reportage sur son usage dans les campus américains où il est utilisé avec succès pour la consultation et l'utilisation des manuels par les étudiants. D'ailleurs, de manière générale, pour des ouvrages à renouvellement rapide comme les catalogues, il pourrait s'assurer un brillant avenir.Allons, courage ! tout n'est pas perdu.
2002-05-14 15:32:20
Washtech
http://www.washingtonpost.com/wp-dyn/articles/A12985-2002May14.html
L'organisme en charge du système d'attribution des noms de domaine et des adresses numériques sur le réseau vit depuis plusieurs mois une crise institutionnelle profonde. Dernier événement en date, le plan de réforme proposé par son actuel directeur, Stuart Lynn, proposait, entre autres choses, de permettre une participation plus grande des gouvernements nationaux au sein de l'organisme, plutôt que de tenter de représenter directement le "peuple d'Internet". Le groupe de travail chargé par le board of directors d'examiner le plan de réforme vient de rendre ses conclusions provisoires. Validant une grande partie du plan de Lynn, il s'interroge cependant sur l'idée d'une participation gouvernementale qui, on le sait, est très étrangère à la culture de la régulation propre au réseau.
2002-05-14 16:02:39
Docuement de travail du Commitee on ICANN Evolution and Reform
http://www.icann.org/committees/evol-reform/working-paper-structure-09may02.htm
La conjonction entre le harcèlement juridique de la RIAA, les hésitations d'actionnaires girouettes et le retournement d'un marché perçu il y a quelque temps comme prometteur auront eu raison du premier service d'échange peer-to-peer à destination du grand public. Probablement sur le point de déposer le bilan, Napster vient de perdre ses deux dirigeants les plus importants parmi lesquels, Shawn Fannings, le fondateur de la société. Cette situation dramatique pour l'entreprise fait suite au renoncement de la part du géant allemand de la communication Berstelmann de renoncer à faire vivre sous perfusion une entreprise dans laquelle il avait beaucoup cru.
2002-05-15 21:38:52
Zdnet
http://zdnet.com.com/2100-1106-913577.html
Le temps est au lobbying. Longtemps éparpillés et isloés, les éditeurs de contenus sur Internet commencent à comprendre que s'ils veulent se faire entendre des pouvoirs publics, au même titre que les opérateurs de télécoms ou les marchands de logiciels, ils doivent parler d'une seule voix.Promu par l'association Silicon Sentier, le Réseau de l'Internet Culturel (RIC) se veut une structure à la fois de recherche, mais aussi de dialogue entre différents acteurs majeurs de la publication de produits culturels sur Internet : 00h00.com, Paru.com, Divento, Le Louvre ou Sortirama sont parties prenantes de ce réseau coordonné par Laurent Sorbier.
2002-05-15 21:52:50
RIC
http://www.operatime.com/siliconculture.htm
Il s'agit d'un des projets les plus originaux et les plus importants de ces dernières années : Creativecommons, créé par plusieurs juristes américains, dont Lawrence Lessig, le célèbre auteur de The Future of ideas, tente de changer le rapport de force entre éditeurs et créateurs dans les questions relatives au copyright. L'inexpérience de ces derniers en matière juridique les empêche en effet de maîtriser les conditions de diffusion de leurs oeuvres, la législation commune, très restricitve s'appliquant dans la plupart des cas. Creativecommons vise à affaiblir le copyright traditionnel en fournissant aux créateurs de textes, d'images, de dessins, un service juridique de rédaction automatisée de licences exactement adaptées à ce qu'ils veulent faire de leurs oeuvres. Par un système très simple de champs et d'icônes, les créateurs peuvent autoriser ou interdire reproduction, diffusion, modification de leur oeuvre, dans un cadre commercial ou non. Une fois leurs choix validés, CreativeCommons leur envoie par mail un texte juridique complet correspondant aux options choisies. Par ailleurs, l'auteur pourra attacher des metadata au support numérique de son oeuvre qui permettront aux moteurs de recherche d'identifier les termes de la licence. Pédagogique, le site de ce projet tente d'expliquer à ses visiteurs pourquoi les licences libres (ou assimilées) sont importantes pour la sauvegarde de la culture universelle. Creativecommons, qui a engrangé près d'un millions de dollars pour mener à bien sa mission se propose enfin de créer un annuaire universel des ressources libres.
2002-05-16 21:49:50
Creative Commons
http://www.creativecommons.org/
C'est ce que nous saurons le 29 mai, selon l'agence indépendante Statewatch. A cette date en effet, le Parlement doit se prononcer en deuxième lecture sur un texte adopté par le Conseil des Ministres de l'Union portant révision de la directive de 1997 sur la protection de la vie privée dans les télécommunications. Cette révision, envisagée au lendemain des attentats du 11 septembre par le Conseil, vise à élargir les possibilités d'une rétention plus longue des données de communication, notamment pour des raisons liées à la sécurité. Le parlement s'est déjà prononcé contre la formulation très large retenue par le Conseil. Il devra le 29 mai confirmer sa décision. Dans le cas contraire, la procédure de co-décision entre les deux instances implique que le texte du Conseil sera automatiquement adopté.
2002-05-15 23:29:41
Statewatch
http://www.statewatch.org/news/2002/may/05surv.htm
L'Université Carnegie-Mellon est sur le point de lancer un consortium pour l'amélioration des logiciels 5sustainable Computer Consortium), en particulier sur les questions de sécurité et de qualité. Soutenu par la NASA, le nouvel organisme comprend déjà des noms aussi prestigieux que Microsoft et Oracle. Toute la question est pour l'instant de savoir si les éditeurs de logiciels libres pourront eux aussi participer à un consortium qui les concerne au premier chef. Il est en effet prévu que les technologies et solutions développées en son sein seront régies par une licence propriétaire, incompatible avec les principes qui régissent le logiciel libre.
2002-05-17 22:05:57
Newsforge
http://newsforge.com/article.pl?sid=02/05/13/1857235
C'est le sujet d'un article paru sur Kuro5hin qui détaille les solutions techniques permettant d'enrichir l'expérience de la navigation. Premier point : pourquoi les liens ne fonctionnent-ils que dans un sens ? L'auteur montre tout l'intêrêt que peut représenter le "backlinking" qui permet de remonter vers les pages qui pointent vers l'adresse où l'on se trouve. Deuxième point, l'annotation collective des textes publiés sur le Web. Des logiciels comme Critsuit ou Annotea développé par le W3C permettent déjà de le faire depuis longtemps, et, utilisés plus largement, permettrait à la production de textes de bénéficier des possibilité qu'offre la communication en réseau. Le problème, c'est que presque personne ne les utilise. Par conformisme ?
2002-05-17 22:45:19
Kuro5hin
http://www.kuro5hin.org/story/2002/5/16/152614/482
L'actualité de ces dernières semaines l'a amplement montré : plus personne ne sait aujourd'hui ce qu'il a le droit et n'a pas le droit de faire avec des contenus distribués sur support numérique. Au maquis législatif, vient s'ajouter l'imbroglio technique des dispositifs anti-piratage qui font qu'aujourd'hui, le consommateur n'est même plus certain de pouvoir écouter le disque qu'il vient d'acheter, sur le support de son choix. Pour lutter contre une évolution qui rétrécit à grande vitesse les droits du consommateur de produits numériques, Joe Krauss, l'ancien directeur d'Excite a décidé de fonder une organisation pour promouvoir une charte des droits numériques tenant en six points : droit d'utilisation illlimitée dans le temps et dans l'espace, droit de traduction dans le format de son choix, droit de copie privée, droit de représenter le contenu sur la plate-forme de son choix, droit d'utiliser les technologies permettant de concrétiser ces droits. Etranges à première vue, les "droits" énoncés sont pourtant tout à fait pertinents : chacun d'eux vise une limitation mise effectivement en oeuvre par un éditeur, ou une disposition précise du très contesté Digital Millenium Copyright Act.
2002-05-21 00:00:00
Digital Consumer
http://www.digitalconsumer.org/
A lire dans On line Journalism Review de l'Université Annenberg, un article de Paul Andrews sur les sites d'informations communautaires qui, tels Slashdot, Kuro5hin ou Alternet, produisent un nouveau type d'information, très différent de la production journalistique habituelle. Mais pour une fois, et c'est ce qui fait son originalité, cet article ne se contente pas d'opposer les deux types d'informations, en les renvoyant dos à dos. Il tente de montrer en quoi ils sont complémentaires, comme l'ont déjà compris plusieurs publications professionnelles.
2002-05-21 10:44:01
News by the People, for the People
http://www.ojr.org/ojr/future/1021586109.php
Charlie Taylor, le nouvel éditeur de la lettre du Nua Internet Survey, propose cette semaine un intéressant plaidoyer pour le "deep linking", à savoir le fait de renvoyer par hyperlien sur une page spécifique d'un autre site Web, et non vers sa page d'accueil. Cette pratique, qu'un nombre croissant de sites commerciaux, comme Le Monde Interactif, interdisent, est, selon Taylor, l'essence même du Web comme système efficace de dissémination d'information. L'interdire reviendrait à décourager les utilisateurs de rechercher l'information, à détruire le principe même des moteurs de recherche et à rendre inutiles les hyperliens eux-mêmes.
2002-05-21 11:25:13
The war on links
http://www.nua.ie/surveys/analysis/weekly_editorial.html
Cyberatlas révèle que le nombre de demandes de devis en ligne émanant de consommateurs américains auprès des entreprises de leur voisinage a augmenté de 180% en 14 mois, essentiellement dans le domaine des services. Un argument pour convaincre ces dernières que leur site web sert à quelque chose.
2002-05-21 11:44:28
Cyberatlas
http://cyberatlas.internet.com/big_picture/traffic_patterns/article/0,,5931_1122681,00.html
Le Center for Science, Technology, and Society de l'Université de Santa Clara annonce qu'elle organisera le 24 avril 2003 une conférence internationale sur le thème : Networked World: Information Technology and Globalization. Très importante par les thèmes qu'elle aborde et la qualité des premiers intervenants inscrits, cette conférence reste ouverte à propositions jusqu'au 15 juillet. Tous les détails sur le site du CSTS
2002-05-21 12:02:18
CSTS
http://sts.scu.edu/globalization/default.htm
Dans le cadre de la préparation du sommet de Genève sur la société de l'information, le Centre de coordination pour la Recherche et l'Enseignement en Informatique et Société organisera les 30 et 31 mai deux journées d'étude sur le thème : "Comment la mondialisation influence-t-elle les réglementations nationales des Nouvelles Technologies de l'Information ?". Au menu de ces journées, cybercriminalité, protection des données personnelles et commercialisation de l'éducation et des logiciels feront l'objet d'ateliers et de débats. Tous les renseignements sur le site du CREIS
2002-05-21 21:03:21
CREIS
http://www.creis.sgdg.org/
Hacktivismo, un groupe de pression né des déboires judiciaires du fameux groupe de hackers Cult of The Dead Cow, vient de mettre en ligne une site de nouvelles sur le sujet très particulier de l'hacktivisme, cette contraction de la défense des droits civiques et de la pratique du hacking. Affaire à suivre
2002-05-25 22:00:59
Hacktivismo
http://www.hacktivismo.com/news/index.php
Netscape Corporation vient de publier une première release candidate de la nouvelle version de son navigateur fétiche. Plus stable et poins gourmand en ressource que la précédente version, Navigator 7.0. se révèle une copie conforme de son équivalent open zource, Mozilla. Et pour cause, puisque Netscape 7.0 utilise le même moteur que Mozilla, intitulé Gecko. Ainsi, l'essentiel des nouveautés de cette dernière version, comme la navigation par onglets, l'intégration d'un client mail et d'un éditeur HTML sont déjà présents dans Mozilla qui en est, pour sa part, à sa troisième Release candidate. Dès lors se pose une question cruciale : pourquoi utiliser Netscape plutôt que Mozilla ?
2002-05-25 22:05:36
Netscape 7.0
http://channels.netscape.com/ns/browsers/7/
Une entreprise, c'est une grand villlage : ragots, médisances et commentaires déplacés y sont légions ; depuis toujours. Le problème est qu'autrefois les ragots s'échangeaient autour de la machine à café, ne laissant aucune trace matérielle. L'e-mail a aujourd'hui remplacé la machine à café et chaque entreprise stocke sur ses serveurs des dizianes de millions de pages de textes qui peuvent constituer autant de preuves accablantes pour un éventuel procès. Newsbytes mène l'enquête sur ce sujet et recommande aux entreprises de réfléchir sérieusement à la mise en place de politiques raisonnées pour l'utilisation et la conservation des messages électroniques internes ; sous peine de crouler sous les procédures judiciaires.
2002-05-25 22:37:58
Newsbytes
http://www.newsbytes.com/news/02/176746.html
La Motion Picture Artists Association vient de rendre son rapport, intitulé "Content Protection Status Report", destiné à guider le Congrès américain dans ses prochains actes législatifs pour la protection des contenus numériques sous copyright. Dans le collimateur de l'association, on retrouve désormais les convertisseurs analogique/numérique qui équipent caméscopes, téléphones portables, et autres appareils avec micro intégrés. L'objectif est d'insérer dans les films, chansons, morceaux de musique, vidéos, des marqueurs invisibles pour l'utilisateur, mais pas pour les "puces policières" comme les appelle l'EFF, qui seraient intégrées à chaque convertisseur. La puce, prévenue que l'appareil est en train d'enregistrer un contenu copyrighté, éteindrait alors immédiatement l'appareil. Ce sont évidemment les copies pirates disponibles sur Internet de films connus qui sont visées ici.
2002-05-26 10:05:37
Content Protection Status Report
http://bpdg.blogs.eff.org/archives/000113.html
La gestion des données personnelles par Microsoft Passport est-elle compatible avec les directives européennes sur la protection des données personnelles ? C'est la question que pose Erik Meijer, député hollandais du Parlement à la commission de Bruxelles. La réponse de celle-ci est sans ambiguïté : cela mérite en effet une enquête, actuellement en cours. Microsoft a signé l'année dernière l'accord "Safe Harbour" censé garantir que les entreprises américaines traitant des données personnelles en provenance de l'Europe sont en conformité avec la loi du vieux continent.
2002-05-27 15:59:17
Question à la commission
http://www2.europarl.eu.int/omk/OM-Europarl?PROG=WQ&L=EN&PUBREF=-//EP//TEXT+WQ+E-2002-0718+0+DOC+SGML+V0//EN&LEVEL=3&NAV=S
La section virtuelle du Parti Socialiste, Temps Réels, ouvre cette semaine le débat sur le vote en ligne : les expériences françaises, belges, anglaises sont passées à la loupe, ainsi que les conditions qu'impose la CNIL à ce genre d'expérimentation.
2002-05-27 16:45:43
Temps Réels
http://www.temps-reels.net/dos_afindex.php?dos=22
La Direction du développement des médias (DDM), service du Premier ministre mis à la disposition du ministre de la culture et de la communication, prépare les décisions du Gouvernement relatives au développement de l'ensemble des médias : presse écrite, télévision et radio, aussi bien que nouvelles formes de communication en ligne. Pour mieux informer le public et le monde professionnel des médias sur les actions et décisions de l’Etat dans ces secteurs, et en complément des ressources disponibles sur les autres sites publics (CSA, ministère de la culture et de la communication, CNC, INA…), la DDM a décidé de créer un site internet. On y trouve essentiellement : des dossiers thématiques, les principaux textes de référence (lois, décrets, arrêtés…), classés par type de média, plusieurs téléservices, un « extranet » sécurisé réservé aux 3000 éditeurs de la presse écrite auprès desquels, chaque année, la DDM est tenue de recueillir des données économiques, des guides pratiques, ainsi que les 15 dernières dépêches AFP concernant le secteur des médias et de la société de l’information
2002-05-27 22:09:08
DDM
http://www.ddm.gouv.fr/index.html
Lorsqu'un journal en ligne publie un article mettant en cause la réputation d'un individu vivant dans un autre Etat que celui où est normalement diffusé le journal, quelle juridiction est compétente pour juger s'il y a diffamation ? Celle de l'Etat de la publication, ou celle de l'Etat de résidence du plaignant ? C'est sur cette épineuse question que se penche actuellement une cour d'appel fédérale américaine qui doit se prononcer sur la recevabilité de la plainte déposée par Stanley Young, directeur de prison de son état. Une décision qui ne sera pas sans conséquence dans d'autres cas, juge le New York Times.
2002-05-27 22:35:27
New York Times
http://www.nytimes.com/2002/05/27/technology/27ELAW.html?todaysheadlines
Nous vous parlions récemment du Broadcast Protection Discussion Group, ce groupe de pression créé et soutenu par l'industrie américaine du cinéma qui a pour objectif d'insérer des mouchards dans tous les appareils d'enregistrement afin d'empêcher le portage au format numérique de contenus sous copyright. L'industrie informatique vient de réagir aux excès du BPDG en lui envoyant une lettre très critique dans laquelle Holllywood est accusé de vouloir étrangler le marché numérique. C'est à lire sur Politechbot.
2002-06-03 10:06:29
La lettre de la Computer and Commmunications Industry Association
http://www.politechbot.com/p-03612.html
C'est une mini-révolution dans le monde Linux : quatre importantes sociétés commercialisant des distributions Linux mettent désormais leurs efforts en commun pour créer une distribution normalisée. Il s'agit de Suse, Caldera, Connectiva et Turbolinux, chacune étant présente majoritairement sur un des continents. UnitedLinux ne sera pas une "nouvelle" distribution à proprement parler, mais plutôt un standard assurant une totale homogénéité entre les distributions participant au projet. Aux dernières nouvelles, Mandrakesoft refuserait catégoriquement de se joindre à ses confrères, tandis que Red Hat réserve encore sa réponse. L'objectif de UnitedLinux est d'offrir aux entreprises une garantie de standardisation permettant de mettre en place un suivi et un support plus assurés.
2002-06-03 10:16:57
UnitedLinux
http://www.unitedlinux.com/
A lire un intéressant article de CNN sur les réseaux sans fil à New-York, où la multiplication des utilisateurs commence à poser des problèmes de surcharge et d'interférences. Ainsi le Wifi, réseau sans fil censé être à haut-débit, devient aussi lent qu'une connexion téléphonique classique en début et fin de journée, raconte un des utilisateurs interviewé par la chaîne de télévision américaine.
2002-06-03 11:06:48
CNN
http://www.cnn.com/2002/TECH/ptech/06/02/wireless.crowding.ap/index.html
C'est le titre d'une conférence internationale organisée par l'Institut d'Economie Industrielle à Toulouse les 20 et 21 juin prochains. Les inscriptions sont closes évidemment, mais on peut toujours espérer des compte-rendus intéressants dans les semaines à venir.
2002-06-03 11:26:13
IDEI
http://www.idei.asso.fr/Commun/Conferences/Internet/OSS2002/Divers/Preliminary%20Programme2905.PDF
Steven Johnson, cofondateur de Feed et de Plastic.com a parlé, lors de la dernière conférence O'Reilly sur les technologies émergentes, de la manière dont les communautés électroniques s'organisaient, un peu à la manière des véritables villes. Il s'est apesanti en particulier sur les phénomène des "blogs", ces journaux intimes électroniques qui finissent par être reliés entre eux et former des sortes de communautés. C'est à écouter sur Technetcast
2002-06-03 20:50:33
Emergence - From Real-World Cities to Online Communities
http://technetcast.ddj.com/tnc_play_stream.html?stream_id=699
Metissacana, le premier cyber-café d'Afrique de l'Ouest, installé à Dakar au Sénégal, depuis devenu fournisseur d'accès, hébergeur et plus généralement prestataire technique, ferme ses portes. Le portail Afrik.com évoque des raisons financières et la faible résistance de ce haut-lieu de l'Internet africain face à la concurrence, devenue plus rude depuis quelque temps, pour expliquer cette fermeture
2002-06-03 23:00:34
Afrik.com
http://www.afrik.com/porte/naviporte/continent.htm?continent-519-9.htm
L'ICANN n'avait pas besoin de cela : Ben Edelman, un analyse du Berkman Center for Internet and Society, révèle que plusieurs milliers de noms de domaines enregistrés avec le suffixe .name ne sont pas conformes aux pré-requis imposés par l'ICANN à Global Name Registry, la société chargée de gérer l'enregistrement des noms de domaine sous cette extension. Et le pire, c'est que certains d'entre eux sont le fait de cybersquatters, que l'introduction de nouveaux gTLD était censée décourager...
2002-06-04 00:04:31
.NAME Registrations Not Conforming to .NAME Registration Restrictions
http://cyber.law.harvard.edu/people/edelman/name-restrictions/
HP vient de révéler qu'il présentera très prochainement une Tablet PC équipé d'un processeur Crusoe à 1 Ghz. Lancés par Microsoft il y a deux ans, les tablet PC font l'objet depuis de toutes les attentions des constructeurs de matériel informatique : plusieurs d'entre eux en ont proposé des exemplaires, d'ailleurs sans succès. Le magazine Cnet, qui rapporte cette information, prédit pourtant que les nouvelles machines ne ressembleront pas à leurs prédécesseurs : alors que les premières Tablet PC ressemblaient à des Palm géants, la prochaine génération s'inspirera davantage des ordinateurs portables, ou plutôt ultra-portables avec lesquels ils auront pour seule différence de ne pas posséder de clavier. Certains constructeurs proposent d'ailleurs déjà des machines "tout-en-un", avec clavier détachable (à moins que ce soit l'écran) qui offrent une utilisation des plus confortables. Il reste néanmoins que le principal obstacle à la popularisation de cette révolution "post-PC" comme la qualifiait Bill Gates, réside dans le prix de vente, qui la réserve pour l'heure aux utilisateurs professionnels.
2002-06-04 10:00:32
Cnet
http://news.com.com/2100-1001-930307.html?tag=cd_mh
C'est la thèse que défend Frédéric Madre dans la dernière livraison de sa "net critique". Explication : l'oeuvre, sitôt publiée sur le réseau, est irrémédiablement détruite par la multitude de liens qui lui sont attachés, dépecée dans le flux incessant de l'information hypertextuelle. Mais si l'oeuvre est détruite, celui qui la crée ne subit pas le même sort et s'affirme finalement, comme personnage, par delà la destruction de son oeuvre.
2002-06-06 21:50:35
Net critique
http://www.homme-moderne.org/kroniks/fmadre/0004.html#ref2
Le 3 juillet, la mission ECOTER organisera au sénat un séminaire sur les réseaux WiFi, ces réseaux locaux sans fil dont les possibilités semblent prometteuses. Techniciens, militants associatifs et reponsables administratifs viendront discuter des différents aspects, sociaux et économiques de cette technologie. Quel peut être sont rôle dans la réduction de la fracture numérique, quelle sera son évolution technique dans les prochaines années, peut-elle vraiment concurrencer l'UMTS comme on l'entend dire, qui de son utilisation en zone rurale, dans quel cadre réglementaire peut-elle être déployée ? Ce sont quelques unes des grandes questions qui seront abordées au cours de cette rencontre qui s'annonce passionnante.
2002-06-07 21:40:15
ECOTER
http://www.ecoter.org
Newsfactor révèle que Microsoft s'apprête à commercialiser un système d'identification nommmé Trustbridge, destiné à permettre à des entreprises partenaires de s'échanger des informations d'identification pour leurs employés et leurs clients par l'intermédiaire d'une architecture de type "Web Service" basée sur le XML.
2002-06-06 22:01:54
Newsfactor
http://www.newsfactor.com/perl/story/18107.html
Selon le site Service-public.fr, "le Conseil général des Landes va remettre gratuitement et pour une année près de 4000 ordinateurs portables aux collègiens du département. Le conseil général des Landes a annoncé lundi 3 juin que la totalité des collègiens de 3ème du département, ainsi que leurs professeurs, se verront remettre gratuitement un ordinateur portable à la rentrée prochaine. Les ordinateurs seront remis aux élèves pour une année après signature d'un convention de prêt par les parents, sans caution, ni assurance supplémentaires. Près de 4000 ordinateurs seront distribués, notamment à partir du 17 juin pour les enseignants."
2002-06-06 22:08:31
Conseil général des Landes
http://www.landes.org/fr_vivre_nouv_techno_portables.asp
Mises de plus en plus ouvertement en cause pour leur incapacité à prévoir les attentats du 11 septembre, les agences américaines du renseignement et de lutte contre la criminalité tentent de parer les coups en promettant une meilleurs efficacité pour l'avenir. Ainsi, le FBI a présenté récemment un plan de réorganisation qui devrait étendre ses pouvoirs d'investigation, notamment en matière de surveillance des communications et bases de données électroniques.
2002-06-06 22:20:49
Zdnet
http://zdnet.com.com/2100-1105-933202.html
Les autorités indépendantes nationales de régulation des télécommunications viennent de se doter d'un instrument de travail en commun, afin d'harmoniser leurs pratiques de régulation des marchés nationaux : l'IRGIS, pour Independant Regulator Group Information Sharing doit leur fournir un cadre institutionnel efficace pour mener à bien leur projet
2002-06-06 22:28:15
IRGIS
http://irgis.icp.pt/site/fr/index.asp
Education et logiciels libres, le flirt s'accentue : le Centre National de Documentation Pédagogique de l'Académie de Versailles propose en effet en téléchargement une distribution Linux (à base Debian) spécialement conçue pour l'éducation. Outre les habituels programmes présents dans toutes les distribution Linux, on y retrouve en effet une sélection de logiciels remarqués pour leur apport pédagogique. Pour l'occasion, le CNDP a bénéficié du soutien de Linuxgraphic et Logidée. Une expérience à suivre.
2002-06-06 23:01:46
Linux et pédagogie
http://logiciels-libres-cndp.ac-versailles.fr/index.html
L'AFUL et l'APRIL, deux associations françaises pour la promotion du logiciel libre interpellent dans une lettre ouverte les candidats aux élections législatives sur les problèmes que peuvent créer la légalisation des brevets logiciels en Europe. Dénonçant le quasi-monopole de Microsoft sur de larges pans du secteur logiciel, elles rappellent en effet que cette entreprise a déposé récemment aux Etats-Unis des brevets interdisant toute interopérabilité entre son système de fichier et d'autres systèmes concurrents sous licence GPL. Il s'agit, pour les deux associations, d'une volonté délibérée de la part de Microsoft d'étouffer le logiciel libre, notamment son système de partage de fichiers le plus populaire : Samba, et de continuer ainsi à s'assurer la continuation de son monopole en faussant les règles de la libre concurrence.
2002-06-06 23:30:10
Communiqué
http://www.april.org/articles/communiques/pr-brevets-legislatives.html
Première réaction importante à l'adoption le 29 mai dernier d'une directive européenne autorisant les Etats membres à conserver les données de connexion pendant un an : l'association Reporters sans Frontières appelle les fournisseurs d'accès et prestataires techniques du continent à ne pas obéir à ce type d'injonction ; en particulier à ne pas divulguer d'information sur leurs clients aux services de police ou administratifs sans y être autorisés par un juge. Par ailleurs, l'association présidée par Robert Ménard incite les citoyens à crypter leur correspondance électronique en utilisant le logiciel libre Openpgp (et non PGP comme l'indique par erreur le site de RSF).
2002-06-09 21:35:33
RSF
http://www.rsf.org/article.php3?id_article=2541
On le sentait venir depuis les dernières release candidates : Mozilla, le célèbre navigateur open source est une réussite : léger, stable, agréable, beau, intégré, souple, respectueux des standards du Web, il accumule les superlatifs à la fois dans la presse spécialisée et dans notre coeur. Et il ne s'agit pas uniquemet du navigateur, car le client courrier et l'éditeur HTML qui l'accompagnent sont eux aussi d'excellente facture. Espérons que ce chef-d'oeuvre saura gagner l'attention des utilisateurs d'Internet et finisse par remettre en cause la domination d'Internet Explorer. Rappelons que Mozilla est inclus dans les ["packs logiciel libre"->http://www.homo-numericus.bonidoo.net/article.php3?id_article=163] distribués par Homo Numericus.
2002-06-09 22:10:27
Mozilla
http://www.mozilla.org
Le WiFi est à la mode : les premières communautés d'ordinateurs communiquant par ondes radios aux Etats-Unis ont été progressivement imitées un peu partout en Europe. En France, l'expérience de Mane a montré que les initiatives existaient. A Paris, une association d'utilisateurs est en train de prendre son essor. Wifi-Paris réunit les initiatives privées de parisiens divers et tente d'établir un dialogue constructif avec les autorités. Sur le site de l'association, on découvre une carte de l'Ile-de-France qui recense tous les points d'accès existants et en projet. Impressionnant... Ce qui plaît surtout dans cette association dirigée par Martin Loyer, un jeune étudiant en informatique, c'est une approche non conventionnelle du réseau : dans la plupart des articles de presse, le Wifi est célébré pour sa capacité à diffuser de l'accès à Internet. Wifi-Paris y voit surtout la possibilité de monter des réseaux d'échanges locaux (Metropolitan Area Networks) permettant de nourrir une véritable vie sociale de proximité. Pour illustrer leur approche, très ancrée dans le local du WiFi, ils proposent même aux visiteurs de leur site une courte nouvelle intitulée "WiFiction".
2002-06-09 23:01:49
WiFi-Paris
http://www.wifi-paris.net
Les Tablets PC se présentent comme les machines qui populariseront les nouvelles technologies dans les prochaines années, au delà de l'actuel marché du PC de bureau. Le New York Times publie aujourd'hui un test du ViewPad 1000, un Tablet PC produit par ViewSonic, offrant presque les mêmes performances qu'un véritable PC, et la portabilité d'un gros PDA. Alléchant...à condition d'y mettre le prix bien sûr : le prix public conseillé est à près de 2000 $. P.S : si Viewsonic souhaite qu'Homo Numericus parle de sa petite merveille, pas de problème. Vous connaissez mon adresse ;-)
2002-06-10 10:15:46
New York Times
http://www.nytimes.com/2002/06/06/technology/circuits/06STAT.html?todaysheadlines
Il faut lire la livraison de juin de First Monday, cette revue électronique internationale spécialisée sur Internet. Ce mois-ci en effet, on y trouvera un "scoop" sur la manière dont les projets open-source sont développés : S. Krishnamurthy analyse 100 projets hébergés par Sourceforge, et découvre que la plupart d'entre eux sont loin d'être aussi communautaires qu'on le dit souvent : un exament approfondi de l'histoire de chacun d'eux montre au contraire qu'ils sont souvent menés par un ou deux programmeurs ; très rarement plus de quatre. Il faut lire aussi une excellente réflexion sur l'open-source intelligence, cette nouvelle manière, communautaire, d'éditer et publier des informations sur un sujet précis. Fleix Stalder and Jesse Hirch examinent trois structures de publication correspondants à ces méthodes : la liste nettime, l'encyclopédie ouverte Wikipedia et le site Nologo.org pour en tirer un certain nombre d'enseignements sur l'intérêt et les limites de ce type de travail collaboratif. D'autres articles au sommmaire de cette livraison ne sont pas à négliger : un article examinant le conditions de la censure sur Internet en Turquie, un autre sur l'interconnexion des bases de données des bibliothèques publiques, encore un autre sur "la loi dans le cyberespace", un dernier sur Internet comme source d'informations pour les linguistes. Incontestablement le meilleur First Monday de l'année, à lire absolument pour ne pas mourir idiot.
2002-06-10 12:09:42
Best First Monday
http://www.firstmonday.org/issues/issue7_6/
C'est ce que vient d'annoncer la société E Ink qui a présenté du même coup les premiers prototypes de sa technologie d'affichage numérique sur support souple. E Ink développe depuis 1997 une technologie révolutionnaire d'affichage digital sur film plastique qui permet d'obtenir des surfaces à la fois souples, ultra-fines (0.3 mm) et peu gourmandes en énergie. Le champ d'application de ces écrans d'un nouveau type est immense, depuis les téléphones portables, PDA et autres machines portables jusqu'aux écrans publicitaires en ville et dans le métro, voire les journaux...
2002-06-10 15:05:33
E Ink
http://www.e-ink.com
Le Washington Post a publié la semaine dernière une excellente enquête sur le rôle que les banques et autres institutions financières sont appelées à jouer dans le dispositif de surveillance mis en place aux Etats-Unis au lendemain du 11 septembre. On voit notamment comment le Patriot Act peut les contraindre à mettre sous surveillance et à enregistrer l'ensemble des ordres financiers qui leur parviennent. Des logiciels spécifiques dits de "data mining" scrutent alors les informations enregistrées et comparent celles-ci avec des modèles typiques d'opérations ou bien de blanchiment d'argent ou bien de préparations d'opérations importantes. Ce type de surveilllance, qui avait été rejeté il y a quelques mois, peut désormais se mettre en place en toute quiétude. Pour l'auteur de l'article, les citoyens américains sont prêts à accepter un nouveau contrat social : plus de sécurité contre moins de confidentialité.
2002-06-10 16:05:23
Washington Post
http://www.washingtonpost.com/wp-dyn/articles/A49323-2002Jun2.html
Depuis quelques jours, film88.com, un site Internet hébergé en Iran proposait aux internautes de visionner des films commerciaux, américains pour la plupart, en streaming vidéo. Film88 représentait un véritable casse-tête juridique pour les majors d'Hollywood, dans la mesure où l'Iran n'a pas signé les traités internationaux sur le copyright et a rompu ses relations diplomatiques avec les Etas-Unis depuis 1979. Les conseillers juridiques de l'industrie cinématographique s'apprêtaient à demander aux fournisseurs d'accès de leur pays de filtrer l'accès aux serveurs de film88. Il n'auront pas à le faire. Le site présente désormais une page d'accueil où les webmestres s'excusent d'interrompre leur service en répétant à qui veut l'entendre qu'ils ne sont pas des pirates.
2002-06-10 18:41:47
Film88.com
http://www.film88.com/
On s'en est récemment rendu compte, les questions de liberté d'expression et de défense de la vie privée dans le cyberespace ne se jouent plus exclusivement à l'échelon national. Les institutions européennes ont désormais une activité législative intense qui a pour triste particularité de ne faire l'objet d'aucune surveillance de la part d'un "citoyen européen" encore dans les limbes. C'est cette lacune que veulent combler plusieurs associations des pays membres, en créant une association européenne pour la défense des droits civiques : European Digital Rights, qui rassemble dix d'entre elles, en Allemagne, Royaume-Uni, Pays-Bas, France ou Autriche. Le bureau est actuellement composé de Maurice Wessling, président de Bits of Freedom, Andy Müller-Maguhn du Chaos Computer Club et Meryem Marzouki pour l'IRIS.
2002-06-13 22:52:36
EDRI
http://www.edri.org/cgi-bin/index?funktion=board
On n'a pas fini d'entendre parler du jugement condamnant les deux webmestres de Défense-consommateur.org à payer des dommages et intérêts au cybermarchand Père-noël.fr pour la publication de messages diffamants sur le forum de leur site. Au vu de l'émotion engendrée par cette décision de justice, le Forum des Droits de l'Internet a décidé d'ouvrir un forum justement où tout un chacun peut s'exprimer sur le sujet.
2002-06-13 23:03:34
FDI
http://www.foruminternet.org/forums/read.php?f=3&i=95&t=95
A toutes les mauvaises langues qui sussuraient depuis quelque temps que le célèbre webzine décalé, impertinent et terriblement utile du net alternatif avait du plomb dans l'aile, on pourra répondre qu'ils peuvent se reporter au dernier article publié sur uZine : L'Internationale Situnaturiste, écrit par Arno* et Lirresponsable, décortique avec bonheur notre système médiatique au prisme de Nakednews, un site Internet très populaire qui mêle sans vergogne strip-tease et informations "sérieuses". Un sommet de malice et de pertinence pour le coup.
2002-06-13 23:14:08
uZine
http://rezo.net/uzine/article1687.html
Dans les pays qui connaissent des régimes autoritaires, où la liberté d'expression est la plupart du temps bafouée et la presse muselée, Internet représente souvent le dernier canal par lequel peuvent s'exprimer les voies dissidentes et la contestation. La Tunisie ne fait pas exception : le 4 juin dernier, Ettounsi, le webmestre du site Tunezine, un webzine d'information sur la situation politique tunisienne a été arrêté et son matériel saisi. Il a, depuis, disparu de la circulation. Entre-temps, les pages du site ont été mystérieusement effacées, et n'ont pu être remises en ligne, depuis la France, que grâce aux effort de Sophie Elwarda, une des journalistes animant le site. Afrik.com publie cette semaine une interview où elle explique pourquoi [Tunezine->http://www.tunezine.com/] dérange le pouvoir tunisien. -MAJ : prévu initialement pour aujourd'hui, le début du procès d'Ettounsi vient d'être reporté au 20 juin. Il risque dix ans de prison.
2002-06-13 23:33:18
Afrik.com
http://www.afrik.com/journal/internet/?net-532-3.htm
Le Père Noël n'aime pas qu'on le critique. L'association Défense-consommateur.org en fait en ce moment la triste expérience, mais elle n'est pas la seule. Samedi dernier, le site consacré aux DVD vidéos, DVDpascher.com, a reçu lui aussi une lettre du charmant vieillard lui enjoignant de retirer de ses forums toute allusion au cybermarchand. Du coup, les responsables du site ont décidé de se couvrir en déréférençant ce dernier de leurs bases de données et demande aux internautes de ne plus l'évoquer dans leurs messages. Ou comment un commerçant qui fait l'objet de [plusieurs plaintes de la part d'anciens clients->http://www.01net.com/rdn?oid=184001], contre lequel plusieurs procédures sont en cours, mais reste bien sûr présumé innocent en l'attente du jugement, décide par le simple pouvoir de l'intimidation du contenu éditorial d'autres sites à son sujet.
2002-06-17 09:32:32
DVDpas cher
http://www.dvdpascher.net/news1/news1949.php
Et c'est Walmart, la plus grande chaîne de supermarchés américaine qui le fait en proposant des ordinateurs de 300 à 600$ tournant sous Lindows, une distribution Linux conçue pour ressembler le plus possible à Windows, en moins cher évidemment et sans les bugs. Il y a quelques semaines, Walmart avait déjà effectué un premier mouvement hors de la sphère de domination Microsoft en proposant à la vente des ordinateurs sans système d'exploitation. Il va aujourd'hui plus loin et fissure un peu plus le monopole de Redmond sur les systèmes d'exploitation pour ordinateurs personnels.
2002-06-17 10:00:46
Walmart
http://www.walmart.com/catalog/product_listing.gsp?path=0%3A3944%3A3951%3A41937%3A86796%3A96356&dept=3944&cat=96356&sb=61&bti=0
Vivre le net, une association d'usagers français du réseau représentée par Stéphanie Lespérance fête ses dix mois d'activités ; et pour faire bonne mesure, elle réaffirme à cette occasion les dix revendications les plus importantes qu'elle souhaite défendre dans les mois à venir. Au menu, on trouvera la TVA sur le matériel informatique, l'assouplissement de la législation sur le Wifi, l'utilisation des logiciels libres dans les administrations ou encore la limitation dans la conservation des données de connexion par les prestataires techniques. Particulièrement critique vis-à-vis de l'Etat, l'association considère en effet que les institutions législatives et exécutives constituent les "dernières institutions à freiner les développements [de l'Internet] et à adopter des mesures contre productives".
2002-06-17 10:15:35
Vivre le net
http://vivrele.net/node/682.html
Selon les termes d'un contrat passé entre l'ICANN, l'organisation en charge de la gestion des noms de domaine, et Verisign, la société privée gérant jusqu'à présent l'attribution des noms de domaine en com, net et org, cette dernière société devrait garder le contrôle de com et net dans les années à venir, pour laisser la gestion des org à un autre organisme. Dans la mesure où cette extension de nom de domaine est censée être réservée aux associations et organisations à but non lucratif, les termes de l'appel d'offres organisé par l'ICANN prévoit que ce soit précisément une organisation à but non lucratif qui emporte le marché, évalué à 10 millions de dollars par an. Le New York Times fait le point sur la compétition et s'intéresse tout particulèrement à deux pionniers du réseau qui sont décidés à jouer les trouble-fêtes.
2002-06-17 10:36:38
New York Times
http://www.nytimes.com/2002/06/15/technology/15NET.html?todaysheadlines
Jean-Pierre Cloutier [révélait->http://www.cyberie.qc.ca/chronik/20020611.html#e] la semaine dernière que le Parlement sud-africain avait adopté récemment en première lecture un projet de loi sur les communications électroniques. A la lecture de ce texte, il apparaît bien qu'il ressemble étrangement au défunt projet de loi sur la société de l'information porté en France par le gouvernement Jospin juste avant la clôture de la session parlementaire. Mêmes types de dispositions sur la réglementation de la cryptographie, de la surveillance des commmunication, sur la reconnaissance légale de la signature électronique ou encore sur le commerce électronique. Le point un peu original concerne la gestion du nom de domaine national, za, qui doit être géré directement par une autorité ad hoc sous contrôle gouvernemental. Si cette autorité est censée permettre une représentation équitable des l'ensemble des acteurs de l'Internet sud-africain, par le biais notamment de son board of directors, elle reste tout de même sous tutelle de l'Etat, contrairement à ce qui est pratiqué dans les autres pays, où les noms de domaines nationaux sont gérés le plus souvent par des associations ou coopératives indépendantes dotées de relations contractuelles avec l'ICANN. Alors que le ccTLD za est actuellement contrôlé par la société Namespace, cette "nationalisation" du nom de domaine crée des remous importants en Afrique du Sud. Mais là encore, ce mouvement n'est pas sans précédent. On sait par exemple que le projet de loi sur la société de l'information, en France, prévoyait une semblable nationalisation de principe en déclarant le ccTLD fr "ressource publique" dans son [article 2->http://www.legifrance.gouv.fr/html/actualite/actualite_legislative/prepa/pl_pli.htm] (Titre I, Chap I). Il était d'aillleurs prévu que le Ministre de la Communication nomme souverainement les organismes (i.e. l'AFNIC en l'occurrence) à qui il déléguerait ses pouvoirs. Si les projets de lsi français et sud-africains diffèrent donc quelque peu sur les moyens de réaliser cette gestion déléguée, ils dérivent cependant tous deux du même principe sur le sujet.
2002-06-17 13:03:23
Projet de loi (PDF)
http://www.gov.za/gazette/bills/2002/b8-02.pdf
L'association britannique de protection de la vie privée vient de publier un rapport particulièrement critique à l'encontre du P3P, le protocole pour Internet développé dans ce domaine par le W3C. Perçu, au dire de l'Epic, par les éditeurs de sites web comme un bon moyen pour empêcher la mise en place d'une législation protectrice en la matière aux Etats-Unis, P3P n'assure qu'une faible protection dit le rapport. Car il repose pour l'essentiel sur les déclarations d'intention des sites visités et ne garantit pas que la politique de gestion des données personnelles effectivement mise en oeuvre par les sites corresponde à leur déclaration via P3P. De manière plus générale, l'EPIC assure que laisser toute la responsabilité de la communication de ses données personnelles à l'internaute revient à une absence de protection dans la mesure où, par lassitude, comme c'est le cas actuellement pour les cookies, ou par manque de connaissances techniques, il finira toujours par accepter de révéler ce qu'un site lui demande, simplement pour pouvoir accéder à l'information qu'il recherche. De ce point de vue, conclue l'association, P3P ne peut remplacer une législation contraignante, à l'instar des mesures prises depuis 1998 par l'Union Européenne.
2002-06-17 13:44:40
Rapport de l'EPIC
http://www.epic.org/Reports/prettypoorprivacy.html
Milton Mueller, un professeur de communication à l'université de Syracuse (aux Etats-Unis...) vient de publier aux éditions du MIT un ouvrage retraçant l'histoire d'Internet et plus particulièrement du système de noms de domaine sans lequel il ne pourrait exister. Battant en brèche la vulgate libertaire selon lequelle le réseau des réseaux serait "ingouvernable", il montre au contraire comment les évolutions du mode de gestion du DNS, depuis le "despotisme éclairé" de Jon Postel jusqu'aux affres récents de l'ICANN ont abouti à une restriction considérable de la liberté d'expression. La thèse de Mueller semble intéressante : depuis vingt ans, les ingénieurs et scientifiques qui géraient le DNS ont progressivement perdu leur pouvoir au profit des commerciaux qui ont peu à peu imposé leurs problématiques, toutes dérivées du droit sur la propriété intellectuelle, à l'ensemble du fonctionnement du net.
2002-06-17 15:30:03
Ruling the root
http://istweb.syr.edu/~mueller/onlinepubs.htm
Etonnante ordonnance que celle du Tribunal de Grande Instance de Paris. Le 31 mai dernier, il a émis une ordonnance à l'encontre de l'enregistreur de noms de domaine Gandi, le contraignant à mettre en place une redirection sur le nom de domaine miditext.com vers une page affichant cette même ordonnance ; autrement dit, rendant inaccessible le site, qui contiendrait plusieurs centaines de fichiers musicaux contrevenant au code de la propriété intellectuelle. C'est la première fois qu'un tribunal se tourne vers un registrar et non l'hébergeur pour suspendre un site...Evidemment, c'est assez inefficace : le site est accessible depuis quelques jours sous miditext.net, enregistré par Direct Information,société basée à ...Bombay.
2002-06-17 21:48:20
Miditext
http://www.miditext.com
La tyrannie du code informatique propriétaire ne concerne pas que les PC; Demandez à n'importe quel artisan garagiste, les voitures sont aujourd'hui de plus en plus impossible à réparer en dehors des garages concessionnaires de la marque. La raison : la prolifération d'éléments électroniques embarqués dont les codes de dépannage sont la propriété exclusive du fabricant. Un sénateur du Minnessota s'en est ému au nom du respect de la libre concurrence et vient d'introduire une proposition de loi visant à contraindre les fabricants à rendre publics les codes de dépannage des appareil électroniques présents à bord des véhicules. Une sorte de procès Microsoft de l'automobile.
2002-06-17 23:45:56
USAToday
http://www.usatoday.com/life/cyber/tech/2002/06/13/car-computers.htm
C'est la question que se pose cette semaine la revue Technology Review du MIT. Dans cet article très complet, Charles Mann analyse en détail la manière dont les programmeurs travaillent ainsi que les pressions économiques qui pèsent sur l'ensemble du secteur, l'empêchant de commercialiser des produits finalisés. Mais les temps sont en train de changer, argumente-t-il. Car les erreurs de programmation n'ont pas pour seul effet de provoquer l'apparition du fameux "écran bleu" familier aux utilisateurs des logiciels Microsoft. Les programmes informatiques régissent aujourd'hui l'ensemble de notre vie quotidienne et, des appareils de radiothérapie aux systèmes de gestion des services d'urgence en passant par les hélicoptères de l'armée, les défauts dont fourmillent les logiciels ont déjà provoqué la mort de plusieurs personnes. Il est étonnant qu'aucun procès n'ait mis en cause la responsabilité légale des éditeurs. Mais selon l'auteur de l'article, cela ne saurait tarder.
2002-06-19 21:55:17
Technology Review
http://www.technologyreview.com/articles/mann0702.asp?p=0
L'Internet Society tient en ce moment son forum annuel : Inet 2002. Cette réunion qui rassemble traditionnellement la jet-set de l'Internet concentre son attention cette année sur les rapports entre technologie et politique. Sont attendus en particulier des communications de V. Cerf et B. Kahn sur le développement d'Internet, de L. Lessig sur le coyright, de J. Podesta, l'ancien directeur de l'administration Clinton sur les moyens de surveillance sur Internet et de R. Huntdt, l'ancien directeur de la FCC sur les prochaines révolutions qui bouleverseront le réseau. Que du beau monde ! On notera en outre la tenue au même moment de l'IPv6 Technology Deployement Summit qui fait le point sur la mise en place de ce nouveau protocole de communication sur Internet.
2002-06-19 22:09:59
Inet2002
http://www.inet2002.org/
La question des noms de domaine et de leur attribution concentre une bonne partie des enjeux politiques et économiques qui touchent au réseau des réseaux. Les difficultés de l'ICANN, les nombreux procès en propriété intellectuelle sur l'enregistrement des noms de domaine, la gestion des noms de domaine nationaux en sont les symptômes les plus connus. Pour faire le point sur les enjeux du nommage sur Internet, l'Isoc-France, le CIGREF et l'Association des Ingénieurs d'Arts et Métiers organisent les premiers états généraux du nommage européen à Paris le 4 juillet prochain. Comprendre la réforme tant attendue de l'Icann, prendre connaissance de la position du gouvernement américain ; l'avenir des noms de domaine avec notamment la question du multilinguisme; le point sur le cybersquatting, nommage et liberté d'expression avec l’affaire jeboycottdanone.com, le .eu est il un enjeu de souveraineté pour l’Europe, la création de systèmes alternatifs de nommage, quelle valeur attribuée au nom de domaine, sont les principales questions qui seront débattues au cours de cette journée en sessions plénières ou en ateliers.
2002-06-19 22:21:38
Domainname2002
http://www.eurocio.org/domainname/index.html
Le monde des média borgs est impitoyable. Et Microsoft semble avoir pris depuis jeudi un avantage décisif sur son éternel concurrent dans le domaine des contenus en ligne : AOL. La firme de Redmond vient en effet de passer à un accord avec l'opérateur Verizon, un géant des télécommunications qui fournit un accès Internet ADSL à près d'un million et demi de clients. Selon les termes de cet accord, Vérizon dirigerait par défaut ses clients sur le portail MSN, leur offrant du même coup des services d'e-mail et d'accès à des contenus en ligne made in Microsoft; Une alliance assurément dirigée contre AOL dont le modèle économique repose pour l'eessentiel sur ce genre de service.
2002-06-21 21:10:00
Siliconvalley.com
http://www.siliconvalley.com/mld/siliconvalley/news/editorial/3510448.htm
Cnet révèle que certains DVD du film Harry Potter, édités et vendus par Warner Bros, sont dépourvus de système de protection anti-piratage qui empêcherait d'en faire la copie sur bande magnétique. Les clés de protection contre toute copie entièrement numérique semblent, elles, bien en place. Selon Cnet, cette innovation de la part d'une des entreprises les plus en pointes dans la peur et la répression du piratage de ses contenus ne constitue pas du tout le signe d'un assouplissement quelconque de la politique des poids lourds d'Holliwood contre la copie illégale de films. Manquand d'argent, l'énorme compagnie serait tout simplement en train de faire des économies de bout de chandelle et d'augmenter ses marges bénéficiaires sur un film promis à un grand succès commercial.
2002-06-21 21:19:45
Cnet
http://news.com.com/2100-1023-938008.html?tag=fd_top
On se souvient de la condamnation il y a quelques mois des auteurs du site jeboycottedanone.com pour contrefaçon, au prétexte qu'ils avaient détourné le logo du géant de l'agroalimentaire pour critiquer sa politique sociale. Dans quelques jours, l'association Greenpeace risque de subir la même mésaventure, pour avoir tenté d'alerter la population sur les attaques du groupe pétrolier Esso contre le protocole de Kyoto. Les pages exposant les modalités de la campagne de l'association environnementaliste, intitulées Stopesso, reprennent en effet le célèbre logo du pompiste en remplaçant simplement les deux "s" de la marque par des dollars, manière de signifier par un raccourci visuel quelles sont les valeurs qui guident cette entreprise. La réponse ne s'est pas fait attendre, sous la forme d'une assignation en référé devant le Tribunal de Grande Instance de Paris le 1er juillet prochain pour imitation et reproduction illicite de la marque.
2002-06-24 20:36:03
Stopesso
http://www.greenpeace.fr/stopesso/index.html
Le toujours très pertinent magazine en ligne Afrik.com s'est amusé à taper les noms des principaux chefs d'Etat africains dans la barre d'adresse du navigateur. Ils n'ont pas été déçu du voyage. Au terme de cette enquête hilarante, on se rend compte que la majorité des noms ne sont pas déposés, offrant une cible de choix au premier cybersquatteur venu. Quant à ceux qui sont déjà enregistrés, ils le sont rarement au bénéfice du principal intéressé. Si certains renvoient à des sites d'opposants, d'autres pointent vers des entreprises aux activités diverses, voire des sites pornographiques particulièrement salés.
2002-06-27 10:58:14
Afrik.com
http://www.afrik.com/journal/internet/?net-543-4.htm
Plusieurs associations de consommateurs, françaises et québécoises, viennent de mettre en ligne un guide sur les règles élémentaires de prudence à respecter lorsqu'on fait ses achats sur Internet. Les principaux aspects de l'achat en ligne sont évoqués : le suivi de la commande, la protection des données personnelles, les adresses des organismes vers qui se tourner en cas de réclamation, la protection des enfants dans les cyber-boutiques. Clair et bien présenté, ce guide (qui peut être téléchargé en entier pour impression) reste néammoins très général et offre peu de contenus. Il y a encore du pain sur la planche.
2002-06-27 11:37:53
Le cyberconsommateur averti
http://www.clcv-org.ac.psiweb.com/cyber/infos/projet.html
Informatiques magazine publie un passionnant dossier sur la force des mythes attachés à l'usage des Nouvelles Technologies dans l'entreprise. Le mythe en particulier du "fabless" et de l'"entreprise en réseau" a considérablement modifié les pratiques managériales dans les grandes entreprises. Résultat, l'entreprise éphémère ne garantit plus la sécurité de personne, surtout pas celle de ses salariés, peu à peu transformés en intermitents du spectacle. Pour nombre d'observateurs interviewés par le magazine, cette évolution constitue un obstacle à leur créativité.
2002-06-27 12:01:55
Vnunet
http://www.vnunet.fr/ent/doss/ent/mythes.htm
News.com révèle que dans cet étonnant pays, une société s'apprête à mettre sur le marché et la voie publique des machines automatiques permettant de copier des CD pour un montant de 5$ l'unité. Selon News.com, personne ne se fait d'illusion sur les finalités pour lesquelle le grand public utilisera ces machines. On commence d'ailleurs à les appeler les "CD-pirating kiosks". Le plus étonnant dans cette affaire est l'accord abtenu par la société les commercialisant de la part de l'AMCOS qui est l'équivalent local de la SACEM : plutôt que de refuser en bloc, celle-ci a demandé des royalties de 6% sur chaque copie. Les Australiens ne manquent pas toujours de pragmatisme.
2002-06-27 15:11:40
News.com
http://news.com.au/common/story_page/0,4057,4567037%255E13762,00.html
Père-noël.fr est en train d'apprendre que la justice fonctionne dans tous les sens. La société dirigée par Alexandre Fur vient en effet d'être condamnée en appel par le tribunal de Lyon à payer à la société SFI, une web agency ayant réalisé le site du cybermarchand, la sommme de 870000€ qu'il lui devait depuis l'année dernière. Selon les termes du communiqué de presse diffusé par SFI, les tentatives de saisie sur les comptes de père-noël.fr se sont toujours soldées par des échecs, parce qu'ils étaient à découvert.
2002-06-29 12:13:35
SFI
http://www.sfi.fr/
Le FDI, combien de divisions ? C'est la question que tout le monde se pose à propos de cet organisme au statut ambigu, un peu éthéré, sorte d'ovni mi-administratif, mi-associatif dans le Paysage de l'Internet Français. Réponse : en mai 2002, le site du Forum a totalisé une fréquentation de 15000 visiteurs uniques pour 150000 pages vues. Autant dire très peu pour un organisme dont le budget de fonctionnement s'élève tout de même à plus d'un milllion d'euros. Mais la manière dont l'équipe du Forum a abordé les questions relatives à Internet n'est pas pour attirer le grand public : les débats et travaux y restent très juridico-juridiques, très techniques et relativement impénétrables pour le commun des mortels. Résultat : le FDI est devenu un organisme de référence dont le sérieux n'est plus a démontrer pour les spécialistes du droit de l'Internet, et seulement pour eux. La direction de l'organisme est semble avoir pris conscience de la situation : elle s'est récomment lancée dans plusieurs projets en direction du grand public, que ce soit les élèves des écoles, par le biais d'un partenariat avec l'Education Nationale, ou par la préparation d'un forum mondial sur la liberté d'expression sur Internet en octobre prochain, en liaison avec l'UNESCO.
2002-06-27 16:06:06
Forum des Droits sur Internet
http://www.foruminternet.org
Le 31 mai dernier, le Parlement Européen a autorisé les Etats membres à conserver les données de connexion des internautes au delà de la durée nécessaire aux opérations de facturation. Cette décision fut prise contre l'avis de la Commission parlementaire des droits et des libertés dont le rapport, rédigé par M. Cappato, soulignait les dangers que de telles mesures faisaient peser sur le respect des droits de l'homme en Europe. M. Cappato, et les députés du Parti Radical italien ne s'avouent pas défaits par ce vote. Le 10 juillet prochain, ils organisent une conférence à Bruxelles sur le thème "Démocratie, Liberté et Internet" afin d'informaer et de débattre des moyens par lesquels ils pourraient continuer leur lutte contre ce qu'ils considèrent comme un "nouveau 1984".
2002-06-27 22:45:43
PRI
http://195.62.53.42/pressreleases/press_release.php?func=detail&par=1997
Microsoft a récemment dévoilé en exclusivité à Newsweek la teneur de son prochain système de gestion des données personnelles et de sécurité. Portant le nom de Palladium, ce système, que l'on espère opérationnel en 2004 devrait permettre aux utilisateurs de crypter leurs données, et de les transmettre sous cette forme, interdire l'exécution de logiciels non reconnus par le système (donc des virus), ou encore des permettre à l'utilisateur de disposer d'un portefeuille crypté de ses données personnelles hébergé sur les serveurs de Microsoft. Palladium devrait aussi gérer les systèmes de droits numériques (DRM) et s'appuierait, pour son fonctionnement, sur des éléments matériels (micro-processeurs en particulier) compatibles. Déclenchant des flots de réactions, cette révélation inquiète les afficionados des logiciels libres : car Palladium demandera à tous les acteurs informatiques en communication avec l'utilisateur d'être "compatibles" voire "certifiés" par le système de Microsoft. Il semble bien en effet que l'entreprise de Redmond soit en passe de réussir ici l'objectif qu'elle s'était fixé depuis ses débuts : se rendre totalement indispensable.
2002-06-29 21:48:12
Newsweek
http://www.msnbc.com/news/770511.asp?cp1=1
La BBC vient de publier un intéressant reprotage sur les usages d'Internet en Iran. Le réseau n'y est en effet pas censuré, contrairement aux médias classiques. Et selon Alfred Hermida, ce sont près de 400000 iraniens qui utilisent aujourd'hui ce moyen de communication encore très marginal, mais qui a l'immense avantage d'être libre. Les blogs, ces journaux intimes publiés en ligne par des individus y sont très populaires ; ils permettent en particulier à certaines iraniennes de discuter librement de leur vie, de leurs aspirations ou de sujets plus tabous, bref, de prendre la parole, ce qui n'est déjà pas peu.
2002-06-29 22:13:39
BBC
http://news.bbc.co.uk/hi/english/sci/tech/newsid_2044000/2044802.stm
Un sénateur péruvien a déposé une proposition de loi visant à obliger toutes les administrations de son pays à utiliser des logiciels libres. SiliconValley.com qui rapporte l'information montre en effet comment le seul coût des licences d'utilisation pour la suite bureautique de Microsoft grève lourdement le budget des administrations et les empêche de développer de nouveau services. Pour Edgar Villanueva, le promoteur de cette initiative, Linux et les applications fonctionnant avec ce système d'exploitation, sont un bon moyen pour les Etats disposant de faibles ressources de se libérer du tribut qu'ils doivent payer aux entreprises occidentales pour accéder à l'ère numérique.
2002-06-29 22:31:19
Sliconvalley.com
http://www.siliconvalley.com/mld/siliconvalley/news/3531007.htm
Lors du dernier salon TechXNY, Microsoft a présenté la prochaine version de sa suite bureautique Office. Comme prévu, celle-ci présentera comme nouveauté majeure une plus grande intégration des différents logiciels de la suite dans les gros systèmes de gestion de données que gèrent les entreprises, au moyen en particulier du nouveau langage de descritption de données XML, sur lequel repose la plate-forme .Net développée par Microsoft. L'entreprise a aussi donné le coup d'envoi des fameux Tablets PC pour la rentrée en annonçant que trois constructeurs importants, Toshiba, Acer, et Fujitsu s'étaient engagé sur un calendrier de commercialisation en novembre prochain. Microsoft est évidemment en train de développer une version adaptés pour ces matériels de son système d'exploitation Windows XP.
2002-06-29 23:04:38
Cnet
http://news.com.com/2100-1001-938986.html
Aux Etats-Unis, les journaux en ligne multiplient les procédures d'enregistrement pour donner accès aux nouvelles qu'ils publient. Le New York Times le premier (avec 10 millions d'utilisateurs enregistrés), mais aussi le Los Angeles Times, The Tribune ou le Dallas Morning News, tous obligent leurs lecteurs à dévoiler certaines des données personnelles qui les concernent. Que font-ils de ces données ? Pourquoi en ont-ils besoin ? Comment les utilisent-ils ? Ce sont quelques-unes des questions que l'Online Journalism Review pose cette semaine aux directeurs marketing des plus importants d'entre eux, en obtenant des réponses pas toujours satisfaisantes.
2002-07-01 10:12:14
OJR
http://www.ojr.org/ojr/lasica/1025227718.php
Les réseaux peer-to-peer sont au centre d'une des plus importantes batailles de l'ère numériques entre les utilisateurs qui désirent échanger leur fichiers et l'industrie du copyright qui cherche à les en empêcher. Mais jusqu'à présent, la bataille se déroulait essentiellement devant les tribunaux, au cours de procès à rallonge aboutissant généralement au démantèlement juridique des réseaux concernés : Napster en est le plus célèbre exemple. Un sénateur démocrate, Howard Berman, vient de proposer un projet de loi autorisant les entreprises de commercialisation de matériel copyrighté à utiliser des mesures techniques pour attaquer le pirates utilisant les réseaux d'échange. Jusqu'à présent, ce type d'attaque leur est interdit, comme à tout le monde, au titre du Computer Fraud and Abuse Act qui réprime le piratage informatique. Berman voudrait que cette loi soit assouplie uniquement poure eux. Proposition accueillie avec enthousiasme par la RIAA, on s'en doute.
2002-07-01 11:18:36
Washtech
http://www.washingtonpost.com/wp-dyn/articles/A43256-2002Jun25.html
Lors de son assemblée trimestrielle à Bucarest, l'ICANN, l'organisme qui gère l'attribution de noms de domaine sur Internet, vient d'approuver le plan de réforme proposé par le comité ad hoc mis sur pied il y a quelques mois. La mesure la plus importante de cette réforme concerne l'élection de représentants des utilisateurs individuels au conseil d'administration. Ceux-ci ne seront désormais plus représentés directement, puisque la majorité des directeurs de l'ICANN seront nommés par un comité interne chargé de désigner les personnalités jugées les plus représentatives de groupes d'intérêt qui ont affaire au nommage. Cette réforme, qui s'accompagne d'une proposition de taxation sur l'enregistrement de noms de domaine, a provoqué la colère de la plupart des groupes d'utilisateurs qui dénoncent l'imposition d'une "taxation sans représentation". Certains d'entre eux promettent de demander un arbitrage au Département américain du Commerce, sous la tutelle duquel l'ICANN est encore placé.
2002-07-01 11:45:37
Siliconvalley
http://www.siliconvalley.com/mld/siliconvalley/3563837.htm
L'année prochaine se tiendra à Genève, sous la houlette de l'ONU et de l'UIT, un Sommet Mondial sur la Société de l'Information, censé réunir délégations gouvernementales, acteurs privés et associations pour discuter des grandes orientations à venir dans ce domaine. Le sommet fait d'ores et déjà l'objet de réunions préparatoires (intitulées Prépcom1) permettant d'organiser à l'avance à la fois le déroulement matériel et les thèmes qui seront abordés au cours du sommet. C'est au cours d'une de ces séances que les organisations non gouvernementales ont appris qu'elles seraient tenues à l'écart des grandes décisions concernant cette organisation. Lers négociations intergouvernementales semblent en effet très difficiles, notamment en raison de la position de pays comme la Chine ou le Pakistan, peu enclins à admettre une participation active de la société civile au Sommet. Mises à l'cart, les ONG ont décidé de porter l'affaire sur la place publique en publiant une série de communiqués de presse à venir dénonçant cette situation.
2002-07-01 12:07:54
Dossier d'IRIS
http://www.iris.sgdg.org/actions/smsi/
La loi s'exerce à l'intérieur des frontières nationales, pas Internet. La constatation classique de l'impuissance relative d'une justice territorialisée par rapport à Internet est en passe de s'inverser, estime Michael Geist, un professeur de droit à l'Université d'Ottawa. Dans le Globe and Mail, il explique en effet que d'un côté les systèmes de profilage des utilisateurs permettent aux sites Web d'offrir des contenus différents en fonction de l'origine géographique des visiteurs, tandis que de l'autre, les législations adoptées par l'Union européenne sur les données personnelles ou les Etats-Unis sur la protection du copyright sont désormais conçues pour s'exercer aussi à l'extérieur de leurs frontières. Dès lors, des pays comme le Canada se retrouvent subir en ce qui concerne les services numériques des lois qui lui sont étrangères, imposées par des ensemble géopolitiques plus importants. Ce qui n'est pas sans poser quelques problèmes de souveraineté, montre-t-il, exemples à l'appui.
2002-07-01 12:45:30
The Globe and mail
http://www.theglobeandmail.com/servlet/ArticleNews/printarticle/gam/20020627/TWGEIS
On sait combien il est difficile et coûteux pour une moyenne entreprise d'acquérir et surtout d'assurer la maintenance d'un serveur lui permettant d'accomplir en toute sécurité l'ensemble de ses tâches bureautiques et informatiques. IBM qui s'est distingué depuis longtemps dans le domaine du service informatique vient d'en lancer un nouveau : Linux virtual services qui révolutionnera peut-être les rapports qu'entretiennent les entreprises avec leur informatique : il s'agit en effet de vendre de l'accès à des serveurs mainframe IBM, au prix unitaire de 300$ par mois pour une puissance d'un tiers de processeur Intel. Ce service permettrait ainsi, - puisqu'il s'accompagne de la maintenance et de l'assitance désirée - aux entreprises d'éviter d'acheter des serveurs et de recruter le personnel qualifié qui va avec.
2002-07-01 20:50:27
IBM
http://www-3.ibm.com/services/e-business/hosting/mgdhosting/linux.html
A New York comme à San-Francisco, les câblo-opérateurs ont déclaré la guerre à leurs clients qui partagent leur connexion à Internet via un réseau Wifi. Le New York Times raconte en effet que la compagnie Time Warner Cable a récemment envoyé plusieurs lettres à ses clients leur demandant de démanteler leurs réseaux sans-fil offrant à quiconque un accès gratuit à Internet. Selon les opérateurs, ce genre de réseau permettant à plusieurs personnes de partager une seule connexion à Internet entraîne une sur-utilisation de la bande passante qui, multipliée peut obliger l'opérateur à opérer des investissements coûteux. Mais dans ses lettres, Time Warner explique aussi que le propriétaire du compte permet aussi à quiconque de se livrer à des opérations délictueuses de manière totalement anonyme...ou presque : puisqu'en cas d'enquête, c'est au final au compte de l'"opérateur" Wifi qu'on aboutira ; et c'est lui qui portera la responsabilité. -Lire aussi : [Rickt.org->http://rickt.org/stuff/soho_wireless/twcnyc/]
2002-07-01 21:23:02
New York Times
http://www.nytimes.com/2002/07/01/technology/01WIFI.html
Le Pew Internet & American life Project vient de publier une étude très intéressante sur le comportement en ligne des utilisateurs d'Internet à haut-débit. Cette étude montre en effet que 80% d'entre eux publient sur le réseau des contenus numériques, que ce soit via des sites Web, des "blogs" ou encore en partageant leurs fichiers sur des réseaux peer-to-peer. Acteurs du réseau, bien plus que consommateurs, ils l'utilisent essentiellement pour la recherche d'informations, ce qu'ils estiment ne pas pouvoir faire avec la même efficacité au moyen d'une connexion classique. Pour ces utilisateurs, c'est autant la possiblité de rester en ligne de manière permanente que la vitesse de connexion qui importe. Par ailleurs, le rapport révèle que ces utilisateurs intensifs font usage d'Internet de manière plus riche et diversifiée que les autres, effectuant de manière régulière sept activités contre trois pour les connectés à bas débit. Pour l'analyse ces données, les auteurs du rapport reconnaissent être confrontés à un problème de l'oeuf et de la poule : ces utilisateurs ont-ils souscrits à une connexion à haut-débit parce qu'ils sont des utilisateurs intensifs ou le sont-ils devenus grâce à leur connexion ? Question insoluble bien sûr, mais qui montre que la vitesse de la connexion n'est pas seulement une question de rapidité : elle engendre un saut quallitatif dans l'utilisation d'Internet.
2002-07-01 22:12:51
The Broadband Difference (PDF)
http://www.pewinternet.org/reports/pdfs/PIP_Broadband_Report.pdf
Les procès et décisions judiciaires impliquant la responsabilité des animateurs de forums de discussion se mutltiplient. A la suite de la lourde condamnation qui a frappé les webmestres de défense-consommateur.org, l'association Vivrelenet a récemment publié un avis sur le sujet. L'association y évoque notamment les quatre textes de loi (Code Civil, loi de 1881, loi de 1982, loi de 2000) qui peuvent s'appliquer, au pénal et au civil, à ces activités. Elle demande en outre aux pouvoirs publics d'entamer un chantier législatif sur ce sujet, en réformant notamment l'article 43-8 de la loi de 1986 qui s'applique aux hébergeurs. Sur le plan des principes, Vivrelenet réaffirme la responsabilité des auteurs de messages délictueux avant celle des animateurs de forums, et dans cette perspective, demande que l'article 29 de la Loi sur la Sécurité Quotidienne qui concerne la conservation des données de connexion puisse être utilisé dans le cadre de procès civils.
2002-07-02 21:48:37
Vivrelenet
http://www.vivrele.net/node/788.html
Les turbulences que traverse actuellement l'ICANN dans sa phase de réforme sont propices à l'exacerbation de toutes les forces centrifuges. Après les protestations des différents organismes de représentation publique, après les initiatives des registres nationaux, c'est au tour des libertaires du réseau de tirer à vue sur l'organisme de gestion des noms de domaine. Salon interroge cette semaine John Gilmore, un des co-fondateurs de Cygnus Software et un militant très actif de l'EFF. C'est l'occasion pour lui de revenir sur les circonstances dans lesquelles l'ICANN a été créé et de montrer comment tout ce processus visait à sauvegarder des intérêts commerciaux très particuliers. Pour John Gilmore, il n'y a pas de doute : il faut mettre fin à ce qu'il qualifie de "mascarade".
2002-07-02 23:16:58
Salon
http://www.salon.com/tech/feature/2002/07/02/gilmore/print.html
Ce sont souvent les premiers utilisateurs des Nouvelles Technologies. Ce sont eux qui les expérimentent et les diffusent rapidement dans le reste de la société. Les jeunes réunis en "caucus" pour la préparation du Sommet Mondial pour la Société de l'Information à Genève déplorent pourtant leur absence de représentation à ce stade de la préparation. Il viennent de publier un communiqué de presse sur le site Wsis.info pour le dire.
2002-07-03 19:07:40
Wsis
http://www.wsis.info/
C'est l'intéressante question que se posera samedi 6 juillet le collectif Eurolinux, soutenu par l'April et la FSF Europe, au cours d'une conférence-débat au cours de laquelle Richard Stallman de la FSF, Jean-Pierre Berlan de l'INRA et Emmanuelle Cosse d'Act Up expliqueront quels sont les points communs et les différences de l'idée de brevabilité dans ces deux domaines. REndez-vous donc Samedi 6 juillet de 16h00 à 19h00 dans la Salle des fêtes de la mairie du X ème, 72, rue du Faubourg St Martin à Paris. L'entrée est libre.
2002-07-03 19:26:39
April
http://www.april.org
Benjamin Gaillard a obtenu une médaille d'argent lors des Olympiades Internationales d'Informatique 2002. Les équipes nationales de 80 pays ont pris part à cette compétition qui était organisée cette année par la République de Corée. Les IOI (International Olympiads in Informatics) font partie des six olympiades scientifiques qui chaque année réunissent de jeunes talents du monde entier. Les IOI testent plus particulièrement les aptitudes des candidats dans les domaines de l'algorithmique et de la programma- tion. Depuis trois ans, la France a énormément progressé. Elle peut aujourd'hui se mesurer aux meilleures équipes mondiales comme le montrent ses derniers résultats. L'équipe de France est sélectionnée et entraînée par Prologin, une association d'étudiants de l'EPITA, une école d'informatique réputée. Cette association organise tous les ans un concours national ouvert à un large public dont le but est entre autres de sélectionner l'équipe qui représentera la France aux Olympiades. Ce concours, célèbre pour sa finale d'une durée de 36 Heures non-stop est organisé en partenariat avec EPITA ainsi qu'avec le concours de nombreux partenaires du monde informatique comme Eyrolles, Login, PC Team ou Soramex.
2002-09-02 09:54:58
Site des IOI
http://www.ioi2002.or.kr/eng/
La confrérie mouride, fondée à la fin du XIXème siècle par le cheikh Ahmadou Bamba au Sénégal, est l'une des plus importantes confréries islamiques au niveau mondial. Si la ville de Touba est sa capitale sainte, la confrérie est connue pour avoir tissé des liens importants de par le monde, par le biais notamment de l'émigration de ses adeptes. Véritable réseau religieux transnational, doublé d'un important réseau économique ( les dahira - sortes de fondations gérées par les adeptes y jouent un rôle important), la confrérie ne pouvait rester indifférente aux potentialités qu'offrent les technologies de la communication. C'est exactement ce qu'étudie Cheikh Gueye, dans un remarquable papier publlié sous l'égide de l'UNIRSD, une agence onusienne spécialisée dans le développement social.
2002-09-02 21:10:06
Enjeux et rôle des NTIC dans les mutations urbaines :
http://www.osiris.sn/cheikh_gueye.pdf
C'est la question sur laquelle le cabinet BRM Avocats fait le point ce mois-ci, dans une publication très accessible et pédagogique. La loi, on finit par l'oublier, encadre très sévèrement la constitution de fichiers nominatifs, par informatique ou non. Elle accorde en particulier de nombreux droits à ceux qui en font l'objet. Encore faut-il qu'ils le sachent, et qu'ils fassent usage de ces droits.
2002-09-02 21:49:40
Création et traitement de fichiers nominatifs : droits des personnes et obligations des responsables
http://www.brmavocats.com/fr/pub/publication_model.asp?article_id=36
C'est la leçon que tire Jérome Saiz, animateur du site Les Nouvelles.net de son expérience des logiciels Microsoft, et particulièrement du partenaire de ce dernier : Bowne Global Solutions. Désireux de traduire son site, le webmestre s'est en effet adressé à cette société qui offre des services de traduction automatique. Ce n'est qu'au moment de valider son inscription qu'il eut la curiosité de lire les "Terms of Service" qu'il doit accepter : or, ceux-ci précisent que le webmestre autorise Bowne à reproduire, utiliser, copier, transformer, republier, autrement dit piller en toute légalité les contenus soumis à son moteur de traduction ! Une mauvaise expérience qui prouve que la lecture de ces pavés indigestes qu'on nous demande d'accepter à tout bout de champs peut être parfois instructive.
2002-09-03 21:10:55
Faites-vous piller les idées en toute légalité
http://www.lesnouvelles.net/?id=295
Les jeunes, c'est bien connu, sont idéalistes, optimistes et pleins d'espoir. Au moment où le sommet de Johannesbourg vient de se terminer en ayant tenu toutes ses promesses, plusieurs organisations internationales de jeunes, plus ou moins périphériques à l'UNICEF ont décidé de créer un portail Internet leur permettant de s'informer sur le sujet et d'organiser des actions ayant pour thème le développement durable. Plutôt bien fait, le portail, exclusivement anglophone, dispose de forums, d'un calendrier et recense les différents programmes de subvention existants pour ce type d'action. Il permet aussi à chaque utilisateur enregistré de tenir une sorte de "blog" et de communiquer avec les autres utilisateurs. Le tout dans une ambiance fraîche et consensuelle.
2002-09-04 12:20:33
EarthYouth.net
http://earthyouth.takingitglobal.org/index.html
Augmenter considérablement le nombre de "Hotspots" - des points publics d'accès au réseau par technologie sans-fil, au cours de la prochaine année : tel est le pari que semble avoir lancé le fabricant d'ordinateurs Toshiba. Après avoir mis sur le marché en juin un périphérique à 200$ permettant à quiconque de mettre en place un hotspot raccordé à son accès haut-débit, le fabricant vient en effet de s'unir avec un fournisseur d'accès spécialisé dans le sans-fil, iPass, pour adopter des standards communs et fusionner leurs réseaux. Concrètement, cette initiative, explique Eric Griffith, pour le magazine 802.11planet.com, permettrait à des opérateurs hotspots locaux de fournir facilement et à bas prix la possiblité pour des hôtels, restaurants, aéroports ou autres collectivités de proposer à leurs clients des points d'accès sans-fil au réseau. Les sommes récoltées pour la fourniture du service seraient partagées entre Toshiba qui assure les services d'authentification, les opérateurs qui s'occupent de la maintenance et les collectivités qui sont en contact avec l'utilisateur final. Pour Griffith, c'est la première fois qu'un fabricant de matériel se rapproche autant du marché des fournisseurs d'accès.
2002-09-04 13:31:04
Validating the Hotspot Model?
http://www.80211-planet.com/news/article/0,4000,1481_1453341,00.html
Premier appareil d'une nouvelle ligne baptisé Cocoon, l'enregistreur de DVD dévoilé par la firme japonaise mercredi a ceci de particulier qu'il possède, outre ses capacités d'enregistrement, l'intelligence d'un ordinateur, et la possiblité de se brancher sur une connexion à Internet. Ses multiples capacités lui permettent donc de procéder à des enregistrements intelligents à partir de recherches par mots-clés. Cet appareil est le signe, pour certains analystes, d'une évolution de l'industrie électronique vers la production d'appareils de diverstissement multi-fonctionnels et communiquants. Dôté d'un disque dur énorme de 160 GB, il pourra enregistrer jusqu'à 100 heures de programmes télévisés. Il sera commercialisé, annonce Sony, le 1er novembre prochain au Japon pour 1100$.
2002-09-04 22:16:10
Sony Releases Internet-Enabled, Hard-Disk Video Recorder
http://www.newsfactor.com/perl/story/19290.html#story-start
Accusé de longue date de complaisance à l'égard de la société d'enregistrement de noms de domaines Verisign, l'ICANN, l'organisme qui supervise l'attribuation des noms de domaines, a haussé le ton, mercredi, à l'encontre du géant qui tient par ailleurs le registre des noms en .com. A l'origine de la colère de l'ICANN, l'annuaire des propriétaires de noms de domaine (le Whois), qui serait trop souvent inexact. Toute personne qui dépose un nom de domaine est en effet censée décliner son identité et fournir des adresses de contact qui seront publiquement divulguées par l'intermédiaire du Whois. Le problème est que le Whois a depuis été utilisé par les spammeurs comme du pain bénit, incitant les propriétaires de noms de domaines à se cacher derrière des pseudonymes et à fournir des adresses fantaisistes. Mais l'ICANN ne veut rien savoir : Verisign est tenu, en vertu de son accord d'accréditation, de vérifier l'exactitude des données fournies. Mission impossible, réplique la société, qui rappelle qu'elle gère près de 10 millions d'entrée dans son Whois, alors que l'ICANN n'a relevé que 17 cas manifestement frauduleux.
2002-09-04 22:50:45
ICANN Threatens to Take Away VeriSign's '.com' Privileges
http://www.washingtonpost.com/wp-dyn/articles/A34373-2002Sep3.html?referer=email
Il n'y a pas qu'en Europe et en France que les élèves trouvent leurs professeurs trop timorés et inexpérimentés pour les guider dans leurs premiers pas numériques. Une étude menée conjonitement par le Pew Internet & American Life Project et l'American Institue for Research montre que les élèves américains réclament eux aussi un basculement plus rapide de l'enseignement vers les moyens de communication numériques.Selon les termes de l'étude, la plupart du temps, les élèves qui tirent le meilleur profit des ressources éducatives qu'ils peuvent trouver sur Internet, le font en dehors des heures de classe et sans l'aide de leurs professeurs. Dès lors, insistent-ils dans leurs réponses à l'enquête, le fossé entre ceux qui disposent d'une connection à la maison et les autres est toujours important et ne prend pas le chemin d'une diminution.
2002-09-05 22:18:59
Online teens say their schools don’t use the Internet well
http://www.pewinternet.org/releases/release.asp?id=48
Spip, le désormais célèbre système de publication automatique qu'utilise Homo Numericus vient de paraître dans sa version 1.4. Plus performante que les précédentes, cette version dispose de nombreuses fonctionnalités nouvelles, comme la possibilité d'attacher des documents aux articles, la gestion de l'affichage des images sous forme de vignettes, la possibilité d'intaller plusieurs sites sur une même base de données MySQL, ou encore l'inclusion d'un squelette dans un autre, parmi d'autres nouveautés alléchantes. L'interface graphique de la partie privée du site a elle aussi changé : plus claire, plus complète, avec des boutons partout, elle ressemble désormais au tableau de bord d'un Boeing 747. Trêve de plaisanterie ; c'est une excellente version qu'Homo-Numericus s'est empressé d'utiliser. Venez la découvrir dans la partie privée du site.
2002-09-05 22:37:22
Spip
http://uzine.net/spip/
Le 9 septembre prochain, le Forum des Droits de l'Internet ouvrira un forum conjointement avec l'UNESCO sur le thème de la liberté d'expression sur Internet. Ce forum, organisé dans le cadre de la préparation du prochain Sommet Mondial sur la Société de l'Information, sera animé par des personnalités prestigieuses comme Burton Caine, Etienne Montéro, Pierre Trudel et Maître El Hadj Mame Gning. Il précédera un colloque organisé par l'UNESCO les 15 et 16 novembre prochains à Paris. Le forum sera divisé en trois parties correspondant aux thèmes des trois tables-rondes du colloque : - des opportunités nouvelles ? Le cyberespace : un nouvel espace pour l’exercice de la liberté d’expression - des barrières à franchir ? Assurer le respect de la liberté d’expression et en promouvoir l’exercice réel - des normes à définir ? Assurer le respect et la protection de l’ensemble des valeurs et des droits de la société dans le cyberespace
2002-09-06 09:49:36
Forum des droits de l'Internet
http://www.foruminternet.org/activites_evenements/lire.phtml?id=27
L'EPIC et Privacy International viennent de publier leur rapport annuel sur l'état de la protection des données personnelles et de la surveillance des communications électroniques pour l'année 2002. Ce rapport se situe évidemment dans le contexte de l'après 11 septembre et mesure son impact sur les législations sécuritaires dans les principaux pays d'Europe de l'Ouest. Mais s'il apparaît que la confidentialité des communications est moins bien assurée dans ces pays du fait des lois anti-terroristes qui y ont été adoptées, en revanche, dans les pays d'Europe centrale, en Asie et en Amérique latine la protection des données personnelles, vis-à-vis des sociétés commerciales notamment, y est mieux respectée qu'auparavant. Si l'on examine la situation au niveau global donc, le bilan est contrasté, concluent les deux organisations. Il fait apparaître en tous cas l'émergence de ces questions dans les débats publics d'un plus grand nombre de pays.
2002-09-06 13:55:41
Privacy & Human Rights 2002
http://www.privacyinternational.org/survey/phr2002/
Il n'y a pas que dans les Landes qu'on est à la pointe de la technologie. Le Christian Science Monitor rapporte que le gouverneur de l'Etat du Maine a lancé une expérience visant à doter chaque élève de CM2 d'un ordinateur (un ibook)qui lui sera prêté pendant toute la durée de l'année scolaire. Mais aux Etats-Unis comme en France, on a compris que la fourniture de matériel ne signifiait rien en l'absence d'accompagnement humain. C'est pourquoi une bonne partie des fonds du programme est consacrée à la formation des maîtres qui pourront ainsi tirer plainement profit des outils technologiques à leur disposition.
2002-09-06 14:18:07
Laptops as a Fourth 'R'
http://www.csmonitor.com/search_content/0904/p08s03-comv.html
C'est ce que vient de décider la Cour d'Appel des Etats-Unis, rapporte The Register, dans deux conflits opposant Porsche et Harrods à des présumés cybersquatteurs. Le centre de l'affaire se rapporte aux noms de domaine en .com attachés à ces deux marques. Et toute la question est de savoir quel statut attribuer à ces noms de domaines. Pour la première fois un juge a en effet considéré que les noms de domaine étaient des propriétés réelles, au même titre qu'une maison ou une voiture, situés au siège administratif de l'entreprise qui les enregistre. Conséquence étonnante pour les domaines en .com, ils sont tous susceptibles de faire l'objet d'un procès devant la cour de Virginie, puisque c'est dans cet Etat que Verisign est installé. Pour l'ensemble de ces noms de domaine, peu importe la nationalité de leur possesseur, c'est donc le droit américain sur la propriété intellectuelle et commerciale qui s'applique.
2002-09-06 14:57:12
I'll see your domain name in (US) Court!
http://www.theregister.co.uk/content/6/26957.html
Le site de ressources sur les technologies de l'information appliquées à l'enseignement, Educnet, republie et met à jour un dossier qu'il avait préparé dès 1999 sur le télé-enseignement. Se présentant plus comme un répertoire raisonné de ressources que comme une réflexion d'ensemble, ce dossier sur la FOAD donc, constitue un excellent point de départ pour tous ceux qui veulent en savoir plus sur les expériences déjà réalisées, les chercheurs qui travaillent sur le sujet, et surtout s'y retrouver dans la myriade de sigles, appellations, expressions couramment utilisés par les professionnels du secteur.
2002-09-12 15:00:50
FOAD
http://www.educnet.education.fr/dossier/foad/default.htm
Internet a souvent été analysé comme étant un moyen puissant pour des groupes infra ou trans-nationaux d'affaiblir l'autorité de l'Etat-nation. C'est par exemple l'analyse qu'en fait Manuel Castells, qui prédit un effondrement progressif de ces unités politiques sous les coups de réseaux, financiers, économiques, mais aussi militants ou religieux qui se définissent en dehors du cadre délimité par les frontières nationales. C'est d'ailleurs souvent une chance pour la démocratie dans nombre de pays ajoutent analystes et journalistes, appuyant leurs propos sur des exemples en Chine, dans le Maghreb ou en Amérique latine. Pour Jeroen de Kloet qui publie cette semaine un papier sur le sujet dans First Monday, la situation est beaucoup plus ambigüe : analysant les cas de la Chine et de l'Indonésie, il montre qu'au contraire, de de nombreux cas, Internet peut servir de catalyseur à l'expression de sentiments nationalistes ou plus simplement être manipulé par les autorités gouvernementales pour renforcer leur propre légitimité. Cela le conduit à remettre en cause un discours unilatéral émanant des pays de l'Ouest, et qui s'appuie sur des dichotomies telles que en ligne/hors ligne ou virtuel/réel. Analyser les transformations sociales provoquées par la diffusion des nouvelles technologies ne peut se faire hors contexte, prévient-il ; et Internet se situe à la jonction des deux. Dès lors, ses usages se ressentent du contexte "réel" dans lequel ils s'inscrivent, particulièrement lorsque celui-ci est non-démocratique et fortement national.
2002-09-12 16:07:47
Digitisation and Its Asian Discontents: The Internet, Politics and Hacking in China and Indonesia
http://firstmonday.org/issues/issue7_9/kloet/index.html
Lundi 16 septembre, Legifrance, le site officiel du gouvernement chargé de mettre en ligne les principaux textes de loi subira un sérieux lifting en proposant une interface plus accessible pour le grand public. Le moteur de recherche sera amélioré, annonce-t-on, et surtout, les arrêts de jurisprudence (Cour de Cassation, Conseil Constitutionnel et Conseil d'Etat) seront inclus dans la base et donc disponibles gratuitement pour tous, ce qui n'était pas le cas jusqu'à présent. Pour ce remaniement, Légifrance bénéficie de l'aide du portail Service-Public qui s'est distingué depuis sa création pour la clarté de sa présentation et l'aide qu'il apporte aux administrés dans leurs démarches.
2002-09-14 21:58:22
Légifrance
http://www.legifrance.gouv.fr
A lire cette semaine dans Wired, un reportage sur l'explosion des "blogs", ces journaux intimes auto-publiés en ligne par M. Tout-le-Monde, au Brésil. Mais, révèle l'enquête, la folie des blogs s'appuie en fait sur la strétégie de deux gros groupes de communication Globo et Terra Lycos, qui offrent aux brésiliens des services performants et gratuits. L'objectif des industriels de l'infotainement n'est pas en effet de faire payer le service, mais d'accroître et fidéliser ainsi leur audience sur leur réseau maison. Avec, pour Globo, la recherche d'une synergie entre son service de blog et les telenovelas qu'il diffuse par ailleurs : les personnages y parleraient de leur (faux) blog dans certains épisodes, de manière à inciter les téléspectateurs à se précipiter sur le Web pour les y rejoindre.
2002-09-14 22:09:16
In Brazil, Blog is beautiful
http://www.wired.com/news/technology/0,1282,54912,00.html?tw=wn_ascii
C'est la leçon que l'on peut tirer d'une article de Cnet qui rapporte que récemment, six institutions financières de premier plan ont demandé aux fournisseurs de services de messagerie instantanée (comme AOL, Microsoft ou Yahoo) de se mettre d'accord pour rendre leurs logiciels interopérables. On sait en effet qu'AOL en particullier refuse catégoriquement d'ouvrir son réseau aux abonnés de Microsoft. Or, les employés du secteur de la finance utilisent massivement ces systèmes pour communiquer en temps réel entre eux. Le manque de compatibilité leur fait perdre du temps, et donc de l'argent. Reste à trouver un modèle économique pour rendre possible l'interconnexion des réseaux. Car dans l'état actuel des discussions, les fournisseurs de services de messagerie refusent de permettre l'utilisation de leur réseau par un logiciel concurrent sans contre-partie financière.
2002-09-14 22:35:22
IM giants told to work it out
http://news.com.com/2100-1023-957787.html?tag=fd_lede
Deux nouvelles cette semaine feront sans doute plaisir à tous ceux que la domination des logiciels Microsoft dans les établissements scolaires agace. Le Café Pédagogique annonce tout d'abord que le Ministère de l'Education Nationale vient de passer un accord avec Sun pour autoriser tous les établissements à utiliser gratuitement la suite bureautique Star Office 6. On sait en effet que depuis peu, la société américaine avait décidé de faire payer l'acquisition de cette suite qu'elle distribuait gratuitement jusqu'alors. Véritable clône de Microsoft Office, Star Office suffit amplement pour la plupart des travaux bureautiques. Pour les plus aguerris (et les plus militants) toutefois, Cybercafé 21 signale l'existence d'une [distribution Debian Linux->http://www.logidee.com] spécialement conçue pour les établissements scolaires à partir des principaux logiciels éducatifs que l'on peut trouver sous Linux. Patronnée par le CNDP, cette distribution est diffusée par la société Logidée.
2002-09-19 10:27:22
Accord Sun/MEN
http://www.cafepedagogique.net
Lorsqu'on vous fournit un marteau pour résoudre tous les problèmes, vous avez tendance à voir tous les problèmes comme des clous. C'est en utilisant cette jolie fable que Steven Rudolph du Jiva Intitute explique l'inadéquation actuelle entre les solutions technologiques proposées aux pays en développement et les problèmes réels vécus par les populations de ces pays. Des laptops Windows pour surfer sur le Web ? Pas vraiment utile ni utilisable pour les paysans indiens, explique S. Rudolph. En effet, ceux-ci sont décontenancés à la fois par l'univers graphique que proposent les systèmes d'exploitation, imaginé par des occidentaux (qu'est qu'un "fichier", qu'un "dossier" ou un "bureau" pour ces paysans ?) et par le fait que les contenus qu'ils peuvent trouver sur Internet sont majoritairement écrits en Anglais et par des gens qui vivent très loin d'eux. Moralité : avant de proposer des solutions technologiques aux populations concernées, il faut bien comprendre leur mode de vie, vivre avec elles, analyser leurs modes de représentation et cerner leurs besoins. Un travail d'ethnologue peut-être ?
2002-09-19 12:13:55
Thinking Out of the Computer Box
http://www.jiva.org/report_details.asp?report_id=55
La toute nouvelle Fédération Informatique et Libertés qui regroupe des sites et associations de défense de la vie privée numérique se penche sur la difficile question de la cryptographie : cette technologie utilisée pour empêcher la lecture d'informations confidentielles par des tiers a en effet récemment été libéralisée en France. Son usage reste cependant réglementé : les fournisseurs de services de cryptographie doivent en effet obtenir une autorisation d'exercer, selon les termes de la Loi sur la Sécurité Quotidienne adoptée cette année dans les conditions que l'on sait. Les décrets d'application de la loi, adoptés au cours de l'été précisent la nature de cette réglementation. Le gouvernement a en effet créé un "Centre technique d'assistance" dépendant de la Direction de la Police Nationale chargé de déchiffrer, sans contrôle judiciaire et sous le couvert du "secret-défense", les communications qui lui sont signalées. Par ailleurs, les fournisseurs de services de cryptographie sont tenus de remettre, sur demande du Premier Ministre ou de ses services, les conventions de déchiffrement qui sont en sa possession pour permettre la mise au clair de données cryptées. Pour la FIL, cette mesure est une grave atteinte à la confidentialité des communications ainsi qu'à la sécurité que peuvent offrir les services de cryptographie. Il s'agit, ni plus ni moins que d'imposer à ces services d'installer des "backdoors" dans les logiciels qu'il distribuent afin de permettre un accès gouvernemental aux communication cryptées.
2002-09-19 12:49:43
La FIL
http://www.lafil.org/act54
Richard Clarke, le conseiller spécial du Président des Etats-Unis pour la sécurité des réseaux informatiques vient de rendre publique une version de travail de son plan gouvernemental sur ce thème. Abondamment commenté, ce plan s'appuie sur deux orientations qui peuvent paraître contradictoires : la première prévoit d'engager davantage la responsabilité des opérateurs en matière de sécurité. L'approche de Richard Clarke se veut donc incitative. Elle repose sur une sensibilisation des acteurs et ne prévoit pas une éventuelle délégation des questions de sécurité aux autorités publiques. L'autre approche s'appuie en revanche sur une mise en cause des protocoles de l'Internet. Le rapport critique en particulier le protocole BGP (Border Gateway Protocol)qui assure des fonctions de routage pour l'interconnexion de réseaux et le DNS (Domain Name System) qui opére la conversion des noms de domaine en adresses numériques compréhensibles par les systèmes informatiques. Pour Richard Clarke, la gestion de ces protocoles, jusqu'ici confiée à des organismes techniques comme l'IETF, ne peut plus être ignorée par le gouvernement. Celui-ci doit promouvoir des solutions techniques de sécurité telles que celles que Microsoft propose avec Palladium. Cette orientation, si elle devait être confirmée, constituerait un changement majeur dans l'équilibre des pouvoirs au sein du continent Internet : les organismes qui gèrent actuellement les protocoles cherchent essentiellement à assurer l'interopérabilité des systèmes et la stabilité des solutions retenues. Y introduire des préoccupations de sécurité à un niveau aussi profond que celui-ci représente une menace certaine sur la capacité du réseau à demeurer ouvert et totalement interconnecté. La question maintenant est de savoir si les menaces criminelles ou terroristes s'appuient ou s'appuieront sur des faiblesses de sécurité du protocole ou des systèmes que ces protocoles relient. Pour le savoir, on peut lire l'excellent dossier que News.com consacre à ce sujet.
2002-09-19 14:37:34
Combating cyberterrorism
http://news.com.com/2009-1023-958333.html?tag=dd.ne.dtx.nl-sty.0
Mais où va Sun ? Le célèbre fabricant de serveurs informatiques a fait sensation hier en annonçant le prochain lancement d'une offre de micro-ordinateurs pour les entreprises, les collectivités et les établissements scolaires entièrement configurés sous Linux et à des prix défiant toute concurrence. Pour le moins étonnante, cette annonce signifierait que l'entreprise sortirait de son marché traditionnel pour s'attaquer à l'éternel rival Microsoft sur son propre terrain. Dotés de systèmes d'authentification basés sur des cartes Java, ces micro-ordinateurs sont destinés à des utilisations basiques en environnement professionnel ou scolaire. Ils seront équipés des logiciels que l'on trouve habituellement sous Linux, comme Mozilla, Evolution et Gnome, mais aussi de la suite bureautique Star Office que Sun distribue par ailleurs. L'objectif est clair : soustraire l'utilisateur final à l'emprise de Microsoft en surfant sur la vague d'inquiétude qui traverse la plupart des entreprises à la suite de la récente révision par la firme de Redmond de sa politique de licences.
2002-09-19 15:01:16
SUN MICROSYSTEMS INTRODUCES NEW OPEN DESKTOP CLIENT; 100-USER SOLUTION USHERS IN NEW ERA FOR SECURE, DESKTOP ECONOMICS
http://www.sun.com/smi/Press/sunflash/2002-09/sunflash.20020918.2.html
A lire dans Wired, un article sur la prochaine révolution du Web décentralisé : le calendrier partagé. Le célèbre magazine a enquêté sur le succès d'un site très particulier, icalshare.com, qui permet à chacun de publier et de partager son calendrier avec la terre entière. Si le partage de calendrier n'est pas nouveau remarque-t-on, il s'est toujours pratiqué à l'intérieur de l'entreprise, via des logiciels propriétaires comme Microsoft Outlook ou Lotus Notes. Mais ces deux logiciels ne permettent pas vraiment de "publier" son calendrier puisqu'on ne peut qu'inviter individuellement chacun à accepter le partage. Rien de tel avec icalshare.com : reposant sur un protocole ouvert, ical, le site est utilisable par les utilisateurs Apple qui disposent d'une application exploitant ce standard, et par ceux qui se servent de Mozilla ; un des projets associés au navigateur permet en effet de télécharger une application compatible. Le succès d'ishare.com a surpris tout le monde, y compris son concepteur ; car ce sont les calendriers thématiques et communautaires qui fleurissent désormais sur son site : les passionnés de telle série télé, de tel sport ou de tel homme politique tiennent ainsi un journal de tous les événements se rapportant à ce qui les unit.
2002-09-22 00:12:42
Want A Date? We All Cal With ICal
http://www.wired.com/news/mac/0,2125,55244,00.html?tw=wn_ascii
La partie continue pour l'ICANN, dont le contrat qui le liait avec le Département du Commerce américain venait à échéance ce mois-ci. Comme prévu, le DoC a donc renouvelé son accord pour une durée d'un an, fixant au célèbre organisme de gestion des noms de domaine la mission de se réformer, ce qu'il fait depuis sa naissance il y a quatre ans. C'est une déception pour les adversaires de l'actuel directeur de l'organisme, Stuart Lynn, qui est en train de mettre en oeuvre un plan de réforme très décrié. D'autant plus que le DoC reste très vague sur ses exigences : aucune contrainte n'a véritablement été imposée à Stuart Lynn qui s'est d'ailleurs félicité de la confiance que lui avait ainsi accordée l'autorité politique.
2002-09-22 00:39:37
Le texte de l'accord
http://www.ntia.doc.gov/ntiahome/press/2002/icann_09192002.htm
Une société a-t-elle le droit de proposer un service permettant aux spectateurs de retirer automatiquement des DVD qu'ils regardent certaines scènes et dialogues jugés offensants sur le plan religieux, sexuel ou trop violents ? C'est le débat qui oppose en ce moment la Directors Guild of America qui réprésente les intérêts des réalisateurs, à plusieurs sociétés commerciales proposant ces services. La société Clearplay par exemple propose de télécharger un logiciel sur l'ordinateur où les DVD sont lus, permettant ainsi de censurer en direct certaines scènes particulièrement "crues" présentes dans la quasi-totalité des films. Pour la DGA qui défend par principe l'intégrité de l'oeuvre d'auteur, il s'agit clairement d'une violation du copyright, puisque tout se passe comme si les films étaient redistribués sous le nom du réalisateur, mais mutilés. Les sociétés de filtrage personnalisé répondent qu'il n'y a pas de perte pour les auteurs puisque le consommateur doit quand même acheter son DVD et que celui-ci n'est en aucun cas modifié. Le débat qui se cache derrière cette polémique judiciaire engage donc les auteurs qui veulent défendre le droit moral qu'ils détiennent sur leur oeuvre, et les spectateurs qui ont désormais la possiblité technique de transformer selon leurs goûts l'oeuvre à laquelle ils ont accès. Il n'en reste pas moins que dans le contexte américain, les réalisateurs ont en général abandonné depuis longtemps leur droit moral sur leur oeuvre, au profit des studios, qui ne se sont pas gênés pour massacrer quelques uns des chef-d'oeuvres du septième art. On ne voit pas pourquoi, dans ces conditions, le spectateur ne pourrait faire de même. Il en irait autrement en Europe évidemment, où le copyright ne concerne que le droit d'exploitation.
2002-09-22 14:30:54
Guild Sues Over Editing of Movies
http://story.news.yahoo.com/news?tmpl=story&u=/ap/20020921/ap_on_en_mo/editing_hollywood_2
Comment, lorsqu'on est une sorte d'agence de presse non-commerciale, alternative et engagée dans le combat anti-mondialisation, inonder le monde d'informations lors des grands sommets politico-économiques, alors qu'on n'a pas l'ombre de fonds pour financer les infrastructures de communication ? L'Independant Media Center de Californie a trouvé : en recyclant de vieux ordinateurs jetés à la poubelle pour en faire de simples machnies à communiquer (par Web et mail) tournant sous Mandrake Linux. C'est au sein en effet de l'Alameda County Computer Resource Center, que le militants d'IMC fabriquent de nouvelles machines en en désossant d'autres, pour les envoyer en Equateur où se déroulera le prochain sommet de la Free Trade Area of Americas. Ainsi, fin octobre, ils disposeront de moyens de communication fonctionnels pour proposer au public une contre-information militante sur ce sommet. Et après ? Après, précise Salon qui publie un reportage sur l'ACCRC, les ordinateurs seront distribués dans différentes villes équatoriennes où ils pourront être utilisés par ceux dont les revenus sont trop bas pour accéder aux nouvelles technologies.
2002-09-29 14:29:26
Building the underground computer railroad
http://www.salon.com/tech/feature/2002/09/23/antiglobal_geeks/index.html
On savait déjà que la Chine avait mis en place des systèmes de filtrage très performants interdisant aux internautes chinois d'accéder à des serveurs Web occidentaux jugés "anti-patriotiques". On vient de découvrir que cette "Grande Muraille" s'applique désormais aux mails. Certains expéditeurs ont pu remarquer que leurs messages rebondissaient vers eux, qu'ils n'étaient donc pas transmis, en fonction de certains mots-clés présents dans le corps du message. Le problème est que la Grande Muraille a parfois l'esprit mal tourné -comme la plupart des systèmes de filtrage par mots-clés d'ailleurs. Ainsi, un message contenant l'expression "harcore business negociations" est-il tout simplement rejeté, on devine pourquoi, de la même manière que l'est l'Essex, pour les mêmes raisons. Il reste cependant que le système n'est pas infaillible, selon le South China Morning Post qui rapporte l'information. Aux heures de trafic intense, la muraille se mettrait à avoir des trous et laisser passer des messages qui seraient arrêtés à d'autres moments.
2002-10-03 12:20:38
China extends Internet censorship to e-mails
http://iso.hrichina.org/iso/news_item.adp?news_id=982
Les internautes ont un rapport plus émotionnel aux newsletters qu'ils reçoivent qu'aux sites Web qu'ils visitent. C'est la conclusion du rapport que vient de publier Jakob Nielsen sur un des aspects de "l'usabilité" des interfaces sur Internet. La conclusion n'est pas tellement étonnante en soi : on sait depuis longtemps que les internautes plébiscitent le mail et s'intéressent beaucoup moins aux sites Web. Jakob Nielsen le confirme en montrant en particulier que les taux de réussite sur des opérations simples (comme l'inscription et la désinscription) sont beaucoup plus élevés que sur le Web. Autres enseignements de cette étude : les internautes répugnent à se désabonner, même s'ils ne lisent plus les newsletters qu'ils reçoivent, la procédure de désabonnement se chargeant ainsi d'une signification symbolique qu'ils ne sont pas toujors prêts à assumer. Finalement, apprend-on, le mystère n'est pas si grand : dans la mesure où elle est assimilée à du courrier, la newsletter est considérée comme personnelle, à l'opposé du Web, technologie de publication à consultation anonyme. _ Pour notre part, on évoquera cependant les quelques questions que cette réalité persistante dans les usages des NTIC soulèvent : si le mail est le plus utilisé, c'est aussi celui qui a le moins bénéficié des innovations technologiques, toutes concentrées sur le Web...et c'est aussi celui qui connaît le plus de problèmes actuellement, comme l'explosion du spam et de la transmission de virus, pour lesquels quasiment rien d'efficace n'a été fait jusqu'à présent. Un des paradoxes d'Internet.
2002-10-03 15:30:40
Email Newsletters Pick Up Where Websites Leave Off
http://www.useit.com/alertbox/20020930.html
C'est le sens de la tribune publiée par Christophe le Bars, un des développeurs de la distribution Debian Linux dans Vnunet cette semaine. Comparant logiciels libres et propriétaires du point de vue des questions de sécurité, C. Le Bars montre que les qualités traditionnellement reconnues au logiciel libre (ouverture du code et vérification collective de celui-ci) ne suffisent pas à en garantir la supériorité. La communauté du logiciel libre aurait tort de se reposer sur ce petit avantage, assène-t-il : car assurément l'avenir de la sécurisation repose sur le cryptage des données à tous les niveaux, mais aussi sur la vigilance des administrateurs qui sauront appliquer très rapidement les correctifs nécessaires. Et de prendre l'exemple d'une faille découverte cet été sur les serveurs Apache. Rien de catastrophique a priori (tous les serveurs ont des failles), s'il n'ajoutait qu'une semaine après, près de 70% de ces serveurs n'étaient toujours pas patchés. Alors quelle solution ? L'inscription de la sécurité au niveau matériel, comme le veut Microsoft avec son projet Palladium ? Certainement pas pour l'auteur de cette tribune. Car Palladium, outre les menaces qu'il fait peser sur la libre concurrence et la protection de la vie privée, n'assurera jamais le niveau de sécurité qu'il promet.
2002-10-03 15:53:15
Les logiciels libres sont-ils vraiment sûrs ?
http://www.vnunet.fr/ent/doss/ent/loglibres.htm
Décidément, le célèbre navigateur open-source n'en finit pas de nous étonner. Après les iCals qui permettent de partager son calendrier, un projet hébergé par Mozdev, intitulé Optimoz, facilite la navigation sur Internet en permettant d'accéder à certaines fonctions basiques (page suivante, page précédente, recharger, bookmarks, etc.)par un simple mouvement de la souris sur l'écran. Cela fonctionne un peu comme Graffiti, le système d'écriture des Palm Pilots, mais pour d'autres fonctions. Comme pour Graffiti, il faut attraper le coup de main (ou plutôt de poignet), mais après quelques tâtonnements, le résultat est là : un certain gain de temps sur chaque action, puisqu'il n'est plus nécessaire de déplacer son pointeur sur les différents boutons de la barre d'outils. L'idée, pour être honnête, ne vient pas de Mozilla, mais d'un autre navigateur concurrent, Opera, distribué par la société norvégienne du même nom. Ni gadget ni révolution, le système de reconnaissance de mouvements de souris développé sur ces deux navigateurs est tout simplement une innovation comme on les aime : pratique.
2002-10-03 21:48:05
Optimoz
http://optimoz.mozdev.org/index.html
Intel le fait, AMD le fait, Microsoft le fait, mais Apple ne le fait pas. Dan Gilmor explique cette semaine dans Siliconvalley.com comment la firme à la pomme est la seule à ne pas avoir de plan pour implémenter de système de gestion de droits numériques (DRM) dans les systèmes qu'elle commercialise. Alors qu'une bonne part de sa stratégie repose sur la transformation de l'ordinateur familial en "hub" de loisirs numériques permettant tous les transferts, conversions, copies de données, Apple chosit délibérément le camp des consommateurs dans le conflit à venir qui les opposent déjà aux industriels du divertissement. Et le succès de l'ipod, le lecteur portable de mp3 commmercialisé par Apple, ne peut que l'encourager dans cette voie. Mais pour combien de temps ?
2002-10-03 22:31:53
Apple stands firm against entertainment cartel
http://www.siliconvalley.com/mld/siliconvalley/business/columnists/4193839.htm
La bataille du copyright n'est pas encore tout-à-fait perdue pour les consommateurs américains. On sait que le droit de copie légitime ("fair use") fait l'objet d'une attaque en règle de la part de l'industrie du divertissement au Capitole, via le sénateur Fritz Holling qui propose un projet de loi visant à équiper tous les appreils électroniques de dispositifs anti-copie. La réponse politique est venue récemment, appuyée par la représentante Zoé Lofgren qui propose un contre-projet de loi visant à assurer aux citoyens de son pays les mêmes droits de copie privée pour les supports numériques que ceux dont ils disposent pour les cassettes et émissions de télévision. Il ne s'agit pas d'une légalisation du piratage, assure-t-elle ; mais simplement de rétablir un équilibre qui a été rompu depuis l'adoption du Digital Millenium Copyright Act. La bataille promet d'être rude, dans la mesure où le "cartel du copyright" comme on l'appelle maintenant, dispose d'une bonne longueur d'avance dans son intense travail de lobbying.
2002-10-03 22:56:14
Bills Would Boost Consumers' Digital-Media Rights
http://www.newsfactor.com/perl/story/19566.html
La répression de la liberté d'expression n'aura peut-être pas le dernier mot sur le Web tunisien. Quelques semaines après l'arrestation d'Ettounsi, le célèbre webmestre du magazine indépendant en ligne Tunezine, une nouvelle publication vient de voir le jour sur la Toile : Le Réveil tunisien, dont la naissance est annoncée par l'excellent Afrik.com. Le Réveil tunisien est un magazine politiquement engagé contre le régime actuel ; il dénonce régulièrement les atteintes aux Droits de l'Homme qui y sont perpétrées et ouvre largement ses colonnes aux lecteurs qui souhaitent s'exprimer.
2002-10-13 13:58:41
La Tunisie transpire par le Web
http://www.afrik.com/porte/naviporte/tunisie.htm
C'est la question que pose Marc Minon dans une étude très intéressante qu'il a récemment publiée pour le compte du Syndicat National de l'Edition. Premier constat du chercheur de l'Internet Institute : le très grand retard de l'édition scientifique francophone sur son équivalent anglo-saxon dans le domaine numérique. Bénéficiant d'une expérience plus ancienne, d'un marché plus large et plus mûr, les éditeurs scientifiques anglo-américains proposent des offres de services sans commune mesure avec ce que nous connaissons. Pour autant, insiste Marc Minon, leur situation n'est pas nécessairement plus assurée, tant est fragile le modèle économique sur lequel repose leur activité : celui-ci, apprend-on, ne peut être qu'un modèle B2B dans la mesure où, dans ce secteur d'activité plus que dans d'autres, l'utilisateur final qui est souvent aussi producteur répugne à payer pour avoir accès à l'information. Dans ces conditions, le mode de financement des publications numériques ne peut que provenir d'insitutions comme les bibliothèques dont la part du budget qu'elles consacrent aux acquisitions numériques est en croissance exponentielle, ou encore directement des auteurs via les institutions scientifiques qui les emploient. Et c'est un des aspects les plus importants de cette étude que de désamorcer le faux débat payant/gratuit qui empoisonne habituellement les débats sur la question : pour Marc Minon, la question est moins de savoir si l'accès à une information scientifique doit être payante ou gratuite, que de savoir comment elle peut être financée : en amont ou en aval de la publication. Ce débat, l'édition scientifique traditionnelle le connaît bien, puisque, dans l'espace francophone en tout cas, la publication d'ouvrages au moins est souvent largement subventionnée par les laboratoires scientifiques et achetée quasiment uniquement par les bibliothèques. Dernier aspect à retenir de cette étude : la distinction que l'on se doit de faire entre, d'une part, la publication numérique, et d'autre part la mise en place de services (d'archivage, d'indexation, de recherche sur des bases de données) exploitant les publications. C'est là qu'apparaissent les agrégateurs de contenus, qui offrent à l'utilisateur des bouquets regroupant plusieurs sources de publication. Pour Marc Minon, c'est sûrement eux qui détiennent actuellement les assises économiques les plus solides, notamment dans certaines disciplines où ils disposent d'un marché professionnel excessivement solvable. Mais plusieurs structures, ajoute-t-il, coexistent au sein de ce secteur d'activité : depuis la simple agrégation de sommaires, jusqu'à la prise en charge de la publication numérique au sein de la plate-forme d'agrégation...avec toutes les innovations possibles, aussi bien en ce qui concerne les services (constitution de digest, services d'alertes, impression à la demande), que les modèles de rémunération (modèle hybride gratuit/payant).
2002-10-17 14:09:43
Edition universitaire et perspectives du numérique
http://www.t2i.be/SNEperspectivesSep2002.php
L'esprit du libre pénètre peu à peu les administrations. Il vient de souffler un grand coup dans la capitale. Ainsi peut-on apprendre dans le dernier numéro du Courrier de l'Internet Citoyen que le Conseil de Paris a décidé le 23 septembre dernier de distribuer sous une licence proche de celles que connaissent les logiciels libres, rien moins que le progiciel de portail intranet/internet qu'elle utilise pour les sites des mairies d'arrondissement. Nommé Lutèce, cet outil de publication et de gestion des documents est écrit en Java et s'appuie sur une base Mysql et un serveur d'applications Tomcat.Mieux encore : l'ensemble des documents sont stockés au format XML et servis en passant par un filtre XSLT et des feuilles de style XSL. Un moteur de recherche plein-texte est associé au portail. Autant dire que c'est ainsi toutes les garanties d'interopérabilité qui sont données par un produit "maison", développé en interne par la Direction des systèmes et technologies de l’information de la Mairie. Pour ceux qui souhaitent le tester, les sources et binaires, accompagnées d'une importante documentation sont librement téléchargeables.
2002-10-18 13:55:52
Lutèce
http://fr.lutece.paris.fr/fr/
Depuis maintenant deux ans, la zelig Conf' rassemble militants et technophiles pour donner une dimension politique à l'informatique. Le thème de la troisième rencontre qui aura lieu le 9 décembre prochain, porte sur la contre-information militante : au programme, des ateliers sur les outils libres de publication collaborative, sur des logiciels permettant de faire du détournement de site, mais aussi sur les logiciels libres pour enfants et les inévitables réseaux Wi-fi. Un thème plus original sera présent tout au long de la manifestation : féminisme et informatique. Plusieurs ateliers et conférences traiteront du cyberféminisme, de la mutation des genres dans l'interaction avec la machine, ou plus simplement de la présence des femmes dans un univers traditionnellement perçu comme exclusivement masculin.
2002-10-18 23:50:40
Selig.rc2
http://www.zelig.org
A l'initiative d'élus et de directeurs informatiques de collectivités territoriales, et avec le soutien d'associations, a été créé le 24 septembre 2002, un mouvement de développement collaboratif de logiciels nommé : A.D.U.L.L.A.C.T. Des collectivités territoriales et des administrations observent en effet qu'elles dépensent beaucoup d'argent public, dans une situation de client captif, pour des logiciels métiers propriétaires, parfois inadaptés. Elles ont résolu ensemble de se constituer en association pour constituer un patrimoine de logiciels libre métiers. L'Association des Développeurs et Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales a pour objectif de développer et maintenir un patrimoine de logiciels libres métiers, d'accompagner ses membres dans leur démarche de migration technologique, de coordonner leurs compétences et les aider à mutualiser leurs investissements, pour le bénéfice de tous avec l'aide d une équipe permanente d'informaticiens de haut niveau. Le premier bureau de l'association est présidé par François Elie. Parmi les membres fondateurs, on retrouve des personnalités du monde du libre comme Richard Stallman, Stéphane Fermigier, Roberto di Cosmo ou Bernard Lang, mais aussi des hommes politiques comme René Trégouët ou Pierre Laffitte.
2002-10-19 21:39:55
ADULLACT
http://www.adullact.org
C'est un des plus beaux sites qu'on ait vu depuis longtemps. Elvir est un espace de publication numérique pour des revues de création littéraire. Abritant cinq revues pour l'instant, cet espace particulièrement élégant et réussi offre aux auteurs de textes la possibilité d'accroître leur visibilité grâce à la diffusion sur le réseau. Présenté lors du Salon des Revues qui s'est tenu ce week-end à Paris, Elvir offre la possibilité à chaque directeur de revue à la fois de rester maître de la chaîne de publication et de conserver l'identité visuelle de sa revue, tout en fournissant une aide à la publication à travers un système d'aide et des outils spécifiques que l'on peut considérer comme exemplaire. Un système de publication collaboratif, directement accessible aux auteurs, des interfaces personnalisables sur une plate-forme de gestion dynamique de contenus, certains auront déjà reconnu la signature de...Spip, le système libre de publication développé par le Minirézo et qu'utilisent désormais de nombreux sites Web. Mais un Spip retravaillé, amélioré, complété, customisé pour les besoins des revues strictement litéraires dans un contexte de lecture savante ; avec en particulier pour le lecteur la possiblité de se créer un "recueil" qu'il va remplir tout au long de sa lecture avec les textes qui l'intéressent particulièrement. A tout moment, il peut télécharger ou imprimer l'ensemble de son recueil. Selon les initiateurs du projet, Denis Bourgeois et Claire Beaumont, Elvir devrait aussi bientôt permettre aux lecteurs d'annoter les textes directement et de gérer leurs annotations. Par ailleurs, et ce n'est pas la moindre de ses qualités, la plate-forme indexe les textes publiés en leur associant 15 métadonnées satisfaisant aux spécifications du Dublin Core. Enfin, elle fournit aux auteurs la possibilité de gérer leur droits de manière autonome en leur fournissant une texte de cession de droits qu'ils peuvent annexer à leur production. Elvir est le résultat d'un long travail, de beaucoup de réflexion et d'une coopération exemplaire entre graphistes, informaticiens et universitaires. En témoignent les nombreux mails que les participants se sont échangés depuis deux ans, et qu'ils publient sur le site, comme pour montrer qu'il ne s'agit pas simplement d'un miracle.
2002-10-19 23:52:02
Elvir
http://www.elvir.org
Des images de nuages saisies à partir du Cap corse sont utilisées par le site de France 3 Corse à chaque nouvelle édition de son application Nant'a a tilaghjica-En permanence sur la toile. Les photographies sont extraites de la galerie des nuages de Manuella Guillot du site Barcaggio-Cap corse. L'application Nanta a tilaghjica de France 3 Corse a sélectionné depuis mars 2002 plus de 200 sites concernant directement ou indirectement la région Corse. Cette application figure en permanence dans la home page du site www.france3corse.tv ainsi que dans la page sommaire de l'onglet "Agenda". C'est la Cellule d'Informations et de Veille Internet de la rédaction de France 3 Corse qui assure la sélection des sites après récensement et expertise.
2002-10-30 17:00:35
L'édition multimédia de France 3 en Corse
http://www.france3corse.tv
Cette année encore, l'organisation de défense des droits civiques Privacy International demande aux citoyens français de récompenser les responsables qui, dans l'année, ont contribué le plus efficacement à la mise en place d'une société de surveillance. Les BBA poursuivent donc leur objectif de dénoncer toute institution ou personne s'étant distinguée par son mépris du droit fondamental à la protection de la sphère privée, ou par sa promotion de la surveillance et du contrôle des individus (Prix 'Orwell'). Privacy International récompense aussi les "anti-Big Brother", ceux qui se sont élèvés contre ces dérives (Prix 'Voltaire'). Un jury citoyen d'une dizaine de personnes - militants associatifs, juristes, journalistes ou sociologues - se réunira en janvier 2003 pour délibérer. Pour le sélectionner Privacy International s'est entouré en France d'un réseau de collectifs qui apportent leur soutien et expertise. Cette année Privacy International s'est rapproché de la Fédération internationale des ligues des droits de l'homme (FIDH), et participe aux travaux de la toute nouvelle Fédération informatique et libertés (FIL). Continuent de participer à l'opération les associations Souriez vous êtes filmés, Non à Big Brother (Lyon), l'Observatoire du droit des usagers des institutions sociales (ODU), le collectif anti-spam Caspam, le site d'infos sur la cryptographie Openpgp.fr.st, et bien d'autres organisations. Chacun peut désigner ses candidats préférés sur le site de Samizdat
2002-11-09 20:44:56
BBA 2002
http://www.samizdat.net/bba/
Le danger d'une surveillance centralisée, généralisée et s'appliquant de manière uniforme à l'échelle d'une nation sur l'ensemble de ses communication électroniques n'est pas (encore) pour tout de suite. Il en va autrement, semble-t-il, de la multiplication des petits pouvoirs locaux, surveillant sans contrôle des petites communautés, dans le cadre de collectivités académiques ou de travail. C'est l'impression qui ressort à la lecture du dernier bulletin de l'Electronic Privacy Information Center, qui dut intervenir ce mois-ci sur deux sujets en apparence différents, en fait significatifs d'une même tendance : d'abord l'appel de la RIAA qui défend les intérêts de l'industrie du disque américaine aux administrateurs réseau des campus universitaires pour qu'ils mettent en place des instruments de surveillance localisant et/ou empêchant les échanges de fichiers mp3 sur leurs réseaux. Mais aussi l'outil proposé par AOL aux chefs d'entreprises leur permettant de surveiller les communications de leurs employés par l'intermédiaire du logiciel de messagerie instantanée AIM que cette même entreprise distribue. On dénonce l'apparition du Big Brother...c'est plutôt l'apparition d'une multitude de 'little brothers" qui devrait nous préoccuper.
2002-11-09 21:36:07
EPIC Alert 9.22
http://www.epic.org/alert/EPIC_Alert_9.22.html
Radio France International vient de remettre son prix "RFI-net Afrique 2002" au site sénégalais Taf-Taf qui se propose de vendre dans le monde entier des objets d'artisanat africain. Et il est vrai que le site vaut le détour, tant il est réussi sur le plan esthétique, l'esthétique ne nuisant pas, c'est assez rare pour le remarquer, à la facilité de navigation. Les objets proposés par Taf-Taf ne proviennent pas uniquement du Sénégal : la Mauritanie, le Niger ou le Mali par exemple sont aussi présents, par l'intermédiaire de sculptures, tissus, bijoux, cuirs ou produits de vannerie de qualité. Taf-Taf est certifié par l'International Federation for Alternative Trade, qui garantit les niveaux de rémunération des artisans, ainsi que leur maîtrise relative des circuits de commercialisation de leurs produits. Une initiative originale donc, bien loin des fadaises de la "nouvelle économie", et qui peut en intéresser plus d'un à l'approche des fêtes de Noël.
2002-11-09 22:42:13
Taf-Taf
http://www.taftaf.com
A l'occasion de la programmation "Cinémas de demain" organisée par le Centre Pompidou, l'excellente revue en ligne Fluctuat.net publie une série de dossiers intitulée "Tour du monde du Web" qui présente un état des lieux sur l'art numérique dans plusieurs pays. Première étape de cette série : le Japon sur lequel Laurent Rollin publie un dossier fort intéressant et complet. On peut y lire en particulier un historique du développement des arts numériques nippons depuis les années 60, ainsi qu'une présentation des principaux représentants de ce mouvement. Le cas du Japon est particulièrement intéressant à connaître car la forte valorisation de l'innovation technologique que ce pays manifeste depuis longtemps a eu très tôt pour conséquence l'établissement de liens très étroit entre création artistique et développement industriel et commercial.
2002-11-10 11:25:58
Le Tour du monde du Web : le Japon
http://www.fluctuat.net/tourdumonde/
Chaque année, l'Institut des Sciences du Document Numérique organise une série de conférences-rencontres sur une des questions que pose l'utilisation croissante des technologies numériques dans notre environnement quotidien. Baptisée les "Jeudis du Numérique", cette série aborde cette année des sujets aussi passionnants que l'e-book, la musique en ligne, la notion de doucment multimédia ou encore le travail nomade. Ce sera justement ce dernier thème qui fera l'objet d'une conférence jeudi 21 novembre à l'Ecole Normale Supérieure de Lettres et Sciences Humaines, à Lyon, de 17 à 19 heures. On pourra y écouter en particulier Jean-Pierre Devin de France Télécom, ainsi que Jacqueline Vacherande et Christian Bessière, de l'ICTT de l'Ecole Centrale de Lyon. Entrée libre et gratuite. Voici la présentation complète de cette séance : "L'augmentation rapide des accès haut-débit est un des facteurs clés du développement du travail à distance. A travers les aspects sociétaux, environnementaux, économiques...de nouveaux enjeux stratégiques sont offerts à la réflexion des entreprises et des développeurs économiques. Les problématiques d'accès aux documents et de leur partage, l'environnement de travail, les solutions au moindre coût, intégrables aux systèmes informatiques sont quelques éléments pratiques pour lesquels il existe aujourd'hui des réponses adaptées." En attendant, voci la présentation complète de cette séance : "L'augmentation rapide des accès haut-débit est un des facteurs clés du développement du travail à distance. A travers les aspects sociétaux, environnementaux, économiques...de nouveaux enjeux stratégiques sont offerts à la réflexion des entreprises et des développeurs économiques. Les problématiques d'accès aux documents et de leur partage, l'environnement de travail, les solutions au moindre coût, intégrables aux systèmes informatiques sont quelques éléments pratiques pour lesquels il existe aujourd'hui des réponses adaptées."
2002-11-13 14:36:06
Les Jeudis du Numérique
http://isdn.enssib.fr/otr_pg/agenda.htm
Federal Computer Week rapporte comment le géant de l'édition scientifique Elsevier a fait pression sur l'administration américaine pour faire fermer un serveur d'articles scientifiques administré par le Département de l'énergie. Ce serveur, appelé Pubscience, proposait à la consultation gratuite, des articles dont certains éditeurs scientifiques font payer l'accès sur leurs propres serveurs. Dès lors, selon la coalition emmenée par Elsevier, le serveur du département de l'énergie constituait clairement un cas de concurrence déloyale au secteur privé. Et l'affaire n'est pas terminée, selon FCW. Car les éditeurs s'apprêtent à faire fermer d'autres serveurs académiques, administrés sur fonds publics, pour les mêmes motifs. Il semble simplement que Pubmed, qui offre les mêmes services que Pubscience dans le domaine médical échappe pour l'instant à leur appétit.
2002-12-09 15:58:43
More sites targeted for shutdown
http://www.fcw.com/fcw/articles/2002/1111/web-science-11-13-02.asp
"Le migrant serait-il le prototype de l’Homo cybernatus, en voie de formation depuis la fin du XXe siècle ? On est en droit de se poser la question à la lecture des articles qui constituent le dossier du dernier numéro paru d'Hommes et Migrations. De même que l’on se doit d’y apporter une réponse pour le moins prudente, nuancée. D’abord parce que si les nouvelles technologies de l’information et de la communication (NTIC) semblent très adaptées à certains des besoins des migrants — conseils pratiques sur la société d’accueil ou dialogue communautaire avec Internet, liens réguliers avec le pays et la famille par le biais du téléphone portable ou du courrier électronique —, il est évident que celles-ci sont encore loin d’être accessibles à tous : la “fracture numérique” n’est pas qu’une formule journalistique facile." A l'occasion de la parution de ce dossier thématique, la revue organise soiréé-débat de présentation qui aura lieu le mercredi 11 décembre 2002 au Webbar, en présence des différents intervenants de Migrants.com.
2002-11-25 21:59:04
Migrants.com
http://www.adri.fr/HM/hm.html
La Directive Européenne sur le Droit d'Auteur (EUCD) arrive en France : Le 8 octobre dernier, le Ministre de la Culture, Jean-Jacques Aillagon, a annoncé qu'il présenterait début 2003 un projet de loi au Parlement visant à transposer cette directive. La transposition de cette directive en droit français porte des enjeux non négligeables, mais qui touchent des communautés très différentes les unes des autres. Par exemple, l'EUCD prévoit un certain nombre d'exceptions au droit d'auteur, notamment pour des usages pédagogiques ou scientifiques. Les Etats ont le choix de mettre en place ou non ce type d'exception. Par ailleurs, la directive prévoit de criminaliser la conception et l'utilisation d'outils destinés à neutraliser les mécanismes anti-copie sur les contenus numériques. Disposition qui s'inspire directement du tristement célèbre DMCA de 1998, sur lequel les Etats-Unis comment à revenir d'ailleurs. On dit que l'Europe a toujours cinq ans de retard sur les Etats-Unis ; l'hypothèse semble bien confirmée une fois de plus. Le problème est que, comme toujours, la préparation du projet de loi se fasse dans la plus grande confidentialité. Qu'elle soit pilotée par le Ministère de la Culture n'est pas pour rassurer non plus. Dans cette inquiétante perspective, Christophe Espern qui nous avait fait l'amitié de publier [deux beaux articles->http://www.homo-numericus.bonidoo.net/ecrire/articles.php3?id_article=149] dans nos colonnes il y a quelque temps, vient de publier une série de textes sur son site personnel, Tekool, faisant très utilement le point sur la question. Des articles clairs, engagés, renseignés.
2002-12-14 11:40:57
Tekool
http://www.tekool.com/textes/
Aux Etats-Unis, le GPS est de plus en plus utilisé par les forces de police et de sécurité notamment pour traquer des suspects, protéger des véhicules ou surveiller le transport de matières dangereuses. Mais comme on le sait, ces outils de positionnement par repérage satellite sont en vente libre, et de plus en plus miniaturisés, et de moins en moins chers. Rien ne s'oppose donc à ce qu'il soient utilisés par des particuliers à fins d'espionnage de leurs proches : c'est bien plus efficace et bien moins cher qu'un détective privé. Wired news explore cette semaine les possibilités qui s'ouvrent aux conjoints suspicieux (et aux autres) pour surveiller les déplacements de leur moitié, sans manquer de s'interroger sur la légalité de tels comportements.
2003-01-08 11:21:18
Spying on Snookums With GPS
http://www.wired.com/news/technology/0,1282,56537,00.html?tw=wn_ascii
C'est ce que vient de décider le tribunal d'Oslo qui jugeait Jon Johansen à la suite d'une plainte déposée par la RIAA, l'association représentant les intérêts du cinéma hollywoodien. Au coeur de la question, le fameux DECSS, un code informatique permettant de casser le code de protection des DVD commerciaux (CSS) censé lutter contre le piratage. Si le DECSS peut en effet permettre de pirater un DVD (mais la RIAA a été dans l'incapacité de prouver au tribunal qu'il a effectivement servi à cela), il permet surtout aux utilisateurs de faire ce que bon leur semble des DVD qu'ils ont achetés : les lire à partir de leur disque dur ou plus simplement avec un système d'exploitation libre, comme Linux. Sous couvert de lutte contre le piratage, la RIAA est donc soupçonnée par nombre de technophiles, de vouloir limiter la liberté du consommateur. En relaxant "DVD Jon", le tribunal d'Oslo vient de leur donner raison...en Norvège, car il n'est pas certain q'un tribunal américain eût rendu la même décision, du fait notamment du Digital Millenium Copyright Act qui y sévit depuis 1998.
2003-01-08 11:32:28
Un Norvégien accusé de pirater des DVD gagne contre Hollywood
http://fr.news.yahoo.com/030107/85/2xant.html
"La Ligue Odebi, regroupant les principales associations françaises d'internautes, est consternée par le projet de loi pour la "confiance dans l'économie numérique" présenté en conseil des ministres par Nicole Fontaine, ministre déléguée à l'Industrie. Alors que le premier ministre présentait ce projet comme devant clarifier la situation et mettre un point final à l'insécurité juridique des acteurs du secteur, Nicole Fontaine a proposé un texte faisant de cette insécurité une règle, en instituant une e-justice privatisée, donc non conforme aux notions de tribunal indépendant et impartial, et de présomption d'innocence énoncées par l'article 6 de la Convention Européenne des Droits de l'Homme. Concernant la clarification souhaitée par le premier ministre lors de la présentation du plan RE/SO2007, aucune précision n'a été apportée sur le statut du webmaster offrant un forum sur son site, alors qu'il s'agissait du seul point sur lequel la législation actuelle était défaillante. Il ne s'agit là que d'une paresse législative ordinaire, mais il y a beaucoup plus étonnant : la loi du 1er août 2000 est anéantie avec le retour des dispositions de "l'amendement Bloche", qui avaient été déclarées inconstitutionnelles par le Conseil Constitutionnel le 27 juillet 2000. Comme si l'Affaire Altern n'avait jamais existé ! Cette loi avait pourtant été unanimement saluée à l'époque, et n'a jamais été contestée depuis. Que cherche Nicole Fontaine ? Pourquoi modifier une loi qui satisfait tout le monde ? Quel est le groupe de pression qui a influencé Bercy alors que le quasi-totalité des acteurs du net français on exprimé leur désaccord quant à l'avant-projet de loi qui leur a été présenté? Comment le gouvernement français pourrait-il ignorer les dizaines de milliers de fermetures de forums, et les dizaines de milliers de pétitions signées afin de protester contre l'absence de textes adaptés au net actuel et les scandaleuses dérives judiciaires qui en ont été la conséquence? En obligeant les prestataires à supprimer l'information incriminée dès qu'il en prend connaissance, c'est une justice privatisée que veut créer le gouvernement, une justice aveugle et implacable : le prestataire ayant l'épée de Damoclès de poursuites judiciaires à son encontre n'aura pas d'autre choix que de supprimer l'information contestée, qu'elle soit légale ou non. Alors que la législation actuelle n'empêche aucunement la suppression par le prestataire des contenus manifestement illégaux, la nouvelle loi n'apporte donc même aucun "bénéfice sécuritaire". C'est donc la fin de la liberté d'expression sur le Web francophone que va provoquer le texte de Nicole Fontaine. Les associations de consommateurs, mais aussi les nombreuses associations contestataires ou simplement gênantes, tout comme les particuliers et même les partis politiques se verront rapidement couper leur site web si cette loi est promulguée. Le gouvernement lui-même n'est pas à l'abri ! A titre d'exemple, Aéroports de Paris pourrait se plaindre de diffamation auprès de MGN.net, qui se verrait dans l'obligation de couper le site du Premier Ministre pour ne pas être condamnable en cas de mauvaise appréciation de la légalité des propos les mettant en cause ! Nous demandons au gouvernement de revenir immédiatement sur cette disposition qui signerait l'arrêt de mort du web français si elle était appliquée. Nous refusons que le web français devienne un second web chinois et demandons la modification des article 43-8 et 43-9, de manière à maintenir la protection de l'injonction judiciaire, afin d'assurer à tout citoyen l'accès à une justice indépendante et impartiale, et l'extension de cette protection à l'ensemble des intermédiaires, ce qui au préalable suppose que le texte définisse clairement les différents acteurs impliqués : en la matière doit être considéré comme intermédiaire tout acteur n'étant pas Devant l'absence de prise en compte des voix exprimées par "l'e-France d'en bas" pour la sauvegarde de sa liberté d'expression, la Ligue des associations haut-débit a décidé de lancer une action massive contre ce texte liberticide."
2003-01-18 14:41:53
Ligue ODEBI
http://www.odebi.org/
John Perry Barlow, co-fondateur de l'EFF[1] met la France en garde contre les menaces d'une législation interdisant la copie privée dans les faits. «Voila quatre ans que nous subissons aux États-Unis les effets pervers du DMCA [2]», prévient-il, «Comme l'avant-projet de loi proposé par le ministère de la culture français ne diffère guère de notre DMCA, il est à craindre qu'il ne puisse pas protéger les intérêts des auteurs ou des titulaires de droits mais serve, au contraire, à asseoir une domination durable des majors et des éditeurs. Aux États-Unis le fair use est victime du DMCA mais vous pouvez encore sauver la copie privée en France.» Cannes, le 18 janvier 2003. L'initiative EUCD.INFO [3] a organisé une réunion de travail avec l'EFF à l'occasion de la présence de John Perry Barlow au Midem. EUCD.INFO a pour mission d'informer le gouvernement sur les conséquences négatives de la transposition de la directive européenne du 22 mai 2001 relative au droit d'auteur et aux droits voisins dans la société de l'information (surnommée EUCD). Grâce à une équipe juridique des plus compétente dirigée par Cyril Rojinsky et supervisée par Michel Vivant, elle cherche des solutions juridiques qui préservent l'exception pour copie privée et plus généralement l'intérêt du public. «L'expérience désastreuse du DMCA aux États-Unis est une fenêtre sur l'avenir que nous réserve l'avant-projet de loi proposé par le gouvernement» souligne Loïc Dachary, fondateur de l'initiative EUCD.INFO. «En travaillant de concert avec l'EFF et treize initiatives similaires dans chaque pays de l'union européenne[4], nous saurons proposer des solutions protégeant les intérêts des auteurs et du public». Il est vrai que les procédures judiciaires en cours aux États-Unis et invoquant le DMCA ont de quoi surprendre: dans leur vaste majorité elle ont pour objet l'éviction de concurrents dans le secteur du logiciel et non la défense des auteurs victime de contrefaçons.
2003-01-18 15:10:28
EUCD.INFO
http://eucd.info/pr-2003-01-18.fr.php
"En moins d'un an plusieurs centaines de sites de co-publication ont été ouvert en France. A côté des weblog nord américains qui favorisent l'expression individuelle, la co-publication ouvre, ici, de nouveaux espaces d'expression publique. Spip, Glasnost, localis, wi-fi, radiophare, des outils et technologies, sont aujourd'hui disponibles qui favorisent l'accès au réseau à partir du premier kilomètre, des acteur-ice-s locaux. Il ne s'agit plus seulement d'apprendre à utiliser mais d'être acteur de sa connexion locale, d'acquérir de nouvelles habiletés pour dire, publier, se référencer, débattre sur la toile. Au croisement du projet d'espace ressource apporté par Vecam au réseau I3C, d'initiatives déroulées (ile de Ré, Brest ..) ou en cours (Aquitaine, Ile de France, Nord pas Calais ..) de nombreux réseaux s'impliquent pour diffuser ces nouveaux modes d'expression et de débat public. Ainsi est né le projet Ecrit public : Formation Action des « Syndicats territoriaux d'apprentissage mutuel » L'idée est de proposer une "formation-action" pour apprendre à utiliser les outils de co-publication, de vote participatif, de cartographie dynamique, apprendre à écrire, à décrire, à valider des informations, à mettre en relation. Un projet qui s'appuie sur des « syndicats territoriaux », forme réveillée par Olivier Zablocki pour rendre compte du travail en réseaux d'acteurs qui s'impliquent sur leur territoire local ou thématique. Ecrit public c'est aussi un acronyme pour « Ecriture Coopération, Réseaux Interaction et Territoires public » c'est-à-dire une interconnexion de réseaux régionaux, noyaux de diffusion, de relais, catalyseur, de l'appropriation sociale. Ce travail porté par I3C, s'inscrit dans la proposition de Vecam d'espaces ressources, le travail de la Fing sur la coopération (JM Cornu) et le premier kilomètre (Jacques François Marchandise), les orientations 2003 de la Fondation de France (évolution de l'appel à projet vers du soutien à l'appropriation) et la problématique territoriale d'I4C Bretagne-armorique, de radiophare, la mise en réseau des espaces publics d'Aquitaine par Médias-cité, la coordination des réseaux de l'accès public (Créatif), ou des centres sociaux, les coopératives de l'économie sociale et solidaire, les mouvements du logiciel libre et des hébergeurs hébergés... Il s'agit à la fois de construire un espace ressource pertinent, de valoriser des personnes, de leur apporter une formation, de consolider les compétences des associations auxquelles elles appartiennent, de favoriser l'émergence de pôles de référence supports possibles des initiatives locales, de rendre visible un mouvement d'acteurs, interlocuteurs des collectivités .. Projet lointain, réalité co-produite à chacun-e de s'en faire une idée, de proposer liens et contributions. Peut-être aurez-vous envie de vous de vous joindre à la coopérative des rédacteurs, ou à celle des réseaux d'utilisateurs des contenus mis à disposition ? Parce que, bien sur, contenus de formation et écrits seront co-produits en contenus ouverts (copyleft) biens publics de nos réseaux. -[Ecrit public le projet->http://www.i3c-asso.org/article.php3?id_article=314] -[Ecrit journalistique un scénario possible de formation action->http://www.i3c-asso.org/article.php3?id_article=315] -Ecrit coopératif : [un brouillon de référentiel sur la co-publication->http://www.i3c-asso.org/article.php3?id_article=319] Michel Briand, élu local, Brest"
2003-01-23 10:00:11
Association I3C
http://www.i3c-asso.org
Selon Zdnet, "le groupe de travail de l'Union européenne sur la protection des données vient de publier ses recommandations sur les services d'authentification en ligne". Dans la ligne de mire de ces recommandations, les deux services concurrents, Passport de Microsoft et la Liberty Alliance emmené par Sun Microsystems. S'il est impossible à la Commission Européenne d'agir sur la Liberty Alliance, qui n'existe encore qu'à l'état de projet, le groupe de travail a en revanche passé un accord avec Microsoft pour qu'il modifie le fonctionnement de son système à l'égard des consommateurs européens. En gros, cela se résume à plus de transparence et plus d'information. Mais l'article de Zdnet n'aborde pas la question de la centralisation des informations, contrairement au [New York Times->http://www.nytimes.com/2003/01/31/business/worldbusiness/31SOFT.html?th], qui aborde le même sujet. Passeport, contrairement à Lyberty Alliance, repose en effet sur la constitution d'une base de données qui centralise les informations personnelles de dizaines de millions de personnes. Ce qui n'est pas sans inquiéter les spécialistes de sécurité, même si Microsoft donne des garanties sur l'utilisation -volontaire- qui en est faite.
2003-02-02 14:29:36
Données personnelles: Microsoft contraint de modifier son Passport
http://news.zdnet.fr/story/0,,t119-s2129716,00.html
C'est arrivé récemment à New York, mais cela pourrait aussi bien arriver ici. The Thing est un petit fournisseur de services internet à destination d'artistes et d'activistes new-yorkais. Parmi leur quelques centaines de clients, les fameux Yes Men, un groupe d'artistes engagés, bien connus pour avoir "piraté" une réunion de l'OMC l'année dernière. Cette fois, il se sont attaqués à l'entreprise Dow Chemical en créant un site parodique, immédiatement attaqué, dès qu'ils en eurent connaissance, par les juristes de Dow Chemical. Lesquels se sont adressés à ...Verion, le géant des Télécoms auprès de qui The Thing est client. Résultat, Verion a suspendu l'accès, non pas au site des Yes Men, mais à l'ensemble du réseau The Thing, qui, selon ses responsables, a par ailleurs, le mauvais goût de ne pas être rentable pour le mastodonte. Et cette suspension est en passe d'être définitive. Mais sur quelle base juridique ? Le DMCA bien sûr, bien qu'il s'agisse, pour un certain nombre de juristes, d'un détournement clair de cette loi destinée à protéger la propriété intellectuelle. Mais sur quoi portait donc la parodie des Yes Men ? Sur la catastrophe de Bhopal, provoquée par une usine chimique de Union Carbide, détenue par Dow Chemical. De l'humour noir en somme.
2003-02-02 15:23:39
"The meanness of Dow et Verio"
http://rtmark.com/
En dépit des réserves exprimées ailleurs sur la nécessité de la fondation de la discipline médiologique, il faut s'attrister de la disparition des Cahiers de médiologie en ligne. Cette revue, qui est la vitrine de la médiologie, discipline créée par Régis Debray, proposait depuis plusieurs années un site, [mediologie.com->http://www.mediologie.com], offrant à la lecture un nombre conséquent de numéros en texte intégral. Mediologie.com est désormais abandonné aux spéculateurs et héberge d'insipides publicités en anglais. Une certaine « Mrs Jello », Livingston, USA, liée au site ExoticDomains.net, en est désormais propriétaire depuis le 29 mars 2003. Ce désastre paraît dû au changement d'éditeur de la revue, passée des éditions Gallimard aux éditions Fayard. On s'étonne cependant qu’un éditeur aussi prestigieux que Gallimard se soit laissé aller à solder un nom de domaine aussi significatif que celui-ci, contraignant la revue à passer sur [mediologie.org->http://www.mediologie.org]. Tout ceci pourrait ne relever d’aucune stratégie particulière, dans la mesure où le nouveau nom de domaine semble avoir été acheté en urgence le 24 mai 2003 par un membre du Comité de rédaction de la revue. Le changement d’URL n’est pas condamnable en soi, et on ne saurait blâmer ceux qui adoptent le .org à la place du .com, mais on aurait apprécié que, par courtoisie et par bon sens, une redirection permanente explicite soit établie par l’éditeur historique de la revue. Á croire que l’internaute n’est pas un vrai lecteur et que les dizaines d’articles publiés en ligne étaient placés là comme dans une cave sans lumière et sans visiteurs. L’internaute manque probablement d’instruction et, sans doute, de moyens de paiement. On ne peut croire que la maison Gallimard se soit débarrassée, avec cette revue, de toute responsabilité morale concernant une entreprise éditoriale qu’elle a portée pendant des années et se moque comme d’une guigne de sa mémoire et de son avenir. Le changement d’éditeur et de nom de domaine se produit donc dans des conditions de continuité et de savoir-vivre désastreuses, qu’accentue l’impression donnée par le nouveau site, squelettique, publié par les éditions Fayard. On se demande si Gallimard a refusé la réutilisation des données autrefois mises en ligne par ses soins. Ou si Fayard a considéré la politique de Gallimard comme trop généreuse et a opté pour une réduction des ambitions du site. Aucune réponse à ces questions n’est lisible sur le nouveau site, qui s’excuse cependant des «désagréments occasionnés par cette période de transition». On espère infondée l’hypothèse selon laquelle les couvertures de la revue présentes sur la page d’accueil seraient tronquées pour d’obscures raisons touchant aux droits d’auteurs. On craint cependant d’avoir compris, au travers de cet épisode, que la mise en place d’une politique Internet continue et cohérente par certains grands éditeurs français n’est pas encore à l’ordre du jour. On n’ose même plus évoquer le terme d’édition électronique scientifique. La «bulle» est passée et le savon a un goût amer. Formulons le vœu que cette «période de transition» soit suivie d’une période de résurrection d’un site dans lequel les articles de la revue –même anciens– redeviendraient disponibles pour tous. Afin que le débat scientifique puisse reprendre ses droits.
2003-07-24 22:36:45
Les Cahiers de Médiologie
http://www.mediologie.org
Au moment où une étude américaine évalue les coûts engendrés par le détournement d'identité en ligne à plus de [30 milliards de dollars->http://www.nytimes.com/2003/09/04/politics/04IDEN.html?th],plusieurs géants du commerce en ligne, parmi lesquels Ebay, Visa et Amazon, créent une alliance pour combattre ce fléau, annonce aujourd'hui The Register. La "Coalition on Online Identity Theft" nouvellement créée, s'est fixé pour objectif de travailler avec le gouvernement à l'élaboration d'un environnement plus sûr, d'échanger des informations entre ses membres, mais surtout d'éduquer le consommateur à travers des campagnes de sensibilisation. Car, remarque l'un de ses animateurs, l'essentiel des défaillances de sécurité permettant l'accomplissement d'actes frauduleux, sont provoquées par des imprudences "off-line", permettant aux indélicats de récupérer facilement mots de passe et numéros de cartes bancaires.
2003-09-04 16:48:32
MS, eBay, Amazon et al join ID theft busters
http://www.theregister.co.uk/content/55/32628.html
C'est le dernier jeu à la mode et ce n'est pourtant pas un flashmob. Le site s'appelle Friendster. C'est un système très simple de rencontre sur Internet mais différent des autres en ce sens qu'il ne met en relation que des gens qui se connaissent indirectement. Chaque participant s'inscrit sur le site en remplissant une fiche de renseignement personnels et invite ses amis à en faire de même. Si chacun de ceux-ci reproduisent ce comportement, on a un phénomène de chaîne, puis de réseau. L'innovation réside dans le fait que chaque participant peut consulter les fiches des autres participants à condition qu'il soit relié à eux par un nombre limité d'intermédiaires. Fini donc, le risque un peu glauque de rencontres avec de parfaits inconnus ; ici, le principe qui prévaut est "les amis de mes amis peuvent devenir mes amis". Mais là n'est pas l'intérêt pour le Washington Post. Car les utilisateurs ont rapidement détourné le site pour se livrer à des concours de "popularité". Le système permet en effet de savoir à combien de personnes ont est connecté, dans la limite de quatre noeuds de connexion. Une manière très simple d'évaluer son capital social dans un monde qui lui accorde une valeur très élevée. Et les chiffres sont impressionnants, puisque certaines personnes peuvent se trouver jusqu'à plusieurs centaines de milliers de "friendsters". Du coup, ils en deviennent maniaques, certains restant connectés en parmanence pour voir évoluer leur score. on pourrait toujours leur dire qu'à ce train, ils perdront leurs amis réels, brisant ainsi la chaîne qui les relie au reste du réseau...
2003-09-04 20:54:07
A 'Friendster' Counting Culture
http://www.washingtonpost.com/wp-dyn/articles/A23217-2003Sep3.html
On nous l'avait promise, la voici enfin, la pub ciblée. Le Journal du Net nous annonce en effet que la publicité liée au contenu de la page Web sur laquelle elle s'affiche sort progressivement des moteurs de recherche où elle était cantonnée, pour être utilisée sur des sites plus généralistes, comme CNN, MSNBC ou Libération et Le Monde en France. Ce genre de pratique est censée remédier aux défaillances de l'affichage publicitaire classique, dont le taux de transformation est extrêmement faible, sans tomber dans les contraintes de la publicité ciblée sur le profil de l'utilisateur, difficile à mettre en oeuvre du fait des régulations sur les données personnelles et des stratégies de défiance des utilisateurs. Mais on apprend finalement que, d'une part, les taux de transformation de ce genre de publicité ne sont pas nécessairement plus élevés que pour la publicité classique, et surtout que, d'autre part, le système de "ciblage" par mots-clés n'est pas totalement fiable, obligeant les opérateurs à des retouches manuelles. Vérification faite sur le site du Monde, les liens sont bien en place, en bas de page. Mais le ciblage est pour le moins large, puisqu'il ne descend pas au dessous de la rubrique. Du coup, tous les articles de la rubrique "international" pointent vers des agences de voyages. Pas très malin, quand on se retrouve avec un : "besoin d'évasion ? Havas Voyages" au pied d'un article sur la guerre civile au Libéria. Plus drôle encore, dans l'humour noir, on appréciera la publicité pour un fonds de pension accompagnant un article traitant du conflit sur les retraites. Et du coup, ce genre de publicité devient l'objet d'un véritable jeu. On se met à cliquer convulsivement sur tous les articles du journal pour voir quelle publicité va s'afficher et trouver des associations amusantes. Conclusion de l'étude exclusive effectuée par Homo Numericus : la publicité ciblée a cet avantage indénaible sur la publicité classique de fournir à l'internaute un petit moment de détente.
2003-09-04 23:14:43
Les liens contextuels, nouvelle aubaine pour les sites de contenu
http://www.journaldunet.com/0309/030903liens.shtml
Le 22 septembre prochain, le Parlement européen examinera un texte visant à étendre aux logiciels la possibilité de déposer des brevets. Ce texte provoque actuellement des remous considérables dans les milieux informatiques, et en particulier dans la communauté du logiciel libre qui y voit une menace contre le modèle de développement qui la caractérise. Une certaine agitation chez les hommes de métier donc, mais très peu en dehors. Pourtant les logiciels libres sont utilisés dans un grand nombre de domaines d’activité qui se verraient lésés par un affaiblissement de leurs outils de travail. C’est en tout cas ce que pensent certains acteurs de l’édition électronique en France qui viennent de publier un communiqué appelant les députés européens à refuser l’adoption de ce texte. « L'utilisation des logiciels libres garantit notre indépendance technologique parce qu'ils respectent les standards préconisés par la communauté internationale. Seule cette indépendance assure la pérennité à long terme des documents que nous publions aujourd'hui, affirment-ils à l’appui de leur appel » Responsables ou initiateurs de sites scientifiques publiant des archives d’articles, des revues ou des thèses en ligne, les signataires disent craindre la « disparition en ligne de milliers de documents scientifiques de haut niveau ». Plus largement, leur texte peut être lu comme un véritable aveu de reconnaissance envers le logiciel libre qu’ils peuvent adapter à leurs besoins particuliers « car les sources en sont disponibles et modifiables ». C’est pourquoi celui-ci se termine sur le souhait « que la société française prenne conscience de l'intérêt des logiciels libres pour notre avenir commun. » Pour en savoir plus sur le projet de texte : - [Le site de la pétition contre la brevetabilité->http://petition.eurolinux.org] - [FFII: Software Patents in Europe->http://swpat.ffii.org/]
2003-09-09 11:38:41
Texte de l'appel
http://www.revues.org/brevetslogiciels.html
Tout le monde connaît désormais l'histoire de Brianna LaHara, cette jeune américaine de douze ans issue d'une famille modeste et poursuivie par la RIAA comme 260 autres personnes pour avoir échangé des fichiers musicaux sur Internet. A l'issue d'une négociation entre son avocat et ceux de ses accusateurs, sa mère accepta de payer 2000$ à la RIAA en guise de dédommagement, en l'échange d'un arrêt des poursuites. L'affaire rebondit maintenant, explique le Washington Post, puisque les sociétés distribuant les logiciels permettant d'accéder à ces réseaux, désormais unis pour défendre leur point de vue, ont offert de payer à la jeune Brianna le montant de sa dette. "Je pensais que les deux Joes, McCarthy et Staline étaient morts, a déclaré Wayne Rosso, le patron de l'un d'eux. Mais je viens de me rendre compte qu'ils sont vivants, bien portants, et à la tête de la RIAA". Nul doute que ce type de déclaration ainsi que le geste chevaleresque envers l'adolescente préludent à une intense guerre de légitimité des acteurs de la distribution de musique en ligne devant les consommmateurs. Face aux ténors du copyright qui déclarent "tous pirates !", les réseaux p2p jouent la carte de la modernité en renvoyant leurs adversaires à une époque qu'ils veulent désormais révolue. Ce faisant, ils sortent pour la première fois le dossier des tribunaux, qui leur ont infligé de cinglantes défaites, pour le porter sur un terrain plus politique. Et de prendre le public à témoin, ce qui est la moindre des choses quand on sait la popularité de telles pratiques.
2003-09-11 22:21:19
File-Sharing Companies Offer to Pay Girl's Settlement
http://www.washingtonpost.com/wp-dyn/articles/A57424-2003Sep10.html
Ils sont 135 à solliciter le suffrage de leurs concitoyens pour être élus au poste de gouverneur de Californie, en octobre prochain. Parmi eux, on retrouve des têtes très connues, dont on parle beaucoup, mais surtout une foule d'anonymes, de citoyens ordinaires de tous milieux, incapables de menacer leurs illustres concurrents sur le plan des dépenses de campagne. Pour tous ceux là, le blog est un bon moyen de se faire connaître, et de faire la différence avec des campagnes beaucoup plus luxueuses, mais terriblement classiques. Et le nouveau medium semble bien fonctionner, explique le New York Times, dans le cadre d'une vie politique qui repose davantage sur la personnalité des candidats que sur leur programme. Certains candidats, totalement inconnus, ont réussi à obtenir des scores de fréquentation très honorables sur leur blog, uniquement par le jeu des hyperliens en provenance d'autres sites. Certes, la plupart d'entre eux ne se font pas d'illusion sur le sort politique qui leur est réservé ; mais le blog est aussi là pour faire entendre leurs revendications, souhaits, instisafaction et autres états d'âme directement, à un moment crucial de la vie politique de l'état.
2003-09-12 21:42:20
Dear Campaign Diary: Seizing the Day, Online
http://www.nytimes.com/2003/09/11/technology/circuits/11cali.html
Que se passe-t-il lorsqu'un internaute tape "homonumerics.net" dans la barre d'adresse de son navigateur ? Autrefois, il ne se passait rien et son navigateur lui indiquait que le nom de domaine n'existait pas. C'est toujours le cas s'il utilise Mozilla par exemple. Mais s'il utilise Internet Explorer, il sera redirigé vers le moteur de recherche de MSN qui cherchera le site dont le nom s'approche le plus de son erreur de typographie. S'il est abonné à AOL, il sera redirigé dans les mêmes conditions vers le moteur AOL. Bientôt, révèle Business Computer review, ce sera le cas en toutes circonstances, parce que Verisign, qui gère l'enregistrement des noms de domaine en com et net, s'apprête à mettre en place ce genre de redirection au niveau du DNS. L'intérêt est évidemment de faire payer la redirection aux moteurs de recherche qui verraient ainsi leur trafic artificiellement gonflé du fait de ces requêtes non voulues par l'utilisateur, et qui, à leur tour, font payer aux entreprises la mise en place de liens sponsorisés dirigeant vers la bonne adresse. Car les requêtes sur adresse erronée représentent, selon Verisign, entre 800 et 900 millions de hits par jour ! Autant dire un pactole bien alléchant pour le géant d'Internet. Le problème est que ce genre de pratique fait grincer des dents dans les milieux techniques. Les réponses du DNS doivent être "exactes", selon eux. Et dans ce cas, le DNS, en affichant une page Web, quelle qu'elle soit, qui ne correspond pas à un nom de domaine enregistré, ne signale pas une erreur bien réelle. Pire encore, selon d'autres : cette pratique s'apparente à du cybersquatting puisqu'elle revient à profiter de la notoriété d'un nom ou d'une marque pour capturer l'intérêt de l'utilisateur à son profit. C'est pour contrer le cybersquatting que les plus grosses sociétés ont enregistré (chez Verisign !) par centaines des noms de domaine représentant toutes les variantes typographiques possibles de leur nom de marque. Enfin, dans la mesure où l'information sur l'existence ou non d'un nom de domaine provient du DNS, le système convoité par Verisign prendrait "sauvagement" la main sur ceux mis en place au niveau du navigateur par Microsoft et AOL. Il n'est pas certain que ces derniers laissent faire sans réagir.
2003-09-13 00:39:43
VeriSign Mulls Way to Make Money from Typos
http://www.cbronline.com/latestnews/d04afc52ae9da2ee80256d9c0018be8b
Un consortium réunissant chaînes de distribution et fournisseurs d'objets de consommation courante aux Etats-Unis est sur le point, selon Wired, de dévoiler une norme permettant de gérer l'implantation à l'intérieur des produits de puces radio destinées à remplacer les code-barres. Cette invention est dans un premier temps destinée à faciliter la gestion des stocks et de la mise en place des produits sur les rayonnages. Le supermarché Wal-Mart aurait par exemple la volonté de contraindre ses 12000 fournisseurs à implanter ces petits émetteurs radio dans leur livraison. Contrairement au code-barre, qui n'identifie que le type de produit, la puce radio identifie chaque objet singulier. Et c'est ce qui éveille la méfiance des associations de défense de la vie privée, comme Caspian et l'EFF. Car, même s'il est possible et, semble-t-il, prévu, de désactiver l'émission radio à la sortie des caisses, cette technologie constituerait un formidable mouchard permettant de suivre à la trace les produits et donc ceux qui les ont achetés,si des garde-fous n'étaient mis en place. Les quelques magasins qui les expérimentent aux Etat-Unis, mais aussi en Europe, comme la chaîne de supermarchés Metro en Allemagne, nient bien sûr toute intention coupable. Cela ne suffit pas à convaincre l'EFF qui veut appliquer ici le principe de précaution.
2003-09-16 23:06:22
Radio Tag Debut Set for This Week
http://www.wired.com/news/privacy/0,1848,60408,00.html/wn_ascii
Mais en Grande-Bretagne cette fois. La Chambre des Lords est en effet en train d'examiner un projet de loi visant à rendre obligatoire le dépôt légal de toute forme de publication électronique, aux frais du déposant. L'Enfer étant pavé de bonnes intentions, celui-ci est motivé par le louable souci de l'archivage documentaire pour les générations futures, mais sans discernement, et en appliquant à un nouveau support un mode de fonctionnment datant du siècle dernier. Le projet de loi provoque en effet en Grande-Bretagne des réactions passionnées, principalement du côté des éditeurs de presse qui peuvent être de petite taille, mais publier beaucoup. Par ailleurs, l'inquiétude que soulève le projet provient de ce qu'il ne dit pas : qu'est-ce qu'une publication électronique ? faut-il y inclure les parties de sites protégées par mot de passe, est-ce que cela concerne les archives de messages électroniques ? mais aussi, que faut-il déposer : une copie statique d'un site, ou tout le système qui génère les pages html ? Tout cela est renvoyé à la réglementation et promet de belles empoignades à venir.
2003-09-17 00:01:57
Law seeks 'deposit' of web sites with UK libraries
http://www.theregister.co.uk/content/6/32800.html
Zdnet révèle aujourd'hui que Microsoft aurait récemment conclu un accord avec Phoenix Technologies, un des plus importants distributeurs de BIOS, afin de proposer aux constructeurs d'ordinateurs une intégration plus étroite entre Windows et le programme de bas niveau qui gère le démarrage de la machine et pilote ses composants matériels. L'objectif affiché est d'accroître la stabilité des systèmes (ou plutôt de réduire leur instabilité), et, bien sûr, d'avancer sur la voie de l'implantation de systèmes de gestion des droits numériques au niveau matériel des systèmes informatiques. Ce programme, qui recoupe en grande partie les objectifs de Palladium, risque enfin de n'être pas sans conséquence sur la liberté qu'a l'utilisateur d'installer des systèmes d'exploitation alternatifs sur la machine qu'il a acheté. Une évolution assez étonnante finalement, puisqu'elle consiste à en revenir in fine à une ère antérieure de l'histoire informatique, lorsque harware et software étaient indissolublement liés ... avant que Microsoft n'existe.
2003-10-05 00:00:00
Microsoft moves to integrate Windows with BIOS
http://news.zdnet.co.uk/software/developer/0,39020387,39116902,00.htm
Cèdera ? cèdera pas ? Verisign, le plus gros registry, responsable de l'enregistrement des noms de domaine en .com et .net a finalement obéi aux injonctions de l'ICANN lui demandant de suspendre le service de redirection mis en place récemment par la firme californienne sur les erreurs d'adresse Internet en provenance des utilisateurs. L'ICANN justifiait sa demande en indiquant que ce service constituait une menace pour la stabilité de l'Internet et générait des problèmes dans le fonctionnement des logiciels anti-spam (ceux-ci vérifient en effet que l'adresse de l'expéditeur d'un message existe bien). Par ailleurs, certains webmasters utilisant les fonctions de syndication automatique s'appuyant sur les flux RSS, se sont retrouvés avec des liens publicitaires sur leur site en provenance de Verisign. La plaisanterie semble donc provisoirement finie. Pour combien de temps ?
2003-10-04 20:30:42
VeriSign Agrees to Suspend Disputed Site Finder Service
http://www.nytimes.com/2003/10/04/technology/04WEB.html
Plusieurs associations de bibliothèques publiques américaines s'apprêteraient, selon un article de Declan MacCullagh publié dans Cnet, à déposer un témoignage devant la cour d'appel fédérale, visant à défendre les réseaux P2P aujourd'hui mis en accusation par le syndicat des éditeurs de musique. Précisant qu'elles ne cherchent pas à défendre les usages de partage de fichiers enfreignant le copyright, l'American Library Association (ALA), l'Association of Research Libraries et l'American Association of Law Libraries, s'appuient sur un précédent arrêt rendu par la Cour Suprême en 1984, jugeant que l'auteur de technologies utilisées pour enfreindre le copyright n'est pas responsable des usages qui en sont fait. Il s'agissait à l'époque du magnétoscope évidemment. Manifestement, la crainte des bibliothèques est ici qu'une remise en cause de ce principe du droit américain ne fasse peser une menace disproportionnée sur la mise en place de produits et services futurs.
2003-10-04 21:08:13
Librarians to P2P critics: Shhh!
http://news.com.com/2100-1032_3-5082684.html
SHERPA est un projet développé par le Joint Information System Committee en Grande-Bretagne afin de développer l'accès électronique aux publication académiques par l'intermédiaire de serveurs de publications compatibles avec le protocole d'échange de métadonnées OAI-PMH. Or, ce projet, qui n'est réellement en ordre de marche que depuis cette année, vient de décrocher un accord avec les prestigieuses Oxford University Press. Selon les termes de l'accord, l'éditeur scientifique travaillera, via les services de la bibliothèque de l'Université d'Oxford, à rendre librement accessibles les articles publiés par les chercheurs de l'Université dans ses revues depuis 2002. SHERPA projette de mettre en place dans les années à venir 13 serveurs E-prints, d'explorer les problématiques juridiques posées par l'auto-archivage et de fournir à la communauté scientifique une palette d'outils technologiques permettant la généralisation de cette pratique.
2003-10-04 22:34:46
Oxford University Press (OUP) supports Oxford University Library Services work with SHERPA
http://www.sherpa.ac.uk/news/index.html#pm2
Brevets, marques, droits dauteur, domaine public Autant de thèmes qui semblent entrer par la fenêtre quand on les chasse par la porte. A Bruxelles, le Parlement européen vient de bloquer provisoirement un projet de directive que les lobbys des grandes industries voyaient déjà acquis. À Genève, dans le cadre du Sommet mondial de la société de linformation, la société civile se bat pour que ce que l'on appelle traditionnellement « droit de la propriété intellectuelle » ne soit pas confiné derrière les portes closes de l'OMC et de l'Office Mondial de la Propriété Intellectuelle, mais soit placé résolument au cur du débat sur le futur de la société de l'information. Autour de politiques, de militants et praticiens du logiciel libre, juristes, d'historiens, d'artistes et d'économistes, I3C, Internet Créatif, coopératif et citoyen, organise le 11 octobre prochain une rencontre intitulée « La propriété intellectuelle sinvite au Sommet Mondial de la Société de l'Information (SMSI).» Pourquoi l'immatériel remet en cause léquilibre entre créateur et utilisateur ? Comment les législations en cours d'élaboration en Europe comme aux Etats-Unis prennent ou ne prennent elle pas en compte cette rupture ? Comment éviter que le logiciel libre ne soit réduit à un outil que son faible coût justifie pour les seuls pays du Sud ? Comment diffuser les pratiques coopératives liées aux technologies de l'information ? Comment promouvoir un bien public de linformation tout en protégeant les droits des auteurs ? Tout au long de la journée, tables rondes et plénières permettront de débattre de ces questions au-delà d'un cercle restreint de spécialistes. Cette journée est le fruit d'un travail que lassociation I3C mène depuis plus d'un an à travers un séminaire mensuel.
2003-10-04 23:29:48
i3c
http://www.i3c-asso.org/11octobre.html
Le spam est un fléau bien connu de la communication par e-mail. Si bien que de nombreuses solutions sont actuellement à l'étude, qui vont de la mise en place de législations appropriées appuyées sur des sanctions efficaces à la conception de logiciels de filtrage plus sophistiqués. Pour Trevor Tompkins et Dan Handley, deux spécialistes de la question qui s'expriment ce mois-ci dans First Monday, ces systèmes posent tous des problèmes plus importants qu'ils n'en résolvent, dans la mesure où ils reposent sur une définition rigide et insatisfaisante du spam (la notion de spam est au contraire subjective) et, surtout, requièrement implicitement la délégation par l'utilisateur à des tiers du contrôle de ses communications. La solution est pour eux au contraire très simple, elle existe depuis longtemps, mais est étrangement peu utilisée : la signature numérique. Celle-ci est en effet, un bon moyen pour l'individu de reprendre le contrôle de sa communication privée, en déterminant exactement avec qui il accepte de communiquer et en garantissant l'authenticité de l'expéditeur des messages qu'il reçoit. Ce type de communication, plaident Tompkins et Handley, n'est pas tellement différent de la rencontre en face-à-face, où l'on accepte rarement d'être abordé par des inconnus. Elle ne demande donc que peu d'investissement : quelques développements logiciels (mais la base existe déjà, par exemple avec PGP) et "simplement l'éducation de l'utilisateur". On se demandera pourtant si ce "simplement" n'est pas précisément le talon d'Achille de leur raisonnement
2003-10-05 00:45:02
Giving E-mail back to the users: Using digital signatures to solve the spam problem
http://www.firstmonday.dk/issues/issue8_9/tompkins/index.html
Beaucoup en apparence, révèle le cabinet d'études Perseus qui en dénombre 4,12 millions hébergés par huit services parmi les plus importants qui existent. Le problème est que la plupart d'entre eux sont déjà morts, puisque 66% des blogs hébergés n'ont pas été mis à jour depuis deux mois. Pis, selon le rapport publié par Perseus, plus d'un million de blogs n'ont été actifs ...qu'un jour. D'autres résultats de l'étude, peut-être plus intéressants, indiquent que si 80% des blogs contiennent des liens vers des pages extérieures, c'est raremement vers des sites d'informations traditionnels, et bien plutôt vers d'autres blogs. Enfin, si on extrapole la courbe de croissance qu'a connu ce techno-usage depuis ses débuts, il faudrait s'attendre à l'existence de 10 millions de blogs l'année prochaine...à moins que la mode ne finisse par passer.
2003-10-05 21:08:36
The Blogging Iceberg - Of 4.12 Million Hosted Weblogs,Most Little Seen, Quickly Abandoned
http://www.perseus.com/blogsurvey/
Communiqué de l'April Le 24 septembre 2003, les eurodéputés ont largement amendé le projet de directive proposé par la Commission (1), refusant ainsi la brevetabilité logicielle totale que souhaitaient instaurer les partisans d'une pratique « à l'américaine ». Nous, associations et militants, nous félicitons de ce premier résultat. Nous remercions les eurodéputés pour leur travail, leur écoute et leur vigilance, qui leur ont permis d'apprécier les enjeux exacts du dossier malgré les pressions et les manipulations, telle cette tentative avortée de précipiter le vote pour le faire passer « à la sauvette » lors des dernières séances plénières, fin juin. De la vigilance, les eurodéputés ont eu à en faire preuve plus que de coutume, le rapporteur du projet de directive, Arlene McCarthy, ayant sciemment dissimulé dans son exposé devant l'assemblée les nombreuses critiques factuelles qui lui ont été adressées. Madame McCarthy a ainsi purement et simplement ignoré les amendements d'encadrement de la brevetabilité soumis à la commission juridique par les commissions de l'industrie et de la culture, suite à l'audition des acteurs du secteur concerné (PME, scientifiques, économistes...). Malgré ces tentatives de manipulation, les représentants des peuples de l'Union Européenne, directement alertés du danger par de nombreuses associations et professionnels, ont choisi d'amender très largement le texte qui leur était proposé. Ce faisant, ils en ont clarifié le contexte juridique, objectif prétendu des partisans de la directive, mais en rappelant l'impossibilité de breveter le logiciel en tant que tel. Et c'est a plus de 80% que les parlementaires européens se sont opposés à cette brevetabilité. Mais les lobbies sont mauvais perdants... Dès avant le vote, le commissaire européen Frits Bolkestein, chargé du marché intérieur et partisan acharné du brevet logiciel, affirmait que certains amendements seraient « inacceptables ». Le vote accompli, c'est au tour du juriste Alex Batteson, qui n'hésite pas à expliquer (2) : « Cela peut paraître peu démocratique, mais on peut soutenir que les amendements proposés montrent que les questions débattues sont trop complexes pour qu'on les laisse entre les mains du Parlement européen ». Son homologue français, Pierre Breese, va plus loin dans le déni démocratique en suggérant que les députés se seraient laissés instrumentaliser par les associations (3). Selon Alex Batteson « les amendements semblent avoir irrité le commissaire Frits Bolkestein ; il pourrait décider d'abandonner la directive au profit d'une renégociation de la Convention Européenne sur les Brevets. Le Parlement n'aurait ainsi plus à régler la question, qui serait confiée à des délégations nationales d'experts en brevets ». On voit, une fois de plus, de grands démocrates - dont, chose inacceptable, un commissaire européen - indiquer leur préférence pour un gouvernement de l'Europe par quelques « gens de qualité », plutôt que par les représentants directs des peuples souverains. L'Europe serait-elle donc réellement cette « machine à trahir » que certains aiment à dépeindre ? À travers la question des brevets c'est pourtant, comme l'a souligné fort justement Michel Rocard, celle de la gestion des savoirs qui est abordée. Un choix doit être fait entre une société sédimentant les monopoles du passé et confisquant le progrès technologique, ou bien une société où chacun profite pleinement de nouvelles possibilités de création et contribue à l'enrichissement du savoir collectif. Le peuple, et lui seul, doit se prononcer sur un tel enjeu. Ses représentants ont logiquement fait primer l'intérêt général des citoyens sur celui d'un quarteron d'« experts » travaillant pour leur propre intérêt et celui de leurs amis au sein de quelques multinationales majoritairement non européennes. Face aux menaces, nous appelons à la plus grande vigilance les eurodéputés et l'ensemble des défenseurs des intérêts des Citoyens et des PME de l'Union. Le conseil des ministres du 10-11 novembre (4) peut être l'occasion pour les partisans de la brevetabilité logicielle de saboter discrètement, sans la visibilité d'un débat parlementaire public, le travail réalisé par les eurodéputés. Ne laissons pas man½uvrer ainsi contre l'expression démocratique et confisquer un débat vital pour l'avenir de l'Europe. Références : (1) [«Analyse du vote du Parlement Européen du 24/09/2003» ->http://www.abul.org/brevets/articles/parlement_20030924.php3] (2) voir article : [Logiciels: des juristes "probrevets" ne veulent plus de l'arbitrage du Parlement-> http://www.zdnet.fr/actualites/business/0,39020715,39125506,00.htm] (3) [ZDnet interview de Pierre Breese ->http://www.zdnet.fr/actualites/technologie/0,39020809,39125528,00.htm] (4) [Conseil des ministres "compétitivité", les 10-11 novembre : ->http://www.ueitalia2003.it/FR/LaPresidenzaInforma/Calendario/11/10/ev_10novCUEcmiir.htm]
2003-10-06 13:49:02
April
http://www.april.org
Montréal, le 1er octobre 2003 - Le Département des communications de l'UQAM, le Centre interuniversitaire des arts médiatiques (CIAM) et la Télé-université (TÉLUQ), en collaboration avec Hexagram, organisent le colloque international « Communautés virtuelles : penser et agir en réseau ». Cet événement aura lieu les 6 et 7 novembre 2003 à la TÉLUQ, 4750, rue Henri-Julien, Montréal. Les coûts d'inscription sont de 30$ et de 10$ pour les étudiants. Réunissant plus d'une trentaine de conférenciers provenant du Canada, de la France et du Brésil, ce colloque a pour objectif de clarifier la notion de « communauté virtuelle » à partir d'un examen des pratiques inédites qui y sont associées. L'organisation de la société s'appuie sur une importante infrastructure de réseaux techniques d'information et de communication. L'usage social des dispositifs interactifs de communication qui s'appuient sur l'informatique et les réseaux numériques tend à se généraliser davantage. On a qu'à penser au développement du réseau Internet depuis 1995 grâce à l'invention du World Wide Web. Ces dispositifs favorisent la constitution de nouveaux regroupements et de nouvelles formes de liens sociaux. On voit ainsi apparaître d'autres types de conduites sociales et des formes inédites de création artistique, de communication, de collaboration, de production économique et de diffusion des savoirs. Les communautés virtuelles semblent préfigurer ce que pourrait être une « cybersociété ». Elles apparaissent comme l'amorce d'un nouveau modèle de structures sociales constituées des premiers segments potentiels d'une société virtuelle. Beaucoup de ces communautés virtuelles se présentent moins comme des communautés fonctionnelles, mais comme des bulles sociales où l'on se réfugie pour échapper à la difficulté et aux déceptions du monde réel. En plus de se pencher sur les effets de la « cybersociété » sur la société réelle, les participants au colloque pourront en apprendre davantage sur : - l'intelligence collective visant à aider les communautés virtuelles à améliorer leurs performances cognitives; - la « Place du Village Global » et le sens de la globalisation galopante; - les problèmes techniques et sociaux liés à l'implantation des dispositifs qui visent à constituer des communautés virtuelles; - les dispositifs interactifs créés ou utilisés par des artistes en vue de renouveler l'échange artistique; - les pratiques effectives de communication, de coordination, de collaboration et de coopération liées à la notion de « communauté virtuelle ».
2003-10-22 16:33:06
Colloque communautés virtuelles
http://www.comvirtu.uqam.ca
À l'occasion du Forum social européen de Paris, du 11 au 16 novembre 2003, un espace temporaire d'expérimentation et de confrontation pour les médias alternatifs européens sera ouvert dans le cadre de la Maison des Métallos. Le laboratoire des Métallos sera l'occasion pour les activistes des médias indépendants de présenter leur démarche, de se confronter à d'autres expériences similaires, de rencontrer des militants, d'échanger des savoir-faire et de l'expertise, mais aussi de faire le point sur la situation européenne et de dégager des perspectives d'actions et d'initiatives communes. Ces journées s'organiseront autour d'une série d'ateliers, de réunions et d'assemblées plénières, et autour de la mise à disposition de moyens techniques (salles, WiFi, projections, ordinateurs, etc.). 12/11 -------------------------------------------------------------------------------- <Matin> Atelier Streaming audio & vidéo L'objectif de l'atelier consistera à présenter différentes expériences dans le domaine du streamming audio et vidéo (la diffusion de son et d'images sur internet). L'atelier permettra également de faire un tour d'horizon des techniques et outils utilisés dans ce domaine et de présenter certains d'entre eux comme dynabolic, peercast ou de s'intéresser à des formats émergents comme le MPEG4. -- 10h - 14h30 (salle 4 colonnes) Atelier Initial - Webtrotteurs des quartiers Permettre aux jeunes de devenir acteurs de l'Internet a travers un usage innovant des technologies de la communication requiert un apprentissage et un processus pedagogique original. -- 10h30 - 12h30 (salle harmonie) Rencontre Radios libres Rendez-vous quotidien des acteurs des radios libres à l'initiative de la CNRL (Confédération nationale des radios libres). -- 10h - 12h (salles costes) <Après-midi> Glasnost : collectiviser le processus de décision Glasnost est un logiciel libre, fonctionnant à travers une interfaceweb, permettant l'organisation d'élections, sondages... dans desméthodes rendues possibles par l'informatique (élection permanente,méthode condorcet...) ainsi que le partage et la création d'informations.Cet atelier concerne la prise en main de Glasnost et ne requiert pas deconnaissance informatique particulière. -- 16h - 19h (salle 4 colonnes) Débat open publishing -- 13h30 - 16h30 (grande salle) Le traitement médiatique de la guerre en Irak Projection du film "Propagande de guerre, propagande de paix", de Béatrice Pignède, co-produit par Zalea TV, qui énumère, à partir de la façon dont nos médias ont relaté les conflits en Irak entre 1991 et 2003, les principes généraux de la propagande de guerre et ses prolongements en temps de paix. La projection sera suivie d'un débat. -- 16h30 - 18h (grande salle) Media and War in Iraq A movie from Béatrice Pignède, "Propagande de guerre, propagande de paix", a critical regard on media coverage of war in Iraq (1991 and 2003) who illustrate war propaganda and is continuation in peace times. -- 16:30 - 18:00 (grande salle) Débat Initial - Webtrotteurs des quartiers Les webtrotteurs des quartiers ce sont des jeunes de 15 a 25 ans qui, au sein d'un espace public numerique, s'initient aux outils informatiques, a l'Internet et acquierent des notions journalistiques de base. -- 14h - 17h (salle harmonie) <Soirée> Les télévisions libres Le point sur le combat des Télévisions alternatives non-marchandes et indépendantes européennes pour la liberté de l'information et de la création audiovisuelles (Présentation débat sur les télés libres européennes, suivie aprés une petite pose de projections). -- 18h30 - 22h (grande salle) Free TV's The struggle of the independant non-profit alternative TV's for the freedom of information and creation. -- 18:30 - 22:00 (grande salle) Logiciels libres pour médias alternatifs -- 19h30 - 22h (salle harmonie) 13/11 -------------------------------------------------------------------------------- <Matin> Territoires, réappropriation et nouvelles technologies La revue Multitudes et le Forum des revues de St-Denis organisent, en partenariat avec le MetallosMedialab, un debat sur la question de l'acces et de l'appropriation sociale d'Internet et des TIC. Espace de liberte de creation et de circulation du savoir, Internet est aujourd'hui attaque de toute part, au pretexte, la plupart du temps fallacieux, de lutte contre le piratage ou contre le cyber-terrorisme. Quelles sont les moyens a mettre aujourd'hui en oeuvre, en terme techniques, comme d'acces et d'appropriation, pour resister a cette tentative de cloture ? Comment preserver les libertes fondamentales du citoyen tout en encourageant l'aspect ouvert du reseau ; terreau propice a la liberte d'expression et de creation ? Ce debat se prolongera pendant toute la duree du FSE au Forum des revue de St-Denis. -- 10h - 13h (grande salle) Rencontre Radios libres Rendez-vous quotidien des acteurs des radios libres à l'initiative de la CNRL (Confédération nationale des radios libres). -- 10h - 12h (salle costes) L'expérimentation comme démarche de transformation sociale ? En partant de sa pratique de l'expérimentation, à travers divers projets de recherche et de création sonore (RACCORPS : projet de création d'une Web-radio, Dispositif Radiophonique Mobile, Cellule d'Intervention d'Apo33, l'art sonore, les musiques expérimentales, Linux...), le collectif Apo33 essaiera de mettre en évidence comment l'expérimentation peut être une méthode pour changer notre rapport au quotidien ainsi que les relations entre chacun. Comment l'expérimentation utilisée intensément par les instances de pouvoir et les scientifiques peut-être détournée pour renverser les rapports de domination imposés par la société du spectacle à travers une réappropriation par tous des instruments télé-technologiques et de son espace de vie. Nous aborderons cette question de l'expérimentation à travers un atelier-conférence mêlant création sonore et discussion. -- 10h - 12h (salle harmonie) <Après-midi> La coopération en actes : Indymedia Italie A travers l'exprience d'Indymedia Italie dans ses actions avec la Palestine et en Argentine, comment envisager des nouvelles formes de coopérations réelles et virtuelles. -- 14h30 - 17h30 (salle 4 colonnes) Coordination des intermittents/Commission audiovisuelle Espace ouvert pour une lutte en cours des precaires du spectacle ... -- 14h30 - 17h30 (grande salle) Global Project : criminalisation des pratiques de la communication Les risques de la contre-enquête : protéger les sources, protéger les acteurs de la communication alternative. -- 15h00 - 17h30 (salle harmonie) Echange et partage de données sur l'Internet Un atelier pour faire un tour d'horizon de differentes possibilites en matiere d'echange et de partage de donnees sur l'Internet. On examinera les differents procedes possibles (P2P, v2v, RSS, RDF, etc.) avec leurs contraintes, leurs avantages et les question inherentes de licence, de droit de reproduction et/ou de modification. L'objectif de cet atelier sera aussi d'initier un projet de syndication de contenu sous license Creative Commons entre revues et sites web. -- 13h30 - 15h30 (salle costes) Débat Cyberféminisme " Je suis fatiguee de me voir embarquee dans la neutralite de "l'homme universel". Je suis tout aussi fatiguee d'un feminisme victimiste et denonciateur pour qui la version idealise de "la femme" proche de la nature exclue la technologie. Par contre c'est avec un immense plaisir que je parcours la reconfiguration epistemologique et onthologique opere par Donna Haraway dans ses textes. Ici les limites entre l'humain, l'animal et la machine se renegocient constament. De "l'informatique de domination" de la patriarchie blanche, "nous" pouvons aussi trouver les failles, pervertir les configurations et resister au controle et a la repression. " Judith Revel, Norme et Nature, une autre facon de lire l'histoire ... -- 16h30 - 19h30 (salle costes) <Soirée> Brevets, licences, libre circulation des savoirs et des infos Brevetabilité des logiciels, droits d'auteurs et droits voisins: les médias alternatifs face aux nouvelles régulations des biens immatériels : agenda, garanties constitutionnelles et législation européenne. -- 19h - 22h00 (grande salle) Laboratoire d'intervention contre la LSI GUIDE ANTI-SECURITAIRE et planification d'interventions contre la LSI, contre la loi du racolage passif. Exposé de la LSI, coordination des stratégies de communication et presse, définition intervenants et action, développement du cordon public et du suivi politique dans les mouvements sociaux, représentation et récréation de l'action. -- 19h - 21h30 (salle harmonie) Médias tactiques " Les Medias Tactiques, c'est ce qui se passe quand les medias bon marche issus de la revolution de l'electronique domestique et permettant une diffusion etendue (que ce soit les chaines d'acces public ou l'Internet), sont exploites par des groupes ou des individus qui se sentent leses ou meme rejetes par l'environnement culturel existant. Les Medias Tactiques ne se contentent pas de rendre compte des evenements ; n'etant jamais impartiaux, ils y prennent toujours part, et c'est cela, plus que toute autre chose, qui les distingue des medias dominants. " -- David Garcia et Geert Lovink, ABC des Medias Tactiques. Tactical cartography : diagrams of power visualising for the public eye Over the past few years, the group Bureau d'Etudes and various collaborators have been making attempts to map out global power structures under the conditions of contemporary capitalism. The desire for more precision and objectivity, but also for wider access and greater usefulness, has led to the idea of creating an open-source database and visual interface for the gathering and presentation of information about governing networks and power concentrations : a map generator. The project has begun, but is still in its very earliest stages ; collaborations on all aspects are welcome. The workshop will introduce the project through short presentations, then turn to practical discussions about how to go further with the database and interface, as well as the research itself. -- 19h - 22h (salle costes) 14/11 -------------------------------------------------------------------------------- <Matin> Logiciels libres sous mac et sous windows Une presentation/demonstration de differents logiciels libres utilisables directement sous les systemes d'exploitation Windows et Mac OSX (bureautique, graphisme, communication). -- 10h - 12h (salle 4 colonnes) Rencontre Radios libres Rendez-vous quotidien des acteurs des radios libres à l'initiative de la CNRL (Confédération nationale des radios libres). -- 10h - 12h (salle costes) <Après-midi> Melting Pot : expérience multilingue d'information pour/sur l'immigration Communication et société multiethnique. l'expérience d'un portail d'information multilingue. Présentation de cette expérience originale de l'Italie du Nord/Est qui combine portail Web et émission de radio. -- 14h - 18h (grande salle) Atelier Cyberféminisme Construction d'espaces virtuels et réels pour communiquer, rechercher, expérimenter, créer la politique. Monter et remonter les machines (carte mere comprise). Atelier pour femmes biologique ou non. -- 14h - 17h (salle harmonie) <Soirée> Streaming audio/vidéo -- 18h - 22h (salle 4 colonnes) Débat Sommet mondial de la société de l'information Le Sommet mondial de la societe de l'information se tiendra en decembre 2003 a Geneve. Autour de ce non evenement fleurissent un certain nombre d'initiatives tant francaises qu'europeennes. L'occasion de faire un point sur ces questions et de rencontrer des acteurs europeens des medias alternatifs en particulier autour de l'initiative geneva03 qui organisera un medialab permanent en contrepoint du SMSI. -- 19h - 22h (grande salle) Atelier lealinux Initiation au systeme GNU/Linux. -- 19h30 - 21h30 (salle Harmonie) 15/11 -------------------------------------------------------------------------------- <Matin> Spip - Rencontre des traducteurs Depuis un an, SPIP s'internationalise. La dernière version du logiciel (SPIP 1.6) en fait un outil multilingue favorisant la diversité linguistique : l'espagnol, l'anglais, le créole de la Réunion, le danois, l'espéranto, le vietnamien y figurent par exemple... mais aussi l'arabe ou le farsi. Et comme tout logiciel libre, en constant développement, SPIP devrait accueillir bientôt de nombreuses autres langues(et pourquoi pas la vôtre ?). -- 10h30 - 12h30 (salle 4 colonnes) Coordination tiers-secteur audiovisuel Création d'une coordination des télévisions libres européennes. Comment s'organiser pour que les télévisions libres puissent se développer solidairement dans toute l'Europe. -- 10h - 13h (grande salle) Coordination audiovisual third-sector Creation of an european free TV's coordination How to get organized so that the free TV's cooperate and spread out all over Europe ? -- 10 - 13 (grande salle) Rencontre Radios libres Rendez-vous quotidien des acteurs des radios libres à l'initiative de la CNRL (Confédération nationale des radios libres). -- 10h - 12h (salle costes) <Après-midi> Outil ouvert de conférences nomades (Babel) - Permettre à toute personne d'organiser des conférences internationales sans budget - Un outil d'interprétation, de restitution et de conférence nomade utilisable par tous ; présentation de la démarche, de l'outil et des ressources nécessaires à son fonctionnement, diffusion et évolutions. -- 14h - 17h (4 colonnes) Découverte de Spip Ces ateliers "grand public" doivent permettre de se familiariser avec le maniement de SPIP en vue de la publication de textes ou d'images en ligne. Les participants pourront rapidement être en mesure de laisser leurs impressions, leurs questions sur le webzine spécial "SPIP au Médialab" qui sera ouvert pour l'occasion. - GROUPE 1 : "SPIP pour publier tout de suite" Découverte de l'outil pour des non techniciens ayant un besoin d'expression immédiat. Objectif : découvrir le fonctionnement de SPIP à travers cet objectif de publication. - GROUPE 2 : "Initiation technique à SPIP : des besoins à l'outil, les premiers pas" Un atelier pour les grands débutants intéressés par une présentation plus technique de l'outil mais aussi pour les webmestres souhaitant refondre leurs sites sous SPIP, par exemple. Le but est ici d'appréhender les possibilités et la souplesse technique de SPIP "de série", pour répondre aux besoins, interrogations et difficultés rencontrés par les utilisateurs débutants. Comment configurer son site public en fonction du contexte éditorial (utilisation du multilingusime, des forums, d'une lettre électronique etc), utilisation des langues dans l'espace privé, gestion des droits ou fonctionnement des boucles SPIP et création de premiers squelettes, voici autant de questions qui pourront y être abordées... -- 17h30 - 19h30 (salle 4 colonnes) Spip pour et par les mouvements sociaux SPIP est aujourd'hui utilisé par de nombreux collectifs ou associations engagés dans tous les champs des luttes sociales. Une "présentation-débat" permettra de réfléchir sur ces usages de SPIP dans le contexte des mouvements sociaux.Besoins, difficultés et partage d'expérience entre utilisateurs, seront donc au menu de cette plénière. La présentation de 10 projets emblématiques et d'une quarantaine d'autres sites devrait nourrir la discussion. -- 14h - 17h30 (grande salle) Réseaux, traductions, transmission -- Networks, translations, transmission Une suite de rencontres, expériences avec différents collectifs, marseille, istanbul, mexico, paris. Politiques et pratiques contemporaines des identités et zones frontières, migrations, filtres sociaux, et contre-politiques des technologies de contrôle. Identities contemporary politics and practices and borderzones, migrations, social filters, and counter-politics of control technologies. -- 13h30 - 18h30 (salle costes) <Soirée> Atelier Wiki et outils collaboratifs pour le web Démonstrations et petite initiation à l'utilisation d'outils de travail collaboratifs pour sites web - wiki : espace où tout le monde peut écrire, modifier, enrichir des pages web tout en préservant les versions précédentes - porte-documents : outil de stockage de fichiers dans des répertoires avec possibilité de téléchargement vers le porte-documents ou vers son disque dur depuis le web. Gestion précise des droits de lecture et téléchargement pour chaque utilisateur. - psi ou gabber : messagerie instantanée - appel à signatures : petit outil qui installe en 5 minutes un site pour une pétition, inscription ... -- 20h - 22h (4 colonnes) Table ronde Migrations, sans-papiers Politiques et pratiques contemporaines des identités et zones frontières, migrations, filtres sociaux, et contre-politiques des technologies de contrôle. Identities contemporary politics and practices and borderzones, migrations, social filters, and counter-politics of control technologies. -- 18h30 - 22h (grande salle) Atelier SPIP avancé Les utilisateurs confirmés de SPIP, développeurs et autres bidouilleurs passionnés pourront se retrouver au sein de deux ateliers consacrés aux développements actuels ou à venir de SPIP, ainsi qu'aux problématiques d'hébergement de sites sous SPIP. - GROUPE 1 : Atelier "Développeurs" Public : spipeurs confirmés. Développeurs. Forme : Rencontre, retour d'expérience et projets de développement entre utilisateurs avancés. Ne vous rongez pas les sangs, ni les os, et n'hésitez pas à venir avec vos propres squelettes, trucs et astuces à partager ! - GROUPE 2: Réunion spécialisée "Mini-sites et hébergement SPIP" Cette réunion spécialisée permettra d'aborder de grands chantiers ouverts autour de SPIP : la création de mini-sites standard "quand il faut aller vite", et les problématiques d'hébergement de nombreux sites SPIP avec des moyens limités. -- 18h30 - 22h (salle costes) 16/11 -------------------------------------------------------------------------------- <Matin> Atelier meshnetwork WIFI L'internet sans fil (WIFI) devient de plus en plus présent. Au travers d'expériences alternatives, menées notamment en Belgique, mais aussi en France, il s'agit de mieux faire connaitre le réseau de demain. Mais aussi d'expérimenter pendant le metallosmedialab, cette nouvelle technologie. -- 11h - 14h (salle 4 colonnes) Crypto vs Chiffrage L'atelier crypto à pour but de proposer une initiation aux outils de cryptographie et de chiffrement (mails et données). On y abordera les aspects théoriques et pratiques des différentes manières de faire en sorte que les données personnelles méritent leur nom. -- 11h - 14h (salle costes) <Après-midi> N.A.J.E/Compagnie de théâtre de l'opprimé - "Les messagers" La compagnie de théâtre-forum NAJE ("Nous n'Abandonnerons Jamais l'Espoir") présente des extraits de son spectacle "Les messagers" : une critique des médias et de la fabrication de l'information. Créé en avril dernier au Théâtre de Chelles, ce spectacle est le fruit de six mois de travail entre une soixantaine de citoyens : comédiens de la compagnie, habitants de plusieurs villes de France et journalistes. Le principe du théâtre-forum Nous jouons une première fois le spectacle, pour que chacun en saisisse le sens et les enjeux. Puis, nous rejouons une deuxième fois les séquences sur lesquelles nous voulons faire débat. Alors, si vous le voulez, vous venez sur scène pour y prendre votre place, pour jouer votre point de vue, pour tenter une action qui transformera la situation. Pour qu'ensemble, nous nous essayions à l'action transformatrice et pesions ses conséquences. Pour que, demain, les choses ne soient plus tout à fait comme avant. -- 14h - 16h (grande salle) -------------------------------------------------------------------------------- Les métallos Lieu de création qui refuse de cloisonner les genres et les gens ; spectacles, expos, débats, concertations : la Maison des métallos est un espace culturel et associatif animé pour et par les habitants du quartier, les citoyens d'une ville qui tissent ensemble la trame d'autres "récits pour un monde possible". Le Chantier numérique, un des axes de la Maison des métallos, propose et s'ouvre toute l'année à des rencontres, formations et expérimentations sur le rôle citoyen des technologies de l'information et de la communication. À l'occasion du Forum social européen de Paris, du 12 au 16 novembre 2003, les Métallos accueillent les médias alternatifs européens pour l'ouverture d'un espace temporaire d'expérimentation et de confrontation. Le MétallosMediaLab sera l'occasion pour les activistes des médias indépendants de présenter leur démarche, de se confronter à d'autres expériences similaires, de rencontrer des militants, d'échanger des savoir-faire et de l'expertise, mais aussi de faire le point sur la situation européenne et de dégager des perspectives d'actions et d'initiatives communes.
2003-10-22 23:09:15
MetallosMediaslabs
http://metallosmedialab.fse-paris.org/wiki/
On se demandait si le mouvement mondial en faveur des archives scientifiques ouvertes allait enfin prendre forme en France au sommet de la hiérarchie scientifique. C’est désormais le cas, puisque le directeur général du CNRS, Bernard Larrouturou, vient de signer, avec de nombreuses personnalités scientifiques mondiales, la déclaration de Berlin. Se situant dans la prolongation de l’Appel de Budapest, les auteurs réclament la mise à disposition en accès libre (open access) de la littérature scientifique mondiale. Ils définissent le libre accès comme la mise à disposition de la production intellectuelle des chercheurs, par eux-mêmes ou par leurs ayant droit, associée au droit de la copier, de l’utiliser, de la distribuer, de la transmettre et de l’utiliser publiquement. La seule et légitime condition imposée à la réutilisation, diffusion et mise en valeur de ces documents est la reconnaissance de la paternité de leur(s) auteur(s). Ce projet passe par la mise en ligne complète des documents —et de l’ensemble du matériel permettant de soutenir l’argumentation scientifique— dans un dépôt se conformant aux standards de l’Open archives iniative. Les dépôts de documents devront être maintenus par des institutions établies, ne limitant pas l’accès aux données et garantissant leur archivage à long terme. Conscients de la difficulté de l’entreprise, les signataires s’engagent à chercher des solutions financières et juridiques permettant de dépasser les freins qui ralentissent un tel projet. Non contents de se trouver réconfortés par de grandes signatures pesant de tout leur poids dans le concert scientifique mondial, les tenants d’une diffusion universelle de la littérature scientifique voient ainsi se confirmer la tendance mondiale la plus nette dans ce domaine : c’est autour de l’Open archives initiative que se jouera l’avenir de l’édition électronique scientifique.
2003-10-22 23:12:06
La déclaration de Berlin
http://www.zim.mpg.de/openaccess-berlin/index.html
C'est en tout cas l'avis de Mitch Kapor, cet ancien fondateur de Lotus, aujourd'hui à la tête d'un des projets open source les plus intéressants en matière de développement informatique pour l'utilisateur final. Le projet qui se nomme Chandler, et est supporté par l'Open Source Application Foundation, a pour objectif de repenser le flux d'informations personnelles que doit gérer l'utilisateur à travers plusieurs applications qui ne communiquent pas entre elles. Il s'agit donc tout simplement de rendre la manipulation de ces données transparentes, quelle que soit l'application par laquelle elle est appréhendée. Ce que nous classons aujourd'hui en fonction des applications informatiques (e-mail, calendrier, mémos, fichiers Word, photos etc) sera transformé en pure information dont la distribution pourra n'obéir qu'à un principe de classement totalement contextuel. A l'arrivée, on retrouve donc des fonctionnalités connues, mais dont le niveau d'intégration n'avait jamais été poussé aussi loin...si le projet aboutit. Car il n'aura échappé à personne que Chandler se retrouve en concurrence directe avec le vieux et incontournable couple outlook/exchange.
2003-10-23 00:14:05
Trash Your Desktop
http://www.technologyreview.com/articles/fitzgerald1103.asp
C'est une affirmation qui n'a rien d'original ; mais pour la première fois, elle vient d'être démontrée, grâce à une étude menée sur le sujet par le Pew Internet and American life project. Selon l'institut de recherche, une majorité d'internautes américains se déclarent en effet prêts à accorder une importance moins grande au mail dans leurs pratiques de communication, du fait de l'augmentation de la quantité de spam qu'ils reçoivent. De manière encore plus inquiétante, ils hésitent à recourir aux logiciels de filtrage pour leur courrier, de peur que soient écartés des messages importants en provenance de leurs relations de travail, de leur amis ou de leur famillle. Les auteurs du rapport résument donc la situation en affirmant que "le spam pourrait bien tuer la "killer app" de l'Internet que constitue le mail". Pour mémoire, on rappellera que près de 30 milliards de mails s'échangent chaque jour, dont près de la moitié peut être considérée comme du spam.
2003-10-23 20:57:26
Spam : How it is hurting email and degrading life on the Internet
http://www.pewinternet.org/reports/toc.asp?Report=102
13ème colloque Informatique et Société CREIS-TERMINAL APPEL A COMMUNICATION La revue Terminal et le CREIS prennent part depuis plus de vingt-cinq ans aux questionnements sur les enjeux sociaux de l'informatisation. En effet d'informatique et société à société de l'information, ce dernier quart de siècle est marqué par une diffusion généralisée et accélérée des différentes informatiques et de leurs interconnexions. Ces questionnements nécessitent d'être prolongés et, pour une part, renouvelés. La représentation sociale de l'informatique a changé : elle n'apparaît plus autant séparée du corps social ; elle cesse d'être cet instrument d'oppression orwellien, fort critiqué dans les années 80. L'impérialisme d'IBM est oublié, celui de Microsoft effraie peu, et les fichiers intrusifs font partie du quotidien, tant gestionnaires et commerciaux ont su jouer de leur talent marketing. L'informatique s'est "domestiquée" nous dit-on : les interfaces multimédias des micro-ordinateurs ont perdu l'âpreté des terminaux d'antan, et surfer sur Internet est un vrai jeu d'enfant... alors que, simultanément, des matériels et des logiciels imposent toujours de nouvelles normes organisationnelles aux salariés comme aux citoyens. Ainsi, à l'heure du commerce électronique et de la carte santé Vitale, le consentement à livrer ici et là de sa personne en échange d'un service se généraliserait. Depuis le 11 septembre, les questions de sécurité publique légitimeraient des actions de fichage de plus en plus coercitives et manifestement liberticides, mais jugées socialement salutaires. Par ailleurs, comme ce fut le cas dans l'histoire des différentes technologies de réseaux (train, électricité, eau, téléphone...), les TIC sont convoquées au secours d'une société où progrès social et progrès technique n'ont jamais autant marqué leur décalage. Avec la diffusion depuis 1993 de l'Internet grand public, le mythe égalitaire nous est aujourd'hui resservi. Ainsi, remédier à une "fracture numérique" qui menace ensemble le tiers et le quart-monde, conduirait à régler les problèmes de la société, soit entre autres : les inégalités sociales, les formes de travail aliénant, l'accès discriminant à la culture et les écarts de richesse, les déséquilibres Nord-Sud ou encore les défauts de la démocratie... Au delà des discours, toutefois, on assiste à de nouvelles formes de contestation sociale d'envergure internationale qui ont su tirer au mieux parti des réseaux communicationnels, notamment le mouvement altermondialiste ou encore celui plus spécifique du logiciel libre. Aussi est-il nécessaire à tous ceux qui veillent au respect des libertés publiques et privées, de même qu'à ceux qui analysent plus largement le processus d'insertion sociale des TIC, de confronter leurs questionnements aux modalités de production, de diffusion, et d'appropriation de l'informatique. C'est l'objectif du 13ème colloque du CREIS, en partenariat avec la revue TERMINAL : examiner en quoi les problématiques critiques vis à vis de l'informatisation de la société de ces vingt-cinq dernières années se sont transformées... ou ont à le faire. Quand, comment sommes-nous passés d'informatique et société à société de l'information, que signifie du point de vue politique, économique ou social, ce glissement et pourquoi parle-t-on autant - du G8 au journal télévisé - de société de l'information ? Les analyses ancrées dans l'histoire récente nous semblent susceptibles d'éclairer les différents domaines concernés. Les contributions attendues aborderont à travers la question de l'informatisation : - les nouvelles dimensions du travail (flexibilité, contrôle,...) ; - l'internationalisation et la financiarisation de l'économie ; - l'évolution du service public (éducation, santé, culture,...) ; - les libertés publiques et privées et le contrôle social ; - les nouvelles formes d'exercice citoyen de la démocratie ; - les politiques publiques de diffusion de la société de l'information ; - les relations Nord-Sud. COMITE DE PROGRAMME - Pierre Berger, ASTI, France - Jacques Berleur, FUNDP, Namur, Belgique - Mariella Berra, CREIS, Università di Torino, Italie - Dominique Desbois, TERMINAL, Paris, France - Michèle Descolonges, Sociologue, France - Eric George, CREIS, Université d'Ottawa, Canada - Thomas Lamarche, TERMINAL, Université Lille 3, France - Yves Lasfargue, OBERGO, France - Meryem Marzouki, Lip6/PolyTIC-CNRS, IRIS, Paris, France - Armin Murmann, CREIS, IES, Genève, Suisse - Daniel Naulleau, CREIS, Université P&M Curie, Paris, France - Robert Panico, CREIS, IUT de Valence, France - Chantal Richard, CREIS, Université Paris-Nord, France - Jacques Vétois, TERMINAL, France COMITE D'ORGANISATION - Maurice Liscouet, CREIS, IUT de Nantes, France - Daniel Naulleau, CREIS, Université P&M Curie, Paris, France - Robert Panico, CREIS, IUT de Valence, France - Chantal Richard, CREIS, Université Paris-Nord, France - Jacques Vétois, TERMINAL, France - Geneviève Vidal, CREIS, Université Paris-Nord, France INSTRUCTIONS AUX AUTEURS Les propositions de communication, sous la forme d'un résumé de 3 à 4 pages en français ou en anglais devront parvenir sous forme électronique (format RTF, Times New Roman, 12) au secrétariat électronique (le.creis@wanadoo.fr), avant le 31/12/2003 Colloque CREIS - TERMINAL 2004 Département d'Informatique Maison de la pédagogie Université Paris VI 4 Place Jussieu F 75252 Paris Cedex France Tel/Fax: + 33 1 44 27 71 13 E-mail : le.creis@wanadoo.fr
2003-10-24 00:04:05
Appel à communication
http://www.creis.sgdg.org/manifs/appel_coloque2004.htm
Comment oublier les tristes semaines au cours desquelles les quelques titres de presse ou d'information en ligne portant sur les nouvelles technologies fermaient les uns après les autres, parfois en passant par la case "accès payant"...Futur-e-s, Transfert, Internet Actu, autant de publications de qualité que l'on a vu disparaître en même temps que les pages spécialisées dans les quotidiens et magazines généralistes. Car ces disparitions ne pouvaient que signifier le désintérêt d'un plus large public allant au delà des passionnés et professionnels habituels. Depuis plus mois, les signes de renaissance se multiplient. Ce fut d'abord celle de Transfert, sur la base d'une diffusion exclusive en ligne, gratuite, avec un principe de limitation pour les lecteurs professionnels relativement astucieux. Aujourd'hui, c'est Internet Actu qui renaît pour le grand public, dans une nouvelle version, fusionnée avec la lettre de la FING, autre publication de qualité, mais plus spécialisée et donc de diffusion plus restreinte. Internet Actu Nouvelle Génération qui livre cette semaine son troisième numéro est donc accessible à tous sans abonnement. La publication est soutenue par la FING, le CNRS et l'INIST. Elle est distribuée selon les termes de la licence "by-nc" de Creative Commons.
2003-10-24 09:46:01
Internet Actu Nouvelle Génération
http://www.fing.org/ref/lettres/122.html
C'est LA nouvelle de la semaine : le libraire en ligne Amazon, une des rares entreprises de la nouvelle économie à avoir survécu à l'éclatement de la bulle spéculative et qui commence à faire des profits, vient de lancer un nouveau service de recherche en texte intégral sur une partie non négligeable de son catalogue, et prévoit de l'étendre dans les mois à venir. Concrètement, lorsqu'on effectue une recherche, celle-ci ne porte plus seulement sur le titre, l'auteur, les mots-clés ou le descriptif du livre, mais aussi sur le texte intégral du livre. A partir d'un résultat de ce type, il est possible, après s'être enregistré, de visualiser la page et de feuilleter le livre deux pages en avant ou en arrière par rapport au point de référence. Evidemment, pour aller plus loin, il faut acheter le livre. C'est la première fois qu'un libraire offre ce type de service, généralement proposé par les bibliothèques ou les bouquets de publications électroniques. Dans ce cas, Amazon choisit de sortir du rôle traditionnel de la profession et s'appuie sur la communication électronique pour vendre des livres...papier ! L'expérience est déjà une réussite sur le plan technique. Reste à voir quelles pratiques de lecture et d'achat elle favorisera par la suite. A suivre donc.
2003-10-26 02:00:00
Amazon.com
http://www.amazon.com/exec/obidos/tg/browse/-/10197021/ref%3Dsib%5Fmerch%5Fgw/102-8322842-0114537
Une réflexion pluridisciplinaire autour des modèles de publication sur le web a été menée depuis un an dans le cadre d'une Action Spécifique du CNRS (Département STIC / RTP 33 : Document et contenu : création, indexation, navigation / AS 103). A l'issue de cette année de travail, ponctuée par plusieurs séminaires thématiques (Outils et acteurs de la chaîne éditoriale ; Modèles économiques ; Responsabilité éditoriale et modes de régulation ; Dispositifs énonciatifs de mise en écran ; Auto-publication), deux pistes de recherche ont pu être identifiées comme à la fois essentielles et insuffisamment défrichées : -1) Le rapport entre formatage de la publication sur le web et infrastructure de type bases de données -2) Le développement du niveau méta-éditorial comme place décisive dans la configuration Internet. Cet appel à communication vise précisément à approfondir ces thématiques. Il a donc pour objectif de repérer les travaux déjà menés en ce sens et de permettre aux chercheurs de présenter des analyses relevant de ces problématiques.
2003-10-31 10:10:35
Appel à communications
http://www.unice.fr/urfist/Pubweb/
La revue électronique Cultures & Conflits a décidé de placer l'ensemble de ses articles publiés sur son site Web sous licence Creative Commons pour en garantir le libre accès tout en respectant et protégeant les droits des auteurs par un système de license ouvert. Revue de sociologie politique internationale, Culture et Conflits autorise donc la libre reproduction de ses articles, à condition que le crédit en soit attribué aux auteurs, qu'il n'y ait pas de modification de l'oeuvre reproduite, et que celle-ci soit faite dans un cadre non-commercial. L'ensemble de ces conditions correspond techniquement à la licence "by-nd-nc" de Creative Commons. Par cette décision, la revue entend se placer dans le mouvement du libre accès à l'information scientifique impulsé par l'appel de Budapest, et récemment confirmé par la déclaration de Berlin. On rappelera enfin que les licences Creative Commons connaissent un succès grandissant en France : nous annoncions récemment que la lettre d'information Internet Actu NG, soutenue par la FING, le CNRS et l'INIST avait choisi, elle aussi, d'adopter une telle licence pour protéger ses textes.
2003-10-31 15:42:25
Culture & Conflits
http://www.conflits.org/breve.php3?id_breve=114
Colloque 28 novembre 2003, de 8h30 à 18h00 Maison de la recherche 54, rue de Varenne - 75007 Paris Organisateurs - Suzanne Beauchamp, directeur exécutif, Les Canadiens en Europe - Chapitre France - Richard Delmas, administrateur principal à la Commission européenne de la société de l’information (DG INFSO), Bruxelles ; Secrétariat du Government Advisory Committee de l’ICANN - Françoise Massit-Folléa, enseignant chercheur, École Normale Supérieure Lettres et Sciences humaines - Serge Proulx, professeur titulaire, Département des communications, université du Québec à Montréal (UQAM), co-responsables du programme de coopération scientifique franco-québécois COMMINT (Internet comme bien commun). Sous le parrainage de madame la Ministre déléguée à la Recherche et aux Nouvelles Technologies, France Programme Contexte et objectifs du colloque La première étape du Sommet mondial sur la société de l’information (SMSI), organisé par l'Union internationale des télécommunications au nom de l'Organisation des Nations unies, se tiendra à Genève du 10 au 12 décembre 2003. Le débat engagé à cette occasion sur les principes et enjeux de la société de l’information connaîtra un second temps fort à Tunis, en 2005. Une nouvelle compréhension et de nouveaux modes de gouvernance de la société de l’information pourraient être définis et mis en place lors de ces événements. La préparation du Sommet mobilise, depuis près de deux ans, diverses instances : organisations internationales, gouvernements, représentants du monde de l’entreprise et des ONG, et cela dans le monde entier. La communauté scientifique doit faire entendre sa voix dans ce débat public qui aborde des questions essentielles pour l’avenir. Le programme de recherche franco-québécois COMMINT entend contribuer à la clarification des enjeux mondialisés des technologies de l’information et de la communication aux plans social, culturel, juridique et politique. Dans le processus de préparation du Sommet, la confrontation est vive quant à la définition des nouvelles règles du jeu et d’un cadre d’action approprié. La coopération internationale entre chercheurs a déjà permis d’identifier des points importants de convergence dans l’analyse des pratiques, des discours et des projets de toutes les parties prenantes à l’avènement de la société de l’information. Dans le cadre élargi des relations entre le Canada et l’Union européenne, la manifestation du 28 novembre se donne pour objectif d'éclairer plusieurs thématiques-clés. Elle prendra la forme d’un dialogue prospectif et constructif entre représentants du domaine académique, du secteur public et des milieux économiques et associatifs. 8h30 Accueil des participants 9h00 Allocution d’ouverture - Françoise Thibault, directrice adjointe, Département nouvelles technologies pour la société, ministère de la Recherche, France - Loïc Jean, président du groupe Les Canadiens en Europe – Chapitre France 9h15 Présentation du colloque - Françoise Massit-Folléa, enseignant chercheur, École Normale Supérieure Lettres et Sciences humaines, France - Serge Proulx, professeur titulaire, Département des communications, université du Québec à Montréal, (UQAM), Canada Session 1 - Les contours d’un espace public mondialisé Animateur : Serge Proulx 9h30 Les fondements culturels de la souveraineté - Nadia Brédimas-Assimopoulos, présidente du Conseil supérieur de la langue française (CSLF), «La langue, moteur et plus-value de la société de l’information», Canada - Hervé Fischer, professeur associé, Centre interuniversitaire des arts médiatiques, UQAM, «Sociologie du cyberspace», Canada - Georges Châtillon, maître de conférences en sciences juridiques, université de Paris 1, «Internet, droit et bien commun», France - Fulvio Caccia, conseiller spécial en développement international, Les Canadiens en Europe - Chapitre France, «La souveraineté est-elle soluble dans le cyberspace ?», Canada 10h30 Internet, infrastructure d’échanges - Alain Ambrosi, président-directeur Carrefour mondial de l’Internet citoyen, World Forum on Community Networks, «La participation de la société civile au SMSI», Canada - Daniel Kaplan, délégué général de la Fondation Internet nouvelle génération (FING), «Éloge de la complexité : pourquoi il ne faut pas simplifier l’Internet», France - Louis Pouzin, EUROLINC, «Multilinguisme et réseaux : noms de domaines en toutes langues», France 11h15 Pause 11h30 Régulation des médias et opinion publique mondiale - Dominique Cardon, France Telecom R&D, «Le rôle des médias alternatifs sur Internet dans la constitution du mouvement altermondialiste», France - Bernard Benhamou, directeur de la prospective, Agence de développement de l’administration électronique (ADAE), «Internet, médias et industries des technologies : quelle politique pour quelle régulation ?», France - Philippe Couve, directeur adjoint de la rédaction Internet, Radio France internationale, France - Marc Raboy, professeur titulaire, université de Montréal, «Médias, liberté d’expression et droit à la communication dans la société de l’information», Canada 12h30 Déjeuner Session 2 - Une nouvelle régulation de l’espace public ? Objets et défis Animatrice : Francoise Massit-Folléa 14h00 Éthique et confiance dans l’économie numérique - Jacques Berleur, professeur, Facultés universitaires Notre-Dame de la paix (FUNDP) président Internet society Belgique (Wallonie) - Raymond Descout, directeur général, CEDROM-SNI France, «Intermédiation des contenus de presse», Canada - Éric Brousseau, professeur en économie, FORUM-Paris X ; président Internet Society France, «Régulation publique, régulation privée : quel cadre institutionnel pour l’économie numérique ?», France 14h45 Identités et libertés : la question des normes et des standards numériques - Jacques Perriault, professeur en communication, université de Paris X «Enjeux de la normalisation pour l’enseignement à distance», France - Cécile Méadel, chercheur, Centre de sociologie de l’innovation (CSI) ; École des mines de Paris, «Quelle justice pour l’Internet : l’arbitrage sur les noms de domaine», France - Hubert Bouchet, vice-président délégué de la Commission nationale informatique et libertés (CNIL), France 15h30 Pause 15h45 Démocratie et gouvernance de l’Internet - Thierry Vedel, chercheur au Centre d’études de la vie politique française (CEVIPOF), France - (sous réserve) Rudolf von Thadden, directeur de l’Institut Berlin-Brandebourg, Allemagne - Richard Delmas, administrateur principal à la Commission européenne de la société de l’information (DG INFSO), Bruxelles 16h30 Débat avec la salle 17h00 Allocution de clôture - (sous réserve) Michel Peissik, ambassadeur chargé du Sommet mondial sur la société de l’information, France
2003-11-13 22:51:14
Programme (sur le site de la Fing)
http://www.fing.org/ref/manifestations/InternetEspacePublic_Programme.pdf
Après le Brésil, l'Italie, la Chine ou le Japon, les licences Creative Commons arrivent en france. Le projet Creative Commons a pour objectif de fournir aux auteurs d'oeuvres numériques des "kits juridiques" leur permettant de protéger leurs travaux tout en garantissant les droits du public. L'adaptation du projet Creative Commons, américain à l'origine, ne constitue pas seulement une traduction, mais une tentative de "portage" des licences en droit français. Ce portage, co-dirigé par Mélanie Dulon de Rosmay et Jean-Baptiste Soufron, est entrepris sous l'égide du Centre d'Etudes et de Recherches de Science Administrative (CERSA, PARIS-II/CNRS). Il est actuellement en phase de discussion, ouverte à tous, sur la base d'une première version
2003-12-04 22:52:27
iCommons France
http://creativecommons.org/projects/international/fr/
A lire dans Juriscom.net, une excellente analyse de Philippe Amblard qui compare deux récents jugements en matière de responsabilité des hébergeurs. La première affaire concernait l'hébergeur associatif R@S, attaqué par deux sociétés mises en cause dans différents tracts syndicaux publiés sur le site Web de SUD-PTT, qu'il hébergeait. Après examen des contenus incriminés, le juge a considéré que dans l'état actuel de la loi, personne, si ce n'est une autorité judiciaire, ne peut contraindre un hébergeur à retirer certains contenus de ses serveurs, et qu'en l'espèce, les contenus, déjà publiés par ailleurs, n'étaient pas illicites. Il a donc condamnés les sociétés à dédommager le R@S et SUD-PTT. L'autre jugement, qui opposait l'hébergeur coopératif Ouvaton à la régie publicitaire de la RATP, en raison des appels au boycott lancés par le site stopub.ouvaton.org. Mais dans ce cas, même si le juge a reconnu la légitimité de l'attitude de l'hébergeur, consistant à attendre la décision d'une autorité judiciaire pour juger de leur caractère illicite (ce qui est le cas), il a condamné Ouvaton à payer les frais de justice occasionnés par cette décision. Conclusion, ajoute Philippe Amblard, "selon que le site litigieux est jugé par l’autorité judiciaire préjudiciable ou non aux intérêts des tiers, l’hébergeur doit s’attendre à supporter le coût partiel d’une procédure en référé, le bénéfice de l’article 700 du NCPC ne lui étant acquis que si le contenu des sites est reconnu licite. Se profile ainsi l’impossible exercice de fournisseurs d'hébergement contraints en pratique à censurer plutôt que d’avoir à supporter les conséquences financières de l’hébergement de contenus préjudiciables".
2003-12-04 23:20:51
La turpitude des sites hébergés à la charge de leurs hébergeurs : R@s acquité, Ouvaton sanctionné
http://www.juriscom.net/actu/visu.php?ID=395
Depuis plusieurs années, l'ENS Lettres et Sciences Humaines de Lyon (ex Fontenay-Saint-Cloud) a manifesté son engagement dans l'utilisation des nouvelles technologies appliquées à la recherche et l'enseignement supérieur. Des initiatives aussi intéressantes que l'édition des pièces du théâtre classique, la diffusion en ligne de conférences filmées, l'utilisation d'outils d'analyses lexicométriques, la mise en place de sites thématiques comme Liens socio ou Géoconfluences, ou encore l'édition de revues électroniques accessibles gratuitement en texte intégral, en sont la preuve. Cet engagement est aujourd'hui confirmé par la mise en ligne d'un portail recensant et présentant de manière unifiée l'ensemble de ces initiatives. Intitulé Ecole Ouverte : savoirs en ligne, il offre des accès par entrées diciplinaires ou par type de ressources. Edité par la Cedille, structure éditoriale spécialisée en édition électronique, le portail Ecole ouverte s'appuie sur le CMS Spip qui, du CNRS à l'Université Lyon 2, en passant par la Sorbonne et bien d'autres établissments, confirme sa forte implantation dans le milieux de l'enseignement supérieur et de la recherche comme outil léger et flexible de diffusion d'informations.
2003-12-12 16:26:58
Ecole Ouverte : savoirs en ligne
http://ecole-ouverte.ens-lsh.fr
Depuis la récente décision prise par le premier éditeur de distributions Linux, Red Hat, de réviser sa politique commerciale de manière à contraindre une partie de sa clientèle professionnelle à adhérer à son programme de licences, les interrogations se sont multipliées au sein de la communauté des utilisateurs Linux sur la fiablitié de ce type de solutions informatiques. Lorsqu'on sait que la durée de vie de la distribution Red Hat 9 est prévue à tout juste un an, on est en droit de se poser des questions. C'est à ces questions que cherche à répondre Mandrake, via un communiqué de presse très astucieux qui se positionne d'emblée en réponse à la politique de Red Hat : "Au moment où les grands éditeurs de Linux commencent à se détourner de leurs racines Open Source et abandonnent progressivement leur plein engagement dans le Logiciel Libre, beaucoup d'utilisateurs ont demandé à MandrakeSoft de clarifier sa position concernant les durées de vie des produits et son modèle de développement Open Source." Vient ensuite une sorte de charte, intitulée "Cycles de vie des produits MandrakeSoft et politique Open Source : les 8 Règles d'Or" qui n'annonce rien de bien nouveau, mais constitue une belle opération de séduction envers une communauté très attachée aux valeurs que véhiculent ses pratiques professionnelles. Appelons cela du business éthique.
2003-12-20 23:49:21
Cycles de vie des produits MandrakeSoft et politique Open Source : les 8 Règles d'Or
http://www.mandrakesoft.com/company/press/pr?n=/pr/corporate/2446&wslang=fr
Le Forum des droits sur l’internet annonce aujourd’hui la création du réseau européen de corégulation de l’internet, en partenariat avec des organismes de 6 pays européens. La création de ce réseau est motivée par l’idée que les enjeux juridiques et d’usage de l’internet nécessitent une concertation large entre les Etats, les acteurs privés et les utilisateurs. Le champ d’action du réseau européen de corégulation de l’internet couvre les questions de droit et de société liées à l’internet comme par exemple le spam, la protection de l’enfance, l’administration électronique ou encore le e-commerce. Les 4 objectifs du réseau européen de corégulation de l’internet : - Construire un réseau de ressource et d’expertise sur les questions juridiques de l’internet au niveau européen. Grâce au réseau, les membres pourront partager leurs expériences, les bonnes pratiques et les connaissances ; - Organiser un débat public entre l’ensemble des acteurs (représentants des Etats, secteur privé et société civile) au niveau européen sur les questions de droit et d’usage de l’internet (comme le spam, la protection de l’enfance, la propriété intellectuelle, etc.) ; - Apporter des propositions aux institutions européennes ; - Contribuer au processus de suivi du SMSI Le réseau placera ses travaux dans la perspective du sommet de Tunis qui aura lieu en novembre 2005. Le réseau comprend les organismes suivants : Autriche : Osterreichisches Institut für Angewandte Telekommunikation Belgique : Observatoire des Droits de l’Internet – Observatorium van de Rechten op het Internet France: Forum des droits sur l’internet Italie : Forum per la tecnologia della informazione Hongrie : Information society research institute Suède : Swedish government ICT-political strategy group et Swedish law and informatics research Institute Royaume-Uni : l’Internet Watch foundation et l’Oxford Internet Institute
2003-12-23 21:45:17
European Internet coregulation network
http://network.foruminternet.org/
Véritable phénomène ludique du moment, les Sims ont donné lieu à la création d'un univers de jeu persistant, géré par une société filiale d'Electronic Arts, Maxis. Salon.com relate dans un article passionnant le psychodrame qui déchire actuellement Alphaville, la ville la plus importante de l'univers des "Sims online", à la suite de l'exclusion par la société d'un des joueurs qui avait eu le mauvais goût d'éditer à l'intérieur du jeu un journal critique à l'égard du comportement de Maxis. Il faut dire qu'Urizenus, dans la vie un professeur de linguistique et de philosophie de l'université du Michigan, frappe fort, en s'intéressant aux personnages les plus scandaleux du jeu, et aux pratiques de prostitution virtuelle auxquelles ils se livrent. Dès lors apparaissent un ensemble de questions sur ce jeu, sur les relations qu'il entretient avec la vie réelle - vie qu'il cherche à mimer justement -, mais aussi sur la nature de cet espace dont on ne sait pas très bien s'il doit être considéré comme public ou privé et sur l'émergence de problématiques politiques au sein de ce qu'il faut bien qualifier de communauté virtuelle.
2003-12-24 00:09:40
Raking muck in "The Sims Online"
http://www.salon.com/tech/feature/2003/12/12/sims_online_newspaper/index.html
XML se situe au point de jonction entre deux traditions historiquement très différentes : une tradition de publication de documents et une tradition de gestion de données. Jon Udel a essayé d'en tirer les conséquences dans sa récente intervention lors de la XML DevCon 2003. Il met en garde contre le déséquilibre entre ces deux traditions que pourrait impliquer le développement des web services et défend l'idée d'un usage de ce langage au service et accessible à l'utilisateur final. Un point de vue intéressant qui montre que la bataille de l'accessibilité - par l'intermédiaire d'applications et d'éditeurs performants notamment - n'est pas totalement perdue, et que Microsoft en particulier est en train de se positionner de manière très astucieuse sur ce créneau.
2003-12-29 22:41:16
The social life of XML
http://www.xml.com/pub/a/2003/12/23/udell.html
Magnatune est un "netlabel"; un éditeur musical qui ne distribue les oeuvres de ses artistes que sur le net. Mais celui-ci a la particularité de distribuer ses oeuvres sous licence Creative Commons, décidément très à la mode en ce moment. Moralité, chacun peut télécharger et écouter gratuitement des albums entiers, souvent de bonne qualité qui plus est, et même de les réutiliser et les modifier pour son usage personnel. On appelle cela de l'"Open music". Libre à l'auditeur d'"acheter" l'album ensuite, si celui-ci lui plaît, en rémunérant l'artiste à hauteur de 50% des sommes versées. Le slogan du label ? "We're a record label. But we're not evil". Et autant de franchise plaît manifestement puisqu'un véritable buzz est en train de se créer autour de sa démarche, relayé en la circonstance par le Globe and Mail.
2003-12-29 23:17:46
Take my music - please
http://www.globetechnology.com/servlet/story/RTGAM.20031229.gtcopy29/BNStory/Technology/
L'équipe de développeurs du célèbre système de publication sur Internet Spip vient d'annoncer la sortie d'une nouvelle version, la 1.7, étape majeure dans le développement du logiciel. Cette nouvelle version conduit en effet à son terme la logique mutlilingue qui était présente dès la version précédente avec la traduction de l'interface d'administration en une diziane de langues. Le multilinguisme est désormais aussi géré pour les articles publiés dans la partie publique des sites Web, avec la mise en place d'une série d'outils permettant aux webmasters de gérer les traductions des textes qu'ils publient sans difficulté. Par ailleurs, les intitulés d'administration présents sur le site public (intitulés de formulaire et de navigation) sont pré-traduits dans la distribution par défaut et peuvent être réutilisés ou modifiés facilement. Autre grosse modification, cette version de Spip est dotée d'une fonctionnalité de personnalisation permettant à l'administrateur d'un site Spip d'ajouter des champs dont il peut définir lui-même les intitulés, aux articles, brèves, rubriques et auteurs. Cette possiblité, non documentée, et qui demande une bonne connaissance de Spip accroît la souplesse du système en lui permettant d'ateindre un niveau d'abstraction inégalé. Un administrateur Web peut donc se retrouver devant un outil de publication neutre, dont il peut lui-même définir les objets et leurs caractéristiques en fonction des besoins particuliers de son projet. Ces nouveautés très importantes s'accompagnent d'une foultitude de modifications et apports. On relèvera en particulier une refonte graphique de l'interface d'administration, l'ajout d'une barre de génération automatisée de raccourcis typographiques pour les rédacteurs les moins motivés, un nouveau calendrier, un affichage différent des referers, etc. C'est un tel étonnement de lire la liste des langues dans lesquelles l'interface d'administration est traduite qu'on ne peut résister au plaisir de la livrer ici : - français - anglais - néerlandais - vietnamien - espagnol - arabe - farsi - créole de la Réunion - allemand - danois - espéranto - italien - bulgare - polonais - catalan - portugais - sept variantes différentes d'occitan : niçard, languedocien, gascon, provençal, auvergnat, limousin et vivaro-alpin ! Il serait dommage qu'une version aussi importante n'ait pas de nom de nom de baptême. Etant donné que c'est aussi la première version de Spip à supporter officiellement les jeux de caractères arabes, un seul nom s'impose : Longue vie à Bab-el Spip !
2004-01-04 12:49:34
Spip 1.7
http://www.spip.net
Qu'est-ce que c'est ? Comment ça marche ? Comment l'utiliser ? C'est à ce type de questions que répond un article publié sur Framasoft par RNB, intitulé "Creative Commons : Soyons créatifs ensemble". De manière très intéressante, l'auteur n'explique en effet pas seulement la modularité des licences (onze choix possibles résultant de trois combinaisons), mais aussi et surtout les différents modes d'implémentation de la licence dans une oeuvre numérique. Excellent au dire des aficionados français des licences cc, cet article est en passe de devenir un document de référence. Ce serait vraiment dommage de le rater.
2004-01-14 12:03:12
Creative Commons : Soyons créatifs ensemble
http://www.framasoft.net/article2185.html
C'est une nouvelle communiquée par IP Justice, un groupe de défense des libertés civiques sur Internet : la cour de Bolzano en Italie vient de déclarer illégale la saisie de consoles de jeux Playstation Sony modifiée par leurs possesseurs, présumées illégales par les autorités italiennes au titre de la directive européenne sur le copyright, transposée en droit italien depuis l'année dernière. Cette directive européenne qui importe en Europe les dispositions définies aux Etats-Unis depuis 1998 par le fameux Digital Millenium Copyright Act, prévoit de rendre illégal tout dispositif ou toute pratique visant à contourner une mesure technique de protection de la propriété intellectuelle. C'est au nom de cette mesure que les fabricants et éditeurs d'objets numériques prétendent souvent diminuer voire supprimer le contrôle que pourraient avoir les utilisateurs sur ces objets. Prenant au contraire le parti d'une interprétation restrictive de la loi, le juge italien a considéré que les modifications apportées à leurs machines par les "gamers" de la péninsule ne pouvaient être interprétées comme les prémisses d'actes de piratage (il s'agit d'améliorer le fonctionnement des consoles ou de les utiliser de manière non prévue par le constructeur ; le résultat est appelé un "mod"). Il est encore trop tôt pour dire s'il s'agit là du premier acte de la constitution d'une doctrine européenne qui se distinguerait par le refus d'instrumentaliser la loi au profit d'intérêts plus vastes que la simple protection de la propriété intellectuelle. On remarquera tout de même que le juge italien semble vouloir se situer d'emblée à ce niveau puisque ses motivations renvoient à la volonté légitime des utilisateurs de combattre par les "mods" "les pratiques commerciales monopolistiques" qu'exerce Sony.
2004-01-14 14:19:27
Italian Court Rejects First EU Copyright Directive Seizure
http://ipjustice.org/media/release20040112_en.shtml
...et au terme de cette mise au point, une certaine critique des développements actuels dans le monde du libre. Car, dit en substance le père fondateur de la Free Software Foundation, si le logiciel libre a formidablement gagné en popularité, c'est au prix de nombreuses concessions aux logiciels propriétaires, de plus en plus nombreux à être portés pour Linux. Ceci constitue pour Stallman un détournement des objectifs originels de GNU qui fut créé contre le développement des logiciels propriétaires. Si la compatibilité croissante entre logiciels propriétataires et logiciels libres constitue donc un bon moyen pour permettre à ces derniers d'être davantage utilisés, elle est aussi un frein à leur développement parce qu'on perd de vue les fins pour lesquelles ils sont développés. Avec cette tribune qui pose de vraies questions, Richard Stallman prend cependant le risque d'ouvrir un nouveau débat entre maximalistes et réalistes au sein de la communauté.
2004-02-08 21:03:05
Vingt ans de logiciels libres : quels défis pour demain ?
http://www.zdnet.fr/actualites/opinions/0,39020797,39137464,00.htm
C'est le thème de la conférence qui se tiendra les 6 et 7 septembre prochains, organisée par le European Social and Cultural Studies Research Centre de l'Université de Sheffield. Internet et l'identité, l'identité sur Internet et ses valeurs, Internet et les identités politiques, Internet et l'identité légale, sont les principaux thèmes qu'il est permis d'aborder au cours de cette conférence au cours de laquelle on devrait entendre les professeurs Don Slater, de la LSE, et Joost van Loon de la Nottingham Trent University . Les résumés des communications doivent être soumis avant le 15 mars.
2004-02-08 21:53:15
Internet Identities in Europe
http://www.revues.org/calenda/nouvelle3885.html
A lire dans The Register, cet article qui montre que la majorité des employés britanniques ignore complètement les plus élémentaires mesures prophylactiques en matière de lutte contre les virus informatiques. Adoptant un comportement conforme au modèle de délégation des compétencez informatiques en place dans la plupart des entreprises, ils considèrent que les questions de sécurité sont du seul ressort du département informatique de leur entreprise, de Microsoft, ou de leur gouvernement. Conclusion de Steve Brown, directeur de Novell UK : "Jusqu'à ce que les entreprises de Grande-Bretagne commencent à prendre au sérieux la question de l'éducation de l'utilisateur final, on continuera à constater une spirale ascendante du cyber-crime en 2004". Une situation qu'il serait présompteux de vouloir circonscrire aux îles britanniques.
2004-02-08 22:24:22
Clueless office workers help spread computer viruses
http://www.theregister.co.uk/content/55/35393.html
Libre Cours est une association dont l'objectif est de promouvoir l'accès gratuit aux cours d'université par Internet. Son site Web, hébergé par l'INRIA, présente donc un ensemble de ressources, encore peu nombreuses, dans un grand nombre de disciplines, de manière simple et claire. Pas de chichi sur ce site lumineux où l'on sent que l'objectif est d'aider l'utilisateur à retrouver facilement les cours dont il a besoin. Les cours, toujours d'accès gratuit, sont distribués avec des licences d'utilisation de niveaux variables (autorisant la redistribution ou non, en contexte commercial ou non). Un site à voir....mais aussi à alimenter pour ceux qui le peuvent.
2004-02-08 22:56:03
Libre Cours
http://www.librecours.org/cgi-bin/main
Qui n’est pas un jour resté sur sa faim à l’écoute ou à la lecture d’un papier de journaliste ? : clichés rebattus et traités de manière complaisante, superficielle et rapide, intervenants choisis en fonction de leur notoriété publique - difficile dans ces conditions de se faire une opinion, de nourrir sa réflexion ou de saisir tous les enjeux d’un débat de société. C’est de ce constat et de cette lassitude que sont nés les Dossiers Du Net - place publique ouverte et permanente qui a pour objectif de donner la parole à d’autres acteurs que ceux que l'on entend habituellement, dont la notoriété ne fait pas d’office la force de leur argumentation et dont les propos tentent d’aller au fond de l’analyse d’une question. Conçus avant tout comme un site d’information, les Dossiers du Net se proposent d’aborder un aspect de l’actualité sous un angle différent. Cherchant aussi à susciter une réflexion vivante, le site offre la possibilité aux différents intervenants, ou à d’autres, de renouer les fils du débat afin de préciser un aspect de leur position, de répondre à l’opinion adverse d’un autre intervenant ou encore d’élargir leurs perspectives afin d’enrichir et de mener plus loin le débat et la réflexion.
2004-02-10 20:04:49
Les Dossiers du Net
http://www.dossiersdunet.com
A l'heure où l'on apprend que la RIAA a lancé une nouvelle vague d'attaques contre près de 500 internautes américains, pour l'instant identifiés seulement par leur adresse IP, son homologue canadien, la Canadian Recording Industry Association vient de demander aux fournisseurs d'accès de ce pays de leur fournir l'identité de 29 de leurs clients, supposés être parmi les plus gros échangeurs de fichiers piratés par réseau P2P. Selon la BBC, les fournisseurs d'accès auraient refusé de révéler leur identité, au motif qu'il s'agirait d'une "violation de la vie privée de [leurs] clients". Affaire à suivre
2004-02-17 22:06:16
Canada joins online piracy fight
http://news.bbc.co.uk/1/hi/entertainment/music/3496417.stm
Depuis plusieurs années, Adobe s'est fait une spécialité d'offrir des services de contrôle d'accès aux auteurs de documents numériques, spécialement par l'intermédiaire de son format PDF. On sait en effet qu'il est déjà possible de concevoir un document PDF dont l'accès à certaines fonctionnalités (impression, copier-coller) peut être désactivé. Adobe va aujourd'hui plus loin en se proposant d'offrir à ses clients dès l'été 2004 des fonctionnalités de contrôle encore plus poussées, car gérées au niveau du serveur de diffusion des documents : permettre à un utilisateur authentifié d'ouvrir un document, mais l'interdire à un de ses collègues à qui il l'aurait transmis, révoquer à distance la validité d'un document en le désactivant, même après qu'il a été transmis, déterminer la fréquence avec laquelle le lecteur doit s'identifier sur le serveur pour pouvoir continuer à ouvrir son document, ce sont quelques un des plaisirs futurs que nous réserverait Adobe, par le moyen de son nouveau service intitulé "Adobe Policy Server", selon Cnet.com. Cnet souligne d'ailleurs à juste titre que ce type d'initiative s'inscrit dans un contexte de concurrence globale avec Microsoft qui développe des services semblables avec sa suite bureautique Office 2003 couplée à Windows server 2003
2004-02-17 23:44:37
Adobe server software puts a lock on docs
http://news.com.com/2100-1029_3-5160162.html?part=rss&tag=feed&subj=news
Voici plus d'un an que l'Union Européenne, à la suite du pouvoir judiciaire fédérale américain, tente de limiter la domination sans partage de Microsoft sur le marché du logiciel, par le biais d'une action antitrust qui s'attaque essentiellement, comme c'était le cas aux Etats-Unis, aux pratiques de "bundling" de la firme de Redmond. Si l'action américaine a finalement abouti à pas grand-chose, il semble bien que la Commission ait décidé de jouer un rôle plus offensif, en exigeant de Microsoft qu'il distribue avec son système d'exploitation les lecteurs multimédias concurrents du sien. Microsoft a tenté un mouvement de conciliation en proposant de fournir à l'utilisateur un cd à partir duquel il pourrait les installer. Niet ! aurait répliqué la commission, décidément bien scrupuleuse sur ce dossier, et bien décidé à garantir une égalité formelle de traitement incontestable à tous les concurrents sur ce secteur convoité.
2004-02-18 00:15:07
EU Rejects Latest Microsoft Offer To Settle Antitrust Claims
http://www.crn.com/sections/BreakingNews/dailyarchives.asp?ArticleID=48002
Voici plus d'un an que l'Union Européenne, à la suite du pouvoir judiciaire fédérale américain, tente de limiter la domination sans partage de Microsoft sur le marché du logiciel, par le biais d'une action antitrust qui s'attaque essentiellement, comme c'était le cas aux Etats-Unis, aux pratiques de "bundling" de la firme de Redmond. Si l'action américaine a finalement abouti à pas grand-chose, il semble bien que la Commission ait décidé de jouer un rôle plus offensif, en exigeant de Microsoft qu'il distribue avec son système d'exploitation les lecteurs multimédias concurrents du sien. Microsoft a tenté un mouvement de conciliation en proposant de fournir à l'utilisateur un cd à partir duquel il pourrait les installer. Niet ! aurait répliqué la commission, décidément bien scrupuleuse sur ce dossier, et bien décidée à garantir une égalité formelle de traitement incontestable à tous les concurrents sur ce secteur convoité.
2004-02-18 00:15:37
EU Rejects Latest Microsoft Offer To Settle Antitrust Claims
http://www.crn.com/sections/BreakingNews/dailyarchives.asp?ArticleID=48002
"Let Java go !". C'est par cette injonction qu'Eric Raymond, le fondateur de l'Open Source Initiative, choisit de répondre aux récentes déclarations de Scott McNealy, l'actuel président de Sun, affirmant l'existence de relations "amicales" entre Sun et la communauté open source. Chiche ! répond en substance Eric Raymond ; si c'est le cas, alors Sun doit ouvrir le code de Java, sur lequel il maintient une licence très restrictive. En effet, argumente-t-il, Sun doit choisir entre le contrôle et l'ubiquité pour sa plate-forme. En choisissant le contrôle, il empêche que celle-ci soit utilisée de manière plus répandue dans la communauté open source, où Java aurait tendance à perdre du terrain par rapport à d'autres langages de scripts come Python ou Perl. Faux ! rétorque évidemment Sun Microsystems, par la voix de Simon Phipps. Car d'une part, on ne peut pas dire que Sun contrôle Java, dont la destinée repose désormais entre les mains du Java Community Process, et d'autre part, les spécifications en sont ouvertes, ce qui signifie que quiconque peut réaliser sa propre plate-forme Java open source, à l'instar de celles qui existent déjà, comme Kaffe. Sujet propice à enflammer les forums de discussion spcialisés, bien entendu. Sur [OSnews->http://www.osnews.com/comment.php?news_id=6053] en particulier, on défend Sun en montrant combien la société à contribué au développement et au succès du logiciel libre (via Open Office en particulier), tandis qu'elle ne peut ouvrir le code de Java sur lequel repose tout son modèle économique de concepteur de plate-forme. On l'attaque aussi en montrant que JCP est faussement ouvert et que l'évolution des spécifications fait qu'il est très difficile de développer une plate-forme Java compétitive à celle de Sun. On pourra aussi consulter avec profit les forums de [Slashdot->http://slashdot.org/articles/04/02/14/1819249.shtml?tid=108] sur le sujet
2004-02-21 23:49:10
Sun fires back over Open Source Java accusations
http://www.pcpro.co.uk/?http://www.pcpro.co.uk/news/news_story.php?id=53646
La blogosphère ne bruit que de cela ces jours-ci : le blog de Dominique Strauss-Kahn, premier homme politique français d'envergure nationale à se jeter à l'eau. Evidemment, tout le monde a pensé à un "effet Howard Dean", qui pourtant, vu le succès de l'opération, devrait constituer un contre-modèle. Et de fait, le démarrage fut difficile, avec des premiers billets écrits à la troisième personne ("Dominique sera présent à Avignon le...") qui semblaient prouver qu'encore une fois les hommes politiques français ne comprennent pas grand chose aux phénomènes de communication issus de l'Internet. Et puis non. En quelques billets, l'ambiance a changé, avec l'émergence d'une parole plus libre, à la première personne, peu rédigée, transmise directement ou par l'intermédiaire du secrétariat de l'homme politique. Le tout dans une certaine désorganisation qui corrobore l'aspect volontairement commun de l'opération : pas de maquette tape-à-l'oeil (hormis la bannière bien sûr), juste un blog hébergé chez Typepad comme des milliers d'autres, avec les coquilles d'usage, les tâtonnements volontiers avoués et le mélange des sujets sans catégorisation préconçue. Réelle volonté de développer un autre mode de communication politique ou manipulation médiatique particulièrement sophistiquée ? Quoi qu'il en soit, les commentaires se font élogieux et manifestent aussi une attente plus grande d'un débat franc et sans langue de bois sur les questions politiques. C'est à cette aune sans doute, que l'on jugera du succès de la tentative, manifestement inspirée par Loïc Le Meur, président de Ublog.com.
2004-02-22 15:31:54
Le blog de DSK
http://dsk.typepad.com/dsk/
Depuis plusieurs mois, la firme SCO, détentrice d'une version du système UNIX, prétend avoir des droits sur une partie du code du système Linux, qui serait directement emprunté à UNIX. SCO menace donc de réclamer à toute entreprise utilisant ce système le paiement d'une licence d'exploitation et a entamé dans la foulée un procès contre IBM sur la base de ces allégations. A l'heure où le juge chargé d'examiner le dossier demande aux parties de dévoiler davantage d'informations sur le code incriminé, SCO annonce son intention d'étendre ses poursuites à l'encontre d'un plus grand nombre d'utilisateurs, comme le constructeur automobile DaimlerChrysler, deuxième société à en faire les frais. En attendant, quatre firmes ont déjà payé, alors même que SCO n'a jamais fourni de preuve venant appuyer ses prétentions. Il s'agit davantage pour elles, explique le site de la BBC qui rapporte la nouvelle, de se couvrir à moindre frais contre d'éventuelles poursuites
2004-03-05 21:11:32
SCO reveals more Linux payments
http://news.bbc.co.uk/1/hi/technology/3535669.stm
Conduite au sein du réseau M@rsouin (réseau fédérant les laboratoires bretons de sciences humaines traitant des usages sociaux des nouvelles technologies), l'étude EXPERT vise à identifier et observer les pratiques d'auto-publication sur Internet, qu'il s'agisse de publication individuelle (les blogues), concertative (avec un logiciel comme Glasnost), ou encore collective (avec Spip). Soutenue par le Ministère de la Technologie, cette étude n'a pas pour seul objectif de produire des conaissances scientifiques sur le sujet. Il s'agit aussi de concevoir des tutoriaux et de supports de formation orientés sur les usages davantage que les technologies, permettant une meilleure appropriation par les populations traditionnellement éloignées de ce type de pratiques. Le programme débute au cours du mois de mars et doit durer 18 mars. A suivre donc.
2004-03-06 21:35:22
Le projet EXPERT
http://www.marsouin.org/article.php3?id_article=34
C'est le titre d'un des clips vidéos réalisés par différents artistes pour présenter les licences Creative Commons au grand public. Le plus réussi sans doute et qui met le mieux en évidence la culture du "rip, mix and burn" sur laquelle Creative Commons prétend s'appuyer. Beaucoup d'humour, un sens de la pédagogie certain, et il n'en faut pas plus pour montrer en deux minutes ce qui pourrait passer au premier abord pour un mouvement juridique un peu abstrait. Attention, ambiance très yankee.
2004-03-06 22:40:17
Building on the past
http://creativecommons.org/getcontent/features/movingimagecontest
Annoncée sur DLFP, la naissance d'un wiki pour démêler les rapports tumultueux entre deux domaines qui se sont longtemps ignorés. Depuis la naissance d'associations spécifiques en France, leur mobilisation sur le dossier du brevet logiciel, mais aussi la ténacité des quelques illuminés (ou passant pour tels) au sein de l'administration, les choses ont évolué : les partisans du logiciel libre ont compris qu'ils ne pouvaient s'abstraire de leur environnement "non-geek", les politiques que leurs prises de position sur cette question pouvaient avoir un impact, aussi bien positif que négatif, sur leur image dans certaines catégories de population. D'où des engagements très opportuns ces derniers temps, à l'approche des élections régionales en particulier. C'est donc une excellente idée que cette initiative de création d'un site de discussion ouvert et collaboratif (un wiki donc) sur les rapports entre politique et logiciels libre. Les initiateurs du projet, deux jeunes étudiants impliqués dans les deux types d'activité[[L'un d'entre eux est affilié au CELSA, décidément au centre de beaucoup de choses en ce moment]], ont commencé à nourrir leur site...qui reste largement à construire par tous ceux qui y trouve quelque intérêt. A vos claviers !
2004-03-07 18:25:35
Lancement du wiki Politique et LL.eu.org
http://linuxfr.org/2004/03/06/15567.html
La Bibliothèque Publique d'Information s'illustre depuis longtemps par un travail de réflexion sur les transformations ques les TIC opérent sur les savoirs. Elle continue aujourd'hui ce travail en ouvrant un espace de débat sur le réseau consacré, pour commencer aux enjeux culturels des moteurs de recherche. On sait en effet que près d'un tiers du trafic des sites Web est drainé par les moteurs ; et que parmi ceux-ci, Google occupe une place écransante. Cette situation n'est pas sans provoquer des interrogations, que développent sur cet espace des acteurs connus de l'Internet en France comme Laurent Chemla, Marin Dacos, Francis Chateauraynaud, Françoise Gaudet et Eric Guichard.
2004-04-08 22:19:40
Les enjeux culturels des moteurs de recherche
http://debatvirtuel.bpi.fr/moteurs
Google ! Google ! Google ! On n'entend parler que de Google en ce moment ; sauf dans les pages de Wired news qui s'intéresse aux moteurs de recherche qui risquent de lui succéder : les moteurs spécialisés. Car si ceux-ci existent depuis longtemps, leur popularité est en train d'augmenter, du fait de l'augmentation du bruit sur les moteurs généralistes. Exemple : Scirus, le moteur de recherche mis à disposition de la communauté scientifique par le célèbre éditeur Reed Elsevier. Les publications du géant de l'édition scientifique y tiennent une bonne place, évidemment ; mais celui-ci joue le jeu en recensant d'autres publications, à condition qu'elles soient de nature scientifique. Un gain de temps précieux pour les chercheurs dans leur recherche d'information.
2004-04-09 22:11:30
Turning Search Into a Science
http://www.wired.com/news/print/0,1294,62979,00.html
C'est le résultat le plus visible des amendements adoptés par le sénat dans sa dernière navette avec l'Assemblée à propos de la LEN. En supprimant l'obligation de filtrage pour les fournisseurs d'accès et l'obligation de surveillance a priori et généralisée pour les hébergeurs, le Sénat vient de se voir décerner un satisfecit de la part de l'Association des Fournisseurs d'Accès qui avait manifesté sa violente opposition à la loi ces derniers mois. On rappelera que les principales dispositions de la loi sont maintenues, en particulier celle qui rend les prestataires juges de la licéité des contenus qu'ils hébergent sur simple dénonciation d'un tiers. Du coup, les associations civiques comme IRIS et Reporters sans Frontières, mais aussi le Syndicat de la Magistrature, qui maintiennent leur opposition sur la base d'une dénonciation de la privatisation de la justice, se retrouvent lâchées en rase campagne par les acteurs économiques et, isolées, passent pour des enragées. Bien joué.
2004-04-10 19:25:16
Communiqué de presse de l'AFA
http://www.afa-france.com/presse/20040409.htm
C'est ce qu'annonce l'AP sur Wired news en constatant que la barre des 9,99 $ est largement dépassée pour les derniers albums mis en vente sur iTunes. Le prix de vente est même supérieur à celui du format CD pour certains albums. Une stratégie qui pourrait mettre à mal le succès du modèle de distribution soutenu par Apple. Interrogés sur la cause de telles pratiques commerciales, les "big five" semblent évasifs...et renvoient à la liberté de prix laissée aux détaillants. Selon les termes de cette dépêche, les services commerciaux des marchands de musique semblent plutôt expérimenter de nouvelles stratégies marketing, telles que celle qui consiste à faire payer plus cher la primeur de l'accès à un titre musical, avant sa distribution sur CD, ou encore à moduler le prix d'un titre en fonction de sa popularité, ou à l'inverse de la rareté de sa demande. Un petit jeu de Monopoly musical qui assure un bel avenir à edonkey.
2004-04-11 16:58:12
Speaking of Music Piracy ....
http://www.wired.com/news/digiwood/0,1412,62995,00.html
Nous avons tous nos listes de liens sur les nouvelles technologies, nous avons tous nos propres sources d'information ; pourquoi ne pas les mettre en commun pour former une sorte de portail syndiquant les flux d'informations en provenance de l'ensemble des sources ainsi rassemblées ? C'est le pari que fait la FING en proposant Vcoop, le nouveau site qu'elle développe en partenariat avec Digimind et e-toiles, entre autres. Fort bien réalisé techniquement, Vcoop offre tous les outils permettant d'exploiter les fils RSS qu'il agrège : moteur de recherche, alertes, fonctions de signalement, ajout de sources personnelles, filtres, etc. C'est déjà beaucoup. Mais le site prétend aussi construire une communauté de veille sur les TIC en proposant des interfaces de commentaires sur les articles, ou encore de forums, avec gestion intégrée de profils, permettant aux inscrits de mieux se connaître et d'échanger leurs avis et opinions autour de cette actualité qu'ils construisent ensemble. Enfin, Vcoop veut aussi proposer des services de publication en permettant à ses adhérents de mettre en ligne leurs articles, et en les valorisant. Ils peuvent même construire eux-mêmes leur newsletter, de telle sorte que c'est l'ensemble des services de publication d'un site Web qui leur est proposé, sans la charge de la conception et de la maintenance d'un site. On se permettra d'être quelque peu sceptique sur ce dernier aspect des services offerts par Vcoop. Car autant, il est facile et répandu de commenter l'actualité, comme le font très bien les milliers de blogs plus ou moins spécialisés sur tel ou tel sujet, autant il est plus difficle et plus rare d'écrire des articles complets ; et ceux qui s'y risquent souhaitent généralement être autrement valorisés que par une simple inclusion dans un site de veille communautaire.
2004-04-16 21:20:03
Vcoop
http://www.vcoop.org
A force de dominer le marché, Google finit par être inquiété par le poids d'une responsabilité dont il ne veut pas. La récente polémique sur l'"antisémitisme" supposé du plus célèbre des moteurs de recherche le montre bien. Jusqu'à récemment en effet, une requête sur le mot "jew" faisait apparaître une liste de résultats parmi lesquels un site antisémite prenait la première place. Pour certains, il s'agit d'une évolution du vocabulaire, le terme étant de moins en moins employé, sinon dans les milieux antisémites, tandis que le reste de la population utilise plutôt le terme de "jewish person". Pour d'autres, et c'est plus vraissemblable, il s'agit plus simplement du résultat d'une attaque de "Google bombing", cette stratégie consistant à multiplier les liens vers un site précis pour le faire remonter en tête de classement. D'où la mise en place de contre-attaques consistant à multiplier les liens vers un autre site, comme l'encyclopédie Wikipedia, dont l'entrée d'index "jew" a désormais chassé le site infâme au sommet des réponses de Google. On peut continuer longtemps ce petit jeu. Il ne faudrait pourtant pas oublier de tirer deux enseignements de cette aventure : D'abord, si la domination de Google sur le marché de la recherche d'information est malsaine, elle est pourtant un fait qui en fait un média de masse, soumis aux même responsabilités que les autres. Ce qui est en sérieuse contradiction avec l'idée qu'Internet est un moyen de communication foncièrement différent des mass media. Il faut bien commencer à le reconnaître, Internet fonctionne, pour une part de son public et de ses usages, comme une chaîne de télévision généraliste...avec le système de responsabilités qui l'accompagne. Ensuite, le système très malin mis en place par Google qui consiste à faire jouer la popularité d'un site comme élément de pondération important de la pertinence d'une réponse à une requête sur mot-clé, montre ici ses limites. De moteur de recherche, Google devient une machine à voter en permanence pour les sites que l'on aime (ou contre les sites que l'on déteste) ; ce n'est pas sa fonction première bien sûr. Et la notion de pertinence qui est comme le Saint Graal des moteurs de recherche est bien mise à mal par les manipulations diverses dont Google est l'objet. Il reste qu'entre les moteurs qui n'acceptent de référencer que sur paiment et Google brusquement détourné de sa fonction première, les dernières évolutions du secteur des moteurs de recherche généralistes ressemblent fort à un début de crise. Avec, à la clé, une dégradation importante de l'accès à l'information sur le réseau.
2004-04-20 19:02:42
Google Says It Doesn't Plan to Change Search Results
http://www.nytimes.com/2004/04/13/technology/13google.html
OAI-PMH est un protocole assurant une certaine interopérabilité entre des entrepôts de documments numériques, et permettant à des moteurs de recherche spécialisés d'interroger de manière efficace l'ensemble ou partie de ces entrepôts. Ce protocole n'est, pour l'instant, utilisé quasiment que dans un contexte de documentation scientifique, en particulier dans la mesure où sa mise en oeuvre n'est possible que par l'intermédiaire d'un certain nombre d'outils spécialisés comme Eprints ou Dspace. C'est précisément contre cet isolement "professionnel" que tente de lutter le projet mod_OAI qui a pour ambition de produire un paquet logiciel permettant de rendre un serveur Apache compatible OAI. Ainsi, tout serveur Apache équipé de ce module, pourrait répondre aux requêtes d'indexation OAI d'un moteur de recherche sur les documents qu'il est capable de servir aux utilisateurs. Fort bien. Ce que les promoteurs du projet oublient de préciser, c'est que dans la mesure où le protocole ne s'appuie que sur les métadonnées (Dublin Core) des documents, ceux-ci doivent faire l'objet d'une véritable stratégie de description documentaire, longue et coûteuse en temps de travail et compétence professionnelle, sous peine de voir l'utilité du système réduite à néant. Il y a donc peu de chances que l'OAI soit adopté, par quelque moyen que ce soit, y compris au niveau serveur, par "la communauté générale du Web" à laquelle le projet prétend s'adresser, ne serait-ce que parce qu'une telle communauté n'existe pas (plus ?). En revanche, mod_oai sera très utile pour toutes les institutions scientifiques qui souhaitent être globalement compatibles avec le protocole tout en restant libre du choix de leurs outils de publication.
2004-04-22 15:34:37
Mod_OAI : Getting OAI-PMH for free
http://www.modoai.org/
En Iran ,comme dans d'autres pays islamiques, l'accès à Internet est sévèrement contrôlés par le gouvernement, via les fournisseurs d'accès. Un certain nombre de sites Web, que ce soit pour des raisons politiques ou de moeurs, sont ainsi "filtrés" et inaccessible à partir de ce pays. Les services para-gouvernementaux américains disent offrir aux iraniens des moyens de contourner ce filtrage, sous la forme d'un "anonymizer" à partir duquel il sont censés pouvoir accéder à la totalité du réseau...en théorie. Car dans la réalité, cet anonymizer est lui-même doté d'un système de filtrage par mots-clés destiné à empêcher les iraniens frustrés d'utiliser ses services pour se ruer sur les sites pornographiques. Or, révèle l'équipe éditoriale de l'Open Net Initiative, un site universitaire sur la liberté d'information sur Internet, on sait depuis longtemps que ces systèmes de filtrage ont des résultats très douteux, en particulier parce qu'ils sont souvent trop efficaces, en bloquant l'accès à des sites pourtant anodins. Ainsi, le fameux Anonymizer, révèle l'ONI, bloque l'accès à de nombreux sites d'information sur la santé, en raison de la présence de mots comme "breast" ou "teen" dans les noms de domaine. Plus drôle, le site microsoft.com est lui-même bloqué parce qu'il contient le mot "soft". Mais le sommet du ridicule est atteint lorsqu'on apprend que le site du service des ambassades américaines est lui aussi filtré, parce que le nom de domaine, usembassy.gov, contient le mot "ass" ! Ce serait à pleurer de rire, si l'on ne voyait se révéler à travers cette mésaventure de la propagande américaine à l'étranger, un profond accord puritain entre deux civilisations qui clament pourtant leur opposition réciproque à la face du monde. On rit encore moins quand on constate que l'homophobie par exemple profite allègrement d'une telle entente, puisque l'ensemble des sites contenant le mot "gay" dans leur nom de domaine sont unanimement rejetés par les censeurs iraniens et américains.
2004-05-06 21:37:40
Unintended Risks and Consequences of Circumvention Technologies: The IBB's Anonymizer Service in Iran
http://www.opennetinitiative.net/advisories/001/
La domination de Google sur le secteur des moteurs de recherche a fait couler beaucoup d'encre ces derniers temps. Un des principaux reproches adressés au champion en titre est qu'il repose sur des technologies propriétaires, et singulièrement un algorithme de classement qui reste encore secret. Société privée dont la technologie est protégée, Google ne rend de comptes à personne sur la manière dont son moteur manipule l'information, avec des conséquences très importantes, étant donné sa position. D'où l'idée lancée par une poignée d'audacieux de partir à l'assaut du géant, mais sur la base de logiciels libres uniquement : Nutch, Jakarta, Lucene forment la trilogie technologique sur laquelle ils s'appuient. Cela donne Mozdex.org, un nom de domaine qui rappelle étrangement celui du plus célèbre annuaire coopératif et ouvert de la planète : Dmoz. Non sans raison d'ailleurs : l'index que produit Mozdex est basé sur la liste des sites référencés sur Dmoz. Mais il n'est pas interdit d'en ajouter d'autres, via un formulaire de soumission. L'objectif des fondateurs du projet est simple : proposer au public un moteur de recherche public et ouvert, qui établisse son indexation sur la base de règles connues de tous. Version béta pour le moment.
2004-05-07 00:21:43
Mozdex
http://www.mozdex.com
Nombre de copies pirates de films circulant sur Internet sont censées provenir d'enregistrement clandestins faits directement par caméra vidéo dans les salles de cinéma. Face à cette situation, un certain nombre d'états américains adoptent des législations répressives. Ce n'est pas sans poser problème à certains artistes. Jon Rouston, un vidéaste américain, est de ceux-là ; car précisément toutes ses oeuvres sont faites à partir d'enregistrements de films dans les salles obscures. Que ces enregistrments fassent par la suite l'objet de montages spécifiques, de types particuliers de projections dans les galeries d'art, qu'ils visent à mettre en valeur des situations de projection plutôt que le contenu des films projetés, ne change rien à l'affaire. Cet artiste peut être considéré comme un criminel dans un nombre croissant d'Etat, au regard de la législation sur le copyright. Au delà de l'anecdote, il est facile de voir dans cette fable l'illustration la plus probante de la thèse de Lawrence Lessig selon laquelle l'évolution de la législation sur le copyright menace directement les processus de création culturelle, ceux-ci reposant toujours sur l'emprunt, la réutilisation, l'imitation et finalement le commentaire.
2004-05-07 21:02:44
When One Man's Video Art Is Another's Copyright Crime
http://www.nytimes.com/2004/05/06/arts/design/06VIDE.html
Si c'est le cas, les éditeurs musicaux en colère regroupés au sein du SNEP ne semblent pas en écouter très souvent. La récente campagne d'affichage contre le piratage musical dont le syndicat est à l'origine, frappe par sa brutalité et sa vulgarité. On rappelera donc à tous ceux qui sont écoeurés par ces histoires de gros sous, de doigts, de prison et de com' à la louche, qu'il existe encore des endroits dans le cyberespace où les rapports entre public et auteurs se veulent équitables, où l'on peut écouter de la bonne musique...et seulement de la musique.
2004-05-07 22:46:14
"We're a record label, but we're not evil"
http://www.magnatune.com
Ni pirates, ni terroristes, ni fichés, ni logués ... Libres ! Un Mur du Son contre Le Mur des lois liberticides. _ Le 29 mai 2004, venez vous faire entendre !!! _ Manifestation/concert de la Place du Colonel Fabien à Bastille. Rassemblement à 14H à l'initiative de [Act Up Paris->http://www.actupparis.org/], [April->http://www.april.org], [EUCD Info->http://eucd.info], la [Fédération Informatique et libertés->http://www.vie-privee.org] (FIL), la [Free Software Foundation France->http://www.fsffrance.org], [Globenet->http://www.globenet.org], la [Ligue ODEBI->http://www.odebi.org], [Mediactivisme.net->http://mediactivism.net], [l'Observatoire des droits des Usagers->http://oduis.free.fr] (ODU), [propagande.org->http://www.propagande.org], [samizdat.net->http://www.samizdat.net] et le [SIIRP CNT->http://www.cnt-f.org/sii/CNTsii/]. Avec un objectif, de plus en plus flagrant : soumettre les internautes, les intermédiaires techniques, les auteurs et les médias indépendants aux seuls interêts économiques des industries culturelles et des grands groupes de communication. Peu importe que le prix à payer soit le renoncement à la vie privée, à une justice indépendante et impartiale, à la liberté d'expression, d'information, d'opinion, de création et de gestion de ses productions ou de ses outils. La défense de la propriété et de la tranquillité des puissants, vaut, paraît-il, ce petit sacrifice. Industries et politiques utilisent l'alibi de la guerre aux "pirates", aux pédo-nazis, aux terroristes et à tous les fauteurs de troubles qui hantent le réseau, pour masquer l'essentiel : les intérêts financiers des intermédiaire de la culture de masse, et de Microsoft sont supèrieurs aux libertés et aux droits fondamentaux des internautes, des auteurs, des producteurs de savoirs, des consommateurs et des individus. Et quand les industriels demandent , le gouvernement concède : obligation de stockage et de flicage, censure à la demande, perquisition des boites aux lettres, requalification de la correspondance privée, obligation d'identification, censure expéditive de l'information indépendante et militante, délation, filature électronique et fichage des "suspects" par des officines privées, CD et DVD verrouillés, colonisation des biens communs et des briques de base du savoir, prolifération des fichages policiers, délit de détention d'outils informatique, délit d'intention, inversion de la charge de la preuve... Les premiers intéressés - auteurs, créateurs, consommateurs, internautes, gens d'en bas ... sont eux à peine consultés, rarement entendus, jamais écoutés. Il est temps de dire que nous entendons conserver le libre choix des machines et des logiciels que nous utilisons, des données que nous échangeons, de la musique que nous écoutons, de ce que nous consommons et partageons. Que quoiqu'il arrive nous entendons rester libres de nous informer, d'exprimer nos critiques, nos opinions et nos mécontentements. Les lobbies se servent d'un gouvernement complaisant pour nous museler ? Mais il sera peut-être plus difficile qu'ils ne pensent de faire taire tous ceux qui, au jour le jour, sont les vrais acteurs de la production et de l'échange de contenus et de savoirs. Sur le Réseau comme ailleurs. Le 29 mai, contre le mur des lois liberticides _ Faisons le mur du son, sans contrefaçon !!! Venez nombreux et amenez de quoi faire du bruit le 29 mai 2004 Place du Colonel Fabien à Bastille Rassemblement à 14 H Place du Colonel Fabien La manifestation sera accompagnèe de deux camions équipés de sonos, sur lesquels joueront tout au long du trajet Miss Helium (Techno-Punk) et Antidote (Sound System techno). Toute oeuvre de l'esprit librement partagée par son créateur est la bienvenue sous quelque forme que ce soit. Une conférence de presse aura lieu le vendredi 28 mai à la maison des métallos, 94 rue Jean-Pierre Timbaud, 75011 Paris à 11H Contact : [ca AT lafil.org->http://www.vie-privee.org/contact.php?ca:lafil.org] _ Communiqué, tract (en .html, .txt; .rtf, .doc, .sxw), bannières, bandeaux et iconos : [->http://www.vie-privee.org/len2/]
2004-05-21 09:00:10
Communiqué de presse
http://www.vie-privee.org/len2/communique.html
On a failli y croire. On en rêvait presque, d'un web universel, libre et où la communication serait facilitée entre tous. Mais il faut se résigner au retour de la Tour de Babel. Alors que des centaines de milliers de professionnells d'Internet redoublent d'efforts pour développer les standards sur le web et oublier les incompatibilités introduites entre les navigateurs au cours des dernières années, de nouvelles offensives ont lieu pour contraindre l'internaute à choisir son camp et à adopter des solutions propriétaires qui réduiront radicalement toute marge de manoeuvre par la suite. Cette tendance, totalement à contre-courant de ce que proposent, par exemple [Openweb->http://www.openweb.eu.org] et [Mozilla->www.mozilla.org], est illustrée par l'événement commercial que constitue l'inauguration de la plateforme de vente en ligne "[VirginMega->http://www.virginmega.fr/]". Ceux qui souhaitent acheter de la musique en ligne afin de contenter les pourfendeurs des échanges Peer to peer auront la surprise de découvrir que le site est totalement inaccessible aux utilisateurs de navigateurs alternatifs à Internet explorer de Microsoft. Voici le message affiché lorsqu'on y accède avec Mozilla : «Bienvenue sur VirginMega.fr ! Le navigateur que vous utlisez (sic) ne vous permet de surfer sur ce site. Pour surfer sur ce site nous vous recommandons d'utiliser Internet Explorer comme navigateur.» Cela signifie-t-il qu'il est interdit d'utiliser Linux ou Unix pour acheter de la musique en ligne ? Qu'il est interdit d'utiliser Mozilla ou Camino sur Windows ou Mac OS X pour enrichir Richard Branson, patron emblématique de Virgin ? Deuxième mauvaise surprise : si vous avez eu l'idée saugrenue d'acheter un Ipod pour écouter vos musiques préférées dans le métro, n'achetez pas chez Branson mais chez Steve Jobs, car les plateformes Virgin et Apple sont incompatibles entre elles (guerre commerciale oblige) et proposent chacune des solutions propriétaires différentes. Le piratage a de l'avenir. [EDIT] Voici la réponse de Virginmega à une demande d'information. Bonjour, Nous tenons tout d'abord à vous remercier de l'intérêt que vous portez à VirginMega.fr. Le site Internet www.virginmega.fr est accessible à ce jour avec Internet Explorer (version 5.0 au minimum) sous OS/Windows. Dès le début du mois de Juin, les utilisateurs des navigateurs Netscape, Mozilla... , et du système d'exploitation Mac pourront découvrir la nouvelle offre VirginMega.fr (300 000 titres à télécharger). Nous restons à votre écoute pour tous problèmes de compatibilité. Merci pour votre compréhension. Bien à vous. Cordialement, L'équipe VirginMega http://www.virginmega.fr [/EDIT] Sj.
2004-05-22 00:00:00
VirginMega lance la nouvelle génération de plates-formes de vente en ligne
http://www.vnunet.fr/svm/actu/article.htm?numero=12338
L'informatique -ou Computer science dans les pays anglo-saxons, fait traditionnellement partie des cursus de formation scientifiques. La culture qu'elle véhicule semble alors radicalement étrangères aux sciences humaines qui semblent a priori rien n'avoir à dire d'intéressant sur les ordinateurs. Manfred Thaller, professeur à l'Université de Cologne défend le point de vue adversaire et tente de jeter les bases théoriques de ce qui pourrait représenter, à ses yeux, une véritable spécialisation disciplinaire : l'informatique pour les sciences humaines (humanities computer science). Dans son texte, qui représente en fait une intervention détaillée sur la liste de discussion consacrée au sujet, le Humanist Discussion Group, éditée par le Center for Computing in the Humanities, de King's College à Londres, Manfred Thaller tente dans un premier temps de dépasser les oppositions caricaturales entre les deux univers disciplinaires pour défendre ensuite l'utilité qu'une véritable formation à la jointure entre les deux peut avoir. On le sent clairement dans son argumentation : il s'agit de dépasser la problématique de l'informatique appliquée aux sciences humaines, comme simple outil pratique. L'informatique pour les sciences humaines doit entrâiner un mouvement réfléxif sur la manière dont ces disciplines produisent, traitent et manipulent l'information, de manière plus large que dans le contexte matériel des ordinateurs.
2004-05-22 17:20:40
Humanities Computer Science
http://www.openspf.de/space/Humanities+Computer+Science
Les auteurs d'articles scientifiques ont-ils le droit de mettre en ligne sur leur site personnel, ou, mieux, au sein d'archives ouvertes mises en place par l'université à laquelle ils sont affiliés, les textes qu'ils ont écrits ? Oui, vient de répondre un des mastodontes de l'édition scientifique internationale, Elsevier, qui règne sur plus de 1700 revues scientifiques. Dans une lettre adressée à Stevan Harnad, un des chercheurs les plus engagés dans le mouvement des archives ouvertes, l'éditeur hollandais confirme en effet qu'à l'avenir celui-ci autorisera ses auteurs à mettre eux-mêmes en ligne les versions "définitives" de leurs textes. Par version définitive (posprint), il faut entendre celle qui intègre les modifications demandées lors de l'examen en comité de lecture du texte. Il reste néanmoins, la nuance est subtile, que c'est la version d'"auteur", issue de son fichier Word, qui pourra être mise en ligne, et non le fichier PDF fabriqué par l'éditeur, que l'auteur aurait par la suite téléchargé à partir de ScienceDirect, la base d'Elsevier. "Elsevier will continue to be the single, definitive archive for the formal published version.", conclut ainsi Karen Hunter, un des directeurs d'Elsevier, dans sa lettre à S. Harnad. Ces restrictions soulèveront de nombreuses critiques, remarque le chercheur dans le commentaire qu'il publie sur une des listes de discussions consacrée au sujet. Pour sa part, il considère au contraire que désormais les choses sont claires et que c'est à la communauté scientifique de saisir l'occasion qui lui est donnée. On peut aussi s'interroger sur ce que cette décision peut révéler du positionnement stratégique que les grands éditeurs scientifiques s'apprêtent à prendre dans le contexte d'une diffusion de plus en plus importante de l'information scientifique par l'intermédiaire des réseaux numériques. On remarque que le modèle économique sur lequel ils parient repose désormais sur l'agrégation de contenus (des bases non pas institutionnelles mais disciplinaires) et la maîtrise du processus de certification, dont la garantie s'"incarne" en quelque sorte dans le travail de mise en page (et donc aussi de pagination qui "verrouille" le processus de citation) et de mise en forme. Merci à [Open Access News->http://www.earlham.edu/~peters/fos/fosblog.html] où nous avons découvert cette information
2004-05-28 10:29:22
Elsevier Gives Authors Green Light for Open Access Self-Archiving
https://mx2.arl.org/Lists/SPARC-OAForum/Message/759.html
Depuis 1999, le fédération de revues scientifiques Revues.org fournit aux revues françaises de sciences humaines et sociales un modèle de publication en ligne fondé sur le libre accès aux données scientifiques, le respect des standards techniques du Web ainsi que l'autonomie des rédactions dans leur démarche de publication. Patiemment construit à partir d'une expérience locale, l'ensemble fédératif regroupe désormais 31 revues en ligne réparties sur l'ensemble du territoire, cumulant près de 250000 visites par mois. Au delà des chiffres cependant, c'est l'envergure qualitative du projet qui frappe aujourd'hui l'attention. En amont, Revues.org s'appuie sur un logiciel d'édition électronique, Lodel, dont elle a soutenu fortement le développement. Sur le point d'arriver à maturité, Lodel, dont nous reparlerons bientôt ici, constitue une solution loin d'être inintéressante pour les pratiques de publication sur Internet. Fonctionnant sur le principe des logiciels de gestion de contenus (CMS), Lodel orchestre la coopération entre les différents corps de métier (rédacteurs, secrétaires de rédaction, maquettistes, informaticiens)tout au long de la chaîne de publication. En aval, Revues.org complète son offre de publication pour les revues, d'une véritable stratégie de diffusion au sein d'un portail rassemblant, outre les accès aux revues, un moteur de recherche spécialisé ayant pour vocation d'indexer l'ensemble des publications francophones en SHS, un agenda en ligne, ainsi qu'un annuaire raisonné de liens scientifiques, l'"album", qui vient justement de subir une refonte complète. L'ensemble du projet est orienté par le principe de la mutualisation des ressources et des compétences, c'est-à-dire, très précisément, un modèle d'appropriation et non de délégation de la maîtrise des outils technologiques. Dans les prochaines semaines, Revues.org sera présent à Lyon, Paris et Aix-en-Provence où sont organisées des présentations publiques de la fédération.
2004-05-28 17:42:52
Présentations publiques de Revues.org
http://www.revues.org/presentations-publiques.html
Adoptée dans la plus parfaite indifférence du grand public, la LEN censée enfin jeter les bases d'un "droit de l'Internet" dont la France aurait besoin, révèle, jour après jour, ses multiples défauts. Députés et sénateurs socialistes ont déjà saisi le conseil constitutionnel sur plusieurs des points les plus critiqués : instauration d'un régime de justice privée, remise en cause du secret des correspondances par e-mail, inégalité du régime de prescription pour la presse en ligne et la presse papier. Dans un mémoire remis il y a quelques jours au Conseil Constitutionnel, les deux associations de défense des droits civiques IRIS et la Ligue des Droits de l'Homme attaquent cette même loi sur d'autres sujets : pour l'essentiel, l'ensemble de l'architecture de la loi repose sur la définition d'une notion juridique nouvelle, la communication au public par voie électronique, se divisant en deux types de communication distincts : la communication audio-visuelle et la communication en ligne. Tout l'objectif de la loi est donc de pouvoir définir un régime juridique particulier à Internet, qui ne soit pas hérité des dispositions affectant l'audio-visuel. Pourtant, remarquent les auteurs du rapport, il est étonnant de constater que nombre de dispositions, notamment celles qui restreignent la liberté de communication, s'appliquent aussi bien à l'un qu'à l'autre régime. Ainsi en va-t-il dans la loi des restrictions pour des motifs tels que "les besoins de la défense nationale, les exigences de service public, et les contraintes techniques inhérentes aux moyens de communication". Toutes ces exceptions, remarquent les deuxs associations, sont justifiés par exemple dans le contexte de la rareté des fréquences utilisables, et n'ont aucune justification pour la communication en ligne. Plus profondément, c'est l'ensemble de la loi qui est entaché d'une confusion constante entre les deux catégories de communication.Cette confusion, relèvent-elles, sera source d'une incertitude juridique qu'il convient de censurer. Plus grave : l'article 14 de la loi définit de manière excessivement large la définition de la notion de "commerce électronique", puisque celle-ci s'applique aussi à la fourniture d'informations en ligne, que celle-ci soit rémunérée ou non. La conséquence d'une telle définition est que n'importe quel site web, y compris particulier, est assujeti aux contraintes particulières du code de commerce et aux règles de la concurrence, imposant des limitations inacceptables au droit d'expression. Dernier point relevé par les deux associations : la création d'un régime des "repentis de la cryptographie" est contraire au principe de la présomption d'innocence puisqu'il inverse la charge de la preuve en contraignant l'accusé à s'accuser lui-même afin d'espérer échapper aux circonstance aggravantes que constituent l'usage d'un moyen de cryptographie dans la préparation d'un crime.
2004-05-28 23:31:31
Mémoire IRIS-LDH sur la LEN
http://www.iris.sgdg.org/actions/len/LEN-memoireCC-IRIS-LDH.pdf
Cela devient lassant. Année après année, on pourrait penser que les développeurs de sites, surtout lorsqu'il s'agit de service public, portent une attention plus grande aux questions d'accessibilité, à la compatibilité de leur plate-forme avec les principaux systèmes et navigateurs présents sur le marché. On pourrait penser que les administrations et entreprises publiques ne se permettent plus d'adopter une attitude aussi désinvolte que, disons, au hasard ... [Virgin->http://www.homo-numericus.net/breve.php3?id_breve=486]. Et bien non. La poste qui lance ces jours-ci son nouveau service de lettre recommandée électronique interdit l'accès à ses pages à tout ce qui n'est ni Internet Explorer, ni Windows. C'est à la communauté des fidèles de Framasoft, un site de référence consacré à l'utilisation de logiciels libres, qu'il revient d'avoir découvert le pot aux roses. Et les commentaires ne sont pas tendres de la part d'usagers défendant le principe d'une pratique informatique citoyenne. Par ce simple choix de l'exclusivité technologique, La Poste gâche tous ses atouts. Car a priori, le nouveau service a tout pour séduire : il permet en effet de poster directement à partir de chez soi un document en envoi recommandé, à partir de sa version électronique (sous forme de fichier) que l'on envoie par Internet sur un site spécifique. La Poste se charge de l'imprimer et de la porter au destinataire exactement comme s'il s'agissait d'un recommandé classique. Tout le système repose donc sur un système de "cachet électronique", faisant preuve pour la date d'envoi, et archivé pendant trois ans. C'est en tout cas ce que promet la présentation du service consultable à partir du site de la Poste. Pour les tests en revanche, nous n'avons pu dépasser le stade du deuxième écran : "Le service que vous souhaitez utiliser nécessite dans sa configuration actuelle le navigateur Internet Explorer de Microsoft, à partir de sa version 5. Vous pouvez télécharger le navigateur Internet Explorer 6.0, fourni avec le système d'exploitation Windows.". Et si je n'ai pas Windows ?
2004-05-30 00:52:35
L'information sur le forum de Framasoft
http://www.framasoft.net/forum/viewtopic.php?t=899
Afrinic ; c'est le nom du nouveau registry dont vient de se doter le continent africain. Jusqu'à présent, lorsqu'un opérateur implanté sur le continent, typiquement un fournisseur d'accès, voulait se voir attribuer un bloc d'addresses IP afin de les redistribuer à ses clients, il devait s'adresser aux registries européens ou américains. Ce ne sera plus le cas dans un proche avenir, puisque l'Afrinic, implanté sur l'Ile Maurice, est actuellement dans une phase de test préliminaire à sa reconnaissance opérationnelle par l'ICANN. L'Observatoire des Systèmes d'Information, les Réseaux et les Inforoutes au Sénégal explique ce que cela va changer pour les opérateurs et usagers africains de l'Internet.
2004-06-04 10:39:39
Internet : AFRINIC, enfin un organisme africain pour gérer les adresses IP
http://www.osiris.sn/article1044.html
Voilà, je me lance. Il y a quelques mois, j'avais acheté 2CD de Mandrake Linux 9.1, puis téléchargé et gravé le 3e CD, qui s'était rapidement révélé indispensable... mais je m'étais arrêté en chemin et étais revenu à Windows. Alors, au lieu de me lancer dans l'achat ou le téléchargement d'une Mandrake 10, qui m'aurait fait patienter et repousser à nouveau mon passage sur Linux, j'ai décidé de profiter d'un remaniement <strike>ministériel</strike> de matos, c'est-à-dire l'arrivée d'un deuxième PC à la maison pour repartir à zéro. L'histoire est simple. Mon fiston, 3 ans, me chauffe les oreilles à vouloir jouer à Adiboutchou et à vouloir regarder Winnie l'Ourson sur l'ordinateur de son père... Alors j'ai acheté un Athlon 1800XP+ doccasion pour lui donner ce qu'il demande, et pour m'offrir un formidable jukebox quand il n'est pas là, soit 1 jour sur 2, tout de même. Il a fallu transférer le disque de 80Go de mon Dell principal pour l'adjoindre aux 30Go de l'Athlon assemblé à vocation enfantine et musicale. Ca fera 110Go pour mettre des MP3, des DivX et des Adibou en quantité, s'est dit le jeune papa. Ni une, ni deux. On désosse le Dell, ne lui laissant plus qu'un seul disque, 40Go. Il faut réinstaller <strike>windows</strike> un OS. Non, soyons fous, installons-en deux. Windows sur 10Go. Linux sur 30Go. Dans mes précédentes tentatives je faisais l'inverse : la part du lion pour windows, une petite part pour le pingouin. Hum, c'est un signe. Espérons que je réussisse, cette fois... D'expérience, je sais à présent que Windows cohabite bien avec Linux à condition que Windows soit cajolé. Alors il faut deux choses pour ne pas trop galérer. D'abord, comme tous les enfants capricieux, Windows veut s'installer en premier. Il prend ses aises. Il s'étale. Linux se fera tout doux par derrière. Et puis surtout, surtout, ne pas croire que windows s'installe sur n'importe quelle partition. Il y a quelques mois, j'ai échoué à cause de ça. Quel idiot, de penser que windows peut s'installer sur une partition secondaire... Non, non, ce n'est pas sérieux. Et quand vous avez installé linux, installé windows, crashé linux à cause de ça, et que windows refuse de démarrer, deux ou trois fois, il y a des claques qui se perdent... et vouavez perdu tellement de temps que vous formatez tout, d'un seul bloc, et le premier windows qui passe vous l'installez. Ca prend encore 2 heures, et ensuite votre machine est vierge et pauvre, vous n'êtes pas fier, mais bon, ça marche... Passer à Linux, c'est comme arrêter de fumer, on sait que c'est bon, mais il faut y passer, c'est dur et long, on n'y parvient jamais la première fois... C'est à la lumière de cette triste expérience que j'ai pris les bonnes dispositions cette fois-ci. Eh oui ! Donc. D'abord, Windows XP Pro, sur ce qu'il appelle le disque C: Une installation minimale, pour ne pas se donner la tentation d'y revenir. A peine un accès au réseau, aucun traitement de texte, un vague client de courrier électronique, mal configuré. Voilà. Ensuite, place aux choses sérieuses. Linux Mandrake 9.1. Les mots du jour - <a href="http://www.linux-france.org/prj/jargonf/L/Linux.html">Linux</a> - <a href="http://www.linux-france.org/prj/jargonf/W/Windows.html">Windows</a> - <a href="http://www.linux-france.org/prj/jargonf/M/Mandrake.html">Mandrake</a>
2004-06-05 15:41:55
http://
Linux, ça fait longtemps qu'on en cause. Qu'on pense que c'est urgent et nécessaire. Je ne vous referai pas ici le topo sur "Pourquoi un système d'exploitation libre ?". Passons aux autres questions : "comment Linux ?" Et surtout "Linux ? Pour de vrai ?" Soyons sérieux. Si les raisons de passer de Windows à Linux sont nombreuses, ce qui compte, c'est de savoir si ça peut se faire. C'est-à-dire, en l'espèce, si je peux vraiment y arriver, sans y perdre, éventuellement même en y gagnant. Le cahier des charges est donc exigeant et rigoureux. D'abord, il faut qu'allumer son ordinateur le matin ne soit pas une souffrance. Que faire des choses banales aujourd'hui soit vraiment banal. Pas une épopée. Le simple fait que je pense qu'écrire ce blog est nécessaire est, en soi, un signe inquiétant... Ensuite, il faut que toutes les tâches de bureautique classique soient possibles, faciles et fiables. Faire du traitement de texte, un peu de tableur, beaucoup de courrier électronique, beaucoup de web. Mais aussi visionner des DivX, écouter des MP3, administrer mes divers sites facilement en ligne. Donc faire du ftp fastoche (pas en ligne de commande, s'il-vous-plaît, merci), faire du découpage d'images, de la récupération de photos issues de mon appareil photo numérique, partager mes données facilement avec un PC servant de jukebox, graver des CD audio et vidéos, éditer des maquettes de sites dynamiques avec un éditeur de code, générer du PDF, utiliser mes deux écrans facilement, cohabiter en douceur avec mon poste au bureau qui reste sur Windows, et, plus largrement, avec tous les potes et relations de boulot, qu'ils soient sur Windows ou sur Max OS 9 ou X. Et surtout cohabiter avec moi-même, qui ai vécu en Amiga de 1987 à 1990, en Macintosh de 1993 à 1997, en PC de 1997 à aujourd'hui... et ai produit plusieurs Go de courriers, de fichiers, d'images sur lesquels je ne veux pas tirer un trait. Le tout, bien sûr, sans y passer des plombes et des nuits, sans me mettre à fumer et à tourner au café, sans être traversé de tics incontrôlables avant chaque action sur ma machine, sans devenir un féru de la ligne de commande, sans abandonner ma souris et mon sourire, sans renoncer à draguer en ville, sans tirer une croix sur le cinoche et la lecture. Bref, je voudrais éviter de devenir quelqu'un d'autre en tronquant ma servitude Billesque par une liberté asservie à un système d'exploitation immature... C'est dit : Linux, je te veux, je te prends. Mais je veux voir si je peux t'apprivoiser. Je te serai infidèle si la vie avec toi n'est ni sensuelle ni facile. A la guerre comme à la guerre. Tu le sais, de nos jours, les affaires du coeur tiennent souvent dans une petite cassette qu'on appelle tirelire. Et comme les bons comptes font les amours durables, je ne vivrai pas à crédit par chez toi. Tu es prévenu. Maintenant, déshabillez-moi. Le mot du jour : Linux [Linux, on fait le saut ?->http://www.framasoft.net/article2119.html] [ Le livret du libre->http://www.framasoft.net/article2539.html]
2004-06-01 00:00:00
http://
J'avais peur. J'étais tétanisé. Je m'interdisais presque d'y penser. Avoir des périphériques USB qui ne soient pas hors d'âge qui tournent sur Linux... diable ! diantre ! Que nenni ! Ce ne peut être possible ! Je me rappelle ma première tentative, douloureuse, en 1999... Avec une Red Hat... N'en parlons plus. Et tout d'un coup. La lumière. Pof, une imprimante Brother 1450 USB. Zoup. Détectée, configuré, le panard. Et même... un appareil photo numérique Canon Powershot A70 ! Du premier coup! J'ai sans doute eu la bonne intuition... mais ça a marché. Oui : j'ai lancé GTKam, me disant que ce soft m'aiderait. Et bien oui ! Il vous propose une impressionnante liste d'appareils, vous sélectionnez le vôtre, il trouve le bon port USB, importe les images sans coup férir. Rien. Aucun problème. A se désespérer d'écrire un blog dédié à Linux pour de vrai... si c'est aussi facile ! Allez, patientons, car l'expérience de demain sera probablement moins amusante... Le suspense est intense.
2004-06-07 20:46:01
http://
Sur Linux, l'utilitaire de partition du disque dur proposé au démarrage de l'installation est bien fait, vraiment. Mais on se dit que ma mère et ma soeur n'installeront toujours pas linux demain... Bah... c'est la vie. Mais à moi aussi, il m'a posé problème.Au début, j'ai été bêtement naïf. J'ai pensé bien faire en procédant ainsi : - une partition système dans le format linux de la mort, dont j'ai déjà oublié le nom, mais qui plait bien : journalized file system, je crois. [Après vérification dans "Configurer votre ordinateur" / "Points de montage" / "Disk drake", il s'agit du format ext3 : "Journalized FS : ext3". Il fallait le <strike>deviner</strike> savoir...]. - une partition swap. En 1999, quand j'avais tenté ma première installation, je savais déjà que Linux aimait les partitions swap. Même si on devine vaguement que ça sert de cache sur le disque dur, ce machin l'aide on ne sait pas trop à quoi, mais il aime ça. "Lili aime les sucettes / Les sucettes à l'anis". France Gall ne savait pas pourquoi, mais tout le monde adorait les sucettes à l'anis... - une partition /home en FAT 32. Le /home, c'est grosso modo le dossier "Mes documents" de Windows. Alors, le p'tit père se dit : "je vais formater en FAT32, le format de windows, comme ça windows pourra regarder mes données. Je ne serai pas autiste, je serai ouvert au monde. J'aime les gens, j'aime le monde. Tout le monde il est beau... <em>Et caetera</em>. Allons, bon. Fallait pas faire ça... mais Linux ne me l'a pas dit. Ben oui, la partition FAT32, elle est archaïque, il n'y a pas de gestion de droits dessus... Alors KDE ne parvenait pas du tout à démarrer. Je ne dépassais pas la fenêtre de login. Et il échouait à tous coups. Mince alors... Mais qu'est-ce que j'ai fait comme bourde? Ben t'as bourdé, mais Linux ne te dit pas comment résoudre le souci. Alors il faut faire appel à ton Mégageek. Toi, tu le sais, t'es un Geek. Mais un petit Geek des familles. Le gars qui sait monter, démonter un PC, sait ce que veut dire RSS et CSS, mais bon, qui ne mange pas du Shell à longueur de journée pour autant. Ca, c'est pour les megageek. Alors coup de fil à Mégageek. Sa femme décroche. "On mange, les ravioles sont chaudes, la viande est cuite, le vin débouché." Le Mégageek décroche malgré tout et se rend compte que j'ai bourdé. KDE ne parvient pas à écrire sur la partition, ça ne va pas. La preuve : ça marche quand je démarre avec le compte root, celui qui rend l'écran tout rouge pour rappeler qu'on peut tout casser... Alors me voici à relancer une installation, mais cette fois je mets /home dans / et du coup, la partition FAT32 n'est pas vitale, Linux ne va pas bloquer sur elle. Je n'ai pas vraiment compris *pourquoi* mais j'ai appris *comment*. Bref, une seule réinstallation et tout roule. On est loin de 1999, mais sans Mégageek, je n'aurais pas trouvé pourquoi ça chiait dans la colle... Linux ne m'a pas beaucoup aidé sur ce coup-là. D'après Mégageek, j'ai choisi l'option simplifiée au démarrage, mais soudain je me suis comporté comme un Geek qui sait ce qu'il fait, en débrayant, d'une certaine façon, la logique de l'assistanat... Et là j'ai merdé. Bref, déjà plus un quidam de base, mais pas encore Mégageek, et ce profil n'a pas été pris en compte par Linux et ses adeptes. Heureusement que j'ai Mégageek. <strong>Un peu de vocabulaire :</strong> KDE est une des interfaces graphiques de Linux. Les plus connues sont KDE et GNOME. Une des grandes qualités de Linux, et son principal défaut, c'est de vous laisser le choix entre énormément d'applications et d'interfaces. Ca permet d'éviter le monolithisme de Windows, qui est à la fois un système d'exploitation et une interface graphique, le tout étant indissociable, mais ça rend la prise en main un peu moins évidente, parce qu'il faut sans cesse faire des choix. <strong>Les mots du jour : </strong> - <a href="http://www.linux-france.org/prj/jargonf/I/interface_graphique.html">Interface graphique</a> - <a href="http://www.linux-france.org/prj/jargonf/S/systegrme_de_fichiers.html">Système de fichier (file system)</a> - <a href="http://www.linux-france.org/prj/jargonf/P/partitionner.html">Partitionner</a> - <a href="http://www.linux-france.org/prj/jargonf/K/KDE.html">KDE</a> - <a href="http://www.linux-france.org/prj/jargonf/G/Gnome.html">GNOME</a>
2004-06-07 21:00:14
http://
- Mais alors, ce blog, tu ne vas pas le tenir longtemps ? - Ben oui, tu comprends, l'idéal serait que je sois bientôt sur Linux comme sur un Mac avec Mac OS ou un PC avec Windows, c'est-à-dire avec des petits soucis quotidiens, mais rien de plus, éventuellement même quelques soucis de moins. - Ca va durer combien de temps pour y parvenir ? - Ce qui est amusant, c'est que je n'en sais rien.
2004-06-10 09:46:13
http://
Hardi, les gars. Un déplacement d'une semaine et voilà linux qui s'endort sur ses lauriers, loin, là-bas, à la maison. Il se couvre de poussières, s'endort du sommeil du juste, et cet hiver linuxien n'est pas bon pour le suspense de ce blog... Comment le maintenir ? J'ai emporté avec moi mon ordinateur portable. Vingt pauvres Giga-octets, une machine pleine à ras bord, quelques inquiétudes sur la gestion de l'économie d'énergie... Bref, je manque de courage. Il faut d'abord les graver, toutes ces données. Formater. Partitionner. Faire une install de Windows sur une petite partition. Faire une install de Linux sur une grosse. Espérer que l'Asus S1300 que j'ai sera bien supporté. Bref, il faut que je "mise" quelques heures sur ça, probablement une journée. Allez, du courage... Commençons pour télécharger les 3 CD de Linux Mandrake 10. Chercher un graveur chez un pote dans le coin. On verra ensuite.
2004-06-12 13:54:15
Mandrakinux.com
http://www.mandrakelinux.com/fr/
Firefox, OpenOffice.org, DeadFTP... trois logiciels dont j'ai besoin et qui plantent plus souvent qu'à leur tour! J'ai appris à tuer les applications en tapant dans la Konsole "xkill" et ensuite en cliquant sur la fenêtre de l'application qui ne répond plus. Mais ça ne me ravit pas pour autant. Je n'ai pas installé Linux pour faire mumuse ou pour démontrer ma bravoure geekienne. Vais-je me décourager ? Non. Ce qu'il faut, c'est que je comprenne ce qui ne va pas. Causeries avec MégaGeek. - - Tu utilises Mandrake 9.1., qui est notoirement instable. - Ah ben ça alors ! Pas de bol... <img46|center> Bon, n'en jetez plus, je vais tenter de passer à Mandrake 10. Mais comme on me dit que les processus automatiques de mise à jour ne sont pas fiables, je vais tout reprendre. Un brin de découragement. Mais pour ce faire, je me décide à utiliser Linux pour préparer tout ça. Et le téléchargement puis la gravure de l'image des 3 CD de Mandrake 10 se passe sans problème. Dans le menu Applications / Archivage / Gravure de CD / on trouve K3B, un logiciel de gravure au nom aussi imbitable que son interface est simple d'utilisation.<img45|left> Voilà, c'est gravé. Je vais bientôt disparaître. Sans doute vais-je réapparaître avec l'allure de Mandrake 10 ? Qui sait... Le suspense est insoutenable...
2004-06-18 00:00:00
http://
La faute à pas d'chance. Les trois CD gravés n'étaient pas bons. L'installation provoquait dans les 10 premières secondes une sale erreur bien incompréhensible, se résumant à une I/O error (input / output, ce qui signifie en clair erreur d'échanges entre périphériques). Ca vient probablement du serveur d'origine. 3Go téléchargés, mais incapables d'installer Linux. Après bien des questionnements, il a fallu se résoudre à jeter les CD, à télécharger à nouveau, à graver... et là... ça a marché. La suite quand ça marchera vraiment jusqu'au bout. Je suis dessus, là... J'vous laisse, j'ai du taff.
2004-06-19 14:44:25
http://
Voilà. Mandrake 10.0 téléchargée, gravée, installée. Installation en mode expert, pour demander au système d'installer le plus de choses possible. Et c'est vrai que ça installe vite et beaucoup. J'ai opté pour GNOME, qui me semble très intuitif et bien plus beau que KDE. On verra si je regrette ce choix. Je me lance et je vous raconte. Dans l'immédiat, je cherche Thunderbird sans succès. Sinon, le double écran est parfaitement détecté et j'en suis très content. A suivre.
2004-06-19 22:49:03
http://
Thunderbird pour Linux téléchargé sur Mozilla.org puis installé grâce aux RPM sans coup férir. J'ai tenté le même coup avec Gaim, sans succès, mais j'ignore pourquoi. Dans quelques heures, je repars pour un nouveau déplacement d'une semaine.
2004-06-20 12:37:35
http://
Puisque que je suis en déplacement, sans Linux, je peux continuer à préparer ma migration tranquillement en adoptant sur mon portable Windows des logiciels libres qui tournent sur plusieurs OS. Ces jours-ci, c'est au tour de The Gimp de servir de laboratoire. Pour redimensionner des images ou faire des modifications de base, Paint Shop Pro a une version d'évaluation qui est en général expirée quand on en a besoin... alors, face à la nécessité, on s'organise. Le site de The Gimp est encore très largement incompréhensible pour un débutant, mais une fois le programme d'installation pour Windows téléchargé, le logiciel s'apprend comme un autre logiciel. Je n'y ai pas consacré 1000 heures pour 100 fonctionnalités, mais la principale tâche dont j'ai besoin est, en général, le redimensionnement et le changement de format. Pour faire ça, pour l'instant, The Gimp est beaucoup moins effrayant ou déroutant que ce que je craignais.
2004-06-27 06:01:13
The Gimp
http://www.gimp.org/
Ben, Linux pour de vrai, c'est zéro linux ces temps-ci. Pour de vrai. Rentré 30 heures à peine à la maison, valises, réunions, points. Dodo. Autoroute des vacances. Ben voilà, Linux attendra. Il faut bien vivre. C'est ça, vrai, pour de vrai.
2004-07-02 23:35:15
http://
De retour d'un mois de vacances, me voici à pied d'oeuvre. Entre la peinture du salon et les papiers administratifs qui trainent depuis six mois, le turbin est là. Un copain m'a demandé de lui copier un CD audio original qui ne passe pas sur sa chaine. Il faut dire qu'il l'a acheté en Afrique et que, de toute évidence, la production de ce CD de musique locale est plus qu'artisanale. N'écoutant que mon courage, je lance le menu "Applications" de Gnome (décidément moins compliqué que KDE), je vais dans "Système" puis "Archivage" puis "Gravure de CD". Je prends K3B. Je n'ai qu'un lecteur. Je demande une copie de CD. C'est une affaire qui roule. Linux reconnaît le CD et me le joue, l'original comme la copie, impeccable. Espérons que la chaine de mon ami sera moins capricieuse avec cette copie. Au rang des énervements, il y a Thunderbird. Oui, le génial Thunderbird... Je vous raconterai plus tard.
2004-08-02 10:48:45
http://
Un des grands attraits de la suite Mozilla, c'est l'universalité. Ca tourne sur les trois grands systèmes : Windows, Max OS X, Linux/Unix. Avantage évident : Mozilla sert quasiment d'OS à lui tout seul, en livrant les outils véritablement essentiels que sont le navigateur (Firefox) et le logiciel de courrier électronique (Thunderbird). L'autre avantage, c'est la transparence du logiciel, qui permet de partager les mêmes comptes sur Windows et sur Linux. L'idée est simple : sur une partition de disque dur lisible par Windows autant que par Linux, on se dit qu'on va installer les comptes Thunderbird, histoire d'avoir toujours sous la main son logiciel de courrier électronique préféré, qu'on soit sur Linux ou sur Windows. Ca, c'est la théorie. J'ai sans doute pris de mauvaises habitudes en utilisant Eudora pendant 8 ans. Mais Thunderbird me fait criser terriblement... Pourquoi ne peut-on pas dire au logiciel qu'on a posé dans tel dossier l'ensemble de nos données? Pourquoi faut-il recréer tous ses comptes à la main, sur chaque Thunderbird? Saint lecteur, plus instruit et plus astucieux que moi, aidez-moi, dites-moi comment vous avez fait. J'ai beaucoup trop de comptes, trop de PC, trop peu de temps, et beaucoup trop de respect pour un tel logiciel, pour penser qu'il faut reconfigurer chaque compte pop à la main et, ensuite, lui indiquer dans quel dossier il devrait, logiquement, retrouver pépère l'ensemble des réglages que je vais de saisir pour la enième fois... J'en profite pour dire que, franchement, appeler les dossiers de chaque compte avec le nom du pop, c'est une connerie. Conséquence, moi j'ai 4 comptes qui s'appellent ainsi : pop.hebergeur.org, pop.hebergeur.org2, pop.hebergeur.org3, pop.hebergeur.org4. On a vu plus parlant, bon sang... Allez, j'vais faire dodo, peut-être que demain ce billet me semblera stupide et que j'aurai trouvé comment faire.
2004-08-03 01:24:37
http://
Anticapitalisme.net est un projet porté par Isabelle Stengers et Philippe Pignarre visant un publier un livre essayant de "penser le capitalisme, et les pratiques de résistance au capitalisme aujourd'hui". Le site se veut un espace de dialogue entre les auteurs du livre et les internautes. Ainsi, les lecteurs sont-ils appelés à contribuer par leurs remarques et commentaires au sein de forums associés aux différents chapitres du livre, en train de s'écrire. Il s'agit donc, pour les auteurs, de "tester l'utilisation du Web dans la création de nouvelles pratiques d'écriture". Plus encore, Anticapitalisme.net prétend s'inscrire dans une communauté, celle qui rassemble les différents mouvements altermondialistes, qu'il s'agit de "catalyser" : "Ecrire des livres fait partie de notre métier, mais celui-là n'est pas comme les autres. Ce que nous allons écrire, nous pouvons (et nous sentons que nous devons) le faire à cause de ce qui, depuis Seattle notamment, est en train de se chercher. Les idées que nous allons essayer de formuler, nous n'avons sur elles aucun « droit de propriété intellectuelle ». Et elles ne valent que si ceux et celles qu'elles peuvent concerner, non pas les acceptent (nous ne désirons pas faire l'unanimité), mais s?en emparent, les mettent à l'épreuve, s'en servent d'une manière ou d'une autre." écrivent les auteurs en guise d'introduction au projet. L'idée est fort intéressante. Les premiers contributeurs du forum n'auront cependant pas manqué de soulever immédiatement des questions troublantes : sous quelle licence les textes placés sur le site sont-ils publiés ? que sera-t-il fait des contributions de forum ? quid d'un possible conflit avec le contrat liant les auteurs dans le cadre d'une publication par un éditeur commercial, comme l'un des auteurs reconnaît incidemment en avoir le projet ? N'y aurait-il pas, comme le souligne un intervenant, une certaine ironie au regard du thème traité à ce que le projet repose sur une appropriation de textes en partie produits collectivement à l'occasion de discussions publiques ? Les réponses d'Isabelle Stengers à l'ensemble de ces questions sont inquiétantes et témoignent d'une certaine naïveté. Sa réticence à formaliser juridiquement une importante question de propriété intellectuelle qu'elle ne semble vouloir aborder que métaphoriquement (en invoquant par exemple "l'éthique GNU" qui n'a pas beaucoup de sens) au nom d'un "pragmatisme" qui finalement ne convient qu'aux auteurs est un peu étrange. Tout se passe comme si une cette critique-là du capitalisme avancé devait complètement ignorer la révolution qui se déroule sur le front de la propriété intellectuelle, ou du moins, l'appréhender avec beaucoup de maladresse et du coup, manquer en grande partie son objet en ne réfléchissant que très peu à ses propres modalités d'action.
2004-08-07 00:11:55
Anticapitalisme.net
http://www.anticapitalisme.net
L'utilisateur débutant de Linux que je suis est heureux de vous annoncer que sa clé USB est reconnue sans rien faire. Le disque apparaît sur son bureau GNOME comme par miracle. Je n'en rêvais même pas. Et pour démonter le volume, c'est vraiment plus simple que les multiples clics nécessaires avec Windows. Bouton droit. "Démonter le volume". Hop, c'est fait. Logique. Simple.
2004-08-07 20:09:51
http://
Le secteur de l'édition scientifique est, depuis quelques années, au centre d'intenses polémiques entre les différents acteurs qui l'animent. Pour différentes raisons, le coût d'abonnement aux périodiques scientifiques a fortement augmenté, entraînant un mouvement de réaction de la part des bibliothèques et de certaines institutions scientifiques appuyé en grande partie sur la publication électronique et en réseau des articles scientifiques. L'idée est simple : pour contourner le barrage financier que les éditeurs commerciaux opposent à la libre circulation de l'information scientifique, pourquoi ne pas mettre en ligne directement les résultats de la recherche scientifique en les rendant librement accessibles à tous ? Cette stratégie, dite de l'Open Access, gagne chaque jour de nouveaux partisans et inquiète de plus en plus les éditeurs traditionnels. Contrairement à ce qu'on a pu croire, la publication en Open Access est loin d'être à coûts nuls. Elle ne fait, finalement que déplacer le besoin de financement de l'aval (le coût de l'accès est supporté par le lecteur ou son représentant : la bibliothèque), vers l'amont (le coût est supporté par l'auteur ou son représentant : l'institution universitaire). C'est sur ce dernier point que Joseph Esposito appuie sa critique de l'Open Access dans la dernière livraison de First Monday. "The devil you don't know: The unexpected future of Open Access publishing" soutient le thèse pour le moins paradoxale que loin de faire chuter les coûts globaux de publication, l'Open Access conduira à ce qu'ils augmentent, à terme. A l'appui de sa thèse, Esposito pose une excellent question : L'Open Access est-il appelé à remplacer, ou a compléter le circuit traditionnel de publication ? Il est très probable, soutient-il, que ce mouvement crée en fait un nouveau marché, plutôt qu'il ne remplace l'ancien ; un marché fondé sur des besoins que ne satisfont pas les éditeurs traditionnels, comme la rapidité de l'accès à l'information scientifique ou le besoin de reconnaissance des auteurs. Mais ce n'est pas ce qui fera disparaître les publications les plus traditionnelles, dont tout le monde continue d'avoir besoin, comme outil d'évaluation, de validation ou plus simplement de prestige... Pire encore, soutient-il, ce nouveau marché entraînera une hausse constante des coûts de publication parce qu'il créera de nouveaux besoins dûs à la concurrence grandissante entre les auteurs en terme de visibilité pour leurs publications.
2004-08-09 11:25:20
The devil you don't know: The unexpected future of Open Access publishing
http://www.firstmonday.org/issues/issue9_8/esposito/
Pour diverses raisons, j'ai été, et je serai encore, éloigné de mon poste Linux pendant plusieurs semaines. D'où mon silence ici. Mon prochain portable sera, je m'y attellerai, en dualboot, et ainsi Linux me suivra partout. Mais en l'occurrence, je serai utilisateur exclusif de Windows encore tout le mois de septembre, au moins. Je modifie donc ma stratégie, en misant sur une migration dans Windows vers des logiciels fonctionnant aussi sur Linux. Etant, depuis longtemps déjà, un fervent adepte du navigateur Mozilla (et de son petit frère Firefox), il me reste à : - changer de client jabber (passer d'Exodus à GAIM, qui tourne sur Windows et Linux) - changer de client FTP (passer de l'excellent Filezilla à je ne sais trop quel client qui tournerait sur les deux plateformes) - passer de mon logiciel Palm Desktop à un équivalent sur Linux, synchronisable avec mon Palm, - passer de MS Office à OpenOffice.org, - passer de Paint Shop Pro à The Gimp, - essayer Emacs, - changer, surtout, de client email : passer d'Eudora à Thunderbird. Ce dernier chantier sera ma priorité. Mais l'affaire n'est pas simple. Plus que d'apprendre à se servir de Thunderbird, c'est surtout l'importation de mes courriels qui me préoccupe. Nouvelle tentative. Nouvel échec. La nouvelle version (0.7.3) a fait d'énormes progrès depuis ma précédente tentative, il y a six mois. Le logiciel ne permettait d'importer que des fichiers .mbx séparés : cela signifiait importer chaque correspondant constitué par Eudora, un par un. Désormais, il importe en bloc un compte Eudora. Mais mon dossier Eudora pèse 750Mo, documents attachés exclus. C'est l'ensemble de ma correspondance depuis 1998. J'y tiens. Ze veux et zexige que l'ensemble de ma correspondance soit récupérée complètement. L'importation semble bloquer sur la boite "out", produisant des dizaines d'erreurs ("Sending of message failed. Error writing temporary file"). et me demandant de confirmer par un "Ok" archipénible. Au bout d'une cinquantaine de pressions sur "Entrée" pour répéter "Ok", "Ok", "Ok", j'ai renoncé et tué la tâche Thunderbird (aucune autre façon de sortir de ce cercle infernal). Je referai quelques tests et vous en parlerai. Notez que les développeurs de Mozilla / Thunderbird demandent des retours d'utilisateurs, pour atteindre enfin la version 1.0 (voir le lien ci-dessous).
2004-09-05 10:05:48
Thunderbird Migration Bugday on Tuesday (c'était en août dernier)
http://www.mozillazine.org/talkback.html?article=5146
Il y a un an, Jon Noring, un des spécialistes en matière de Ebook, analysait [de manière pertinente->http://12.108.175.91/ebookweb/OEBPSstandard] les raisons pour lesquelles le livre électronique avait connu un échec auprès du grand public, mais aussi des éditeurs : des technologies de lecture faibles, incompatibles entre elles, et peu ergonomiques du fait des systèmes de gestion de droits trop compliqués. En un mot, résumait-il dans son article, les logiciels de lecture de Ebooks font travailler lecteurs et éditeurs en conflit plutôt qu'en coopération, dans un contexte de guerre permanente entre éditeurs de logiciels, en particulier Microsoft et Adobe. Aujourd'hui, Jon Noring fait partie d'une équipe qui tente de mettre au point un lecteur de ebooks open source, appuyé sur des standards ouverts, fonctionnant sur un grand nombre de plate-formes. Le travail entrepris au sein du consortium a pour objectif de définir d'un coté un format encapsulant un framework de représentation des publications, et de l'autre de développer une appplication multi-plateforme utilisant ce format. Annoncé comme reposant sur le langage XML, le format OpenReader supportera le format XHTML+CSS, mais aussi le format OEPBS msi au point par l'Open ebook Forum au sein duquel Noring travaille activement. C'est peut-être un des points les plus intéressants du projet : bien qu'OpenReader ne soit pas un lecteur HTML de plus (le site du consortium insiste sur ce point), il s'inscrit dans des cadres technologiques qui en sont proches, avec, en particulier, la compatibilité XHTML, contrairement aux lecteurs existants, qui créent une opposition technologique artificielle entre documents publiés sur le web et ouvrages diffusés sous forme d'ebooks. Un projet à suivre attentivement donc.
2004-09-07 22:00:56
OpenReader Consortium
http://openreader.org
CITI, citoyens d'Internet est une initiative du gouvernement de Wallonie soutenant financièrement les projets de développement de la citoyenneté et de renouveau du débat démocratique par l'intermédiaire des TIC. Cet appel à projet, fortement lié à l'idée de démocratie électronique, l'interprète davantage comme un accroissement de la dimension délibérative de la vie démocratique que comme la mise en place de procédures de votes électroniques, commme on le fait souvent en France. Chaque projet peut se voir attribuer jusqu'à 4500 euros, ainsi qu'un soutien en terme d'hébergement, de communication et d'organisation. CITI est une initiative de la structure Wall-On-Line, chargée des missions d'e-gouvernement wallon. La clôture des candidatures est fixée au 17 septembre.
2004-09-07 22:42:56
CITI, citoyens d'Internet
http://citi.wallonie.be/
Au croisement de la démocratie locale ou associative et de l'écriture en réseau est née la notion d'"écrit public", qui peut être défini comme la production de débats, d'information, de connaissances dans un cadre collectif renouvelé et élargi par l'usage des nouvelles technologies. Mal cernée, peu connue, la production foisonnante d'"écrits publics" de toutes sortes en France est en croissance continue, par la diffusion d'outils simples à manipuler et ne demandant que peu de ressources matérielles. Il était temps que cette activité fasse l'objet à la fois d'observations, de réflexions, mais aussi de mutualisation et de promotion par l'intermédiaire d'un site-ressource, tête de pont d'un véritable réseau des acteurs et observateurs du domaine. C'est désormais la cas avec ecrit-public.net, créé tout récemment à la suite du premier forum des usages coopératifs organisé cet été à Brest. Brest+NTIC+démocratie et citoyenneté ; on ne s'étonnera pas de trouver Michel Briand au coeur de l'initiative. L'adjoint au maire de Brest, en charge des nouvelles technologies est en effet un des acteurs les plus intéressants de l'Internet citoyen, avec son initiative @Brest. Mais il n'est pas seul ; et la présence de Valérie Peugeot, pour VECAM, d'Hubert Guillaud animateur du blog du Romanais, mais aussi veilleur émérite de la FING, ou encore de Jean-Luc Raymond, observateur et acteur incontournable de la blogosphère française, sont autant de gages sur la qualité de l'initiative. Souvent ignoré et méprisé, l'écrit public a besoin d'être reconnu comme un des outils légitimes d'exercice de la citoyenneté. Le réseau mis en place autour de ce site doit aussi jouer ce rôle de légitimation, contre la menace d'une sclérose durable de la vie politique en France. Personne n'a intérêt à voir perdurer une situation où, d'un côté, une multitude d'inititiaves locales demeurent invisibles au niveau national et finissent donc par s'essoufler faute de relais de plus grande ampleur, et de l'autre un débat public généraliste tournant à vide, transformé en spectacle médiatique et soigneusement déconnecté des questions concrètes où s'aiguisent les contradictions de notre société. Ecrit-public.net est un site indispensable.
2004-09-09 22:00:37
Ecrit Public
http://www.ecrit-public.net/
Après avoir fouré mon nez dans l'espace de déclaration de bugs liés à Thunderbird sur Mozilla, j'ai trouvé un malheureux compère ayant signalé mon problème. Mais ce compète s'est trouvé incapable de décrire assez précisément le bug. Il survient, il faut le reconnaître, dans des cas particuliers. L'équipe de développement de Thunderbird l'a donc classé sans suite, pensant à une erreur lors de la déclaration. Malheur à eux. Je vais donc m'employer à leur indiquer qu'il y a _vraiment_ un problème. C'est ça le libre: participer, si l'on peut, aux signalements de bugs, aux idées, à la circulation de l'information, à l'explication; bref: s'impliquer. Mais puisque cela prendra du temps, j'ai dû me résoudre à faire cohabiter Eudora avec mes anciens mails et Thunderbird avec tous mes mails à partir de maintenant. Sur Linux, Kmail lit directement, sans import, le format mbx et pourra donc simuler Eudora. Donc je me jette à l'eau : me voici sur Thunderbird, à recréer mes centaines de boites et mes centaines de filtres. L'impression est à la fois intense, car je peux en profiter pour repenser mon organisation de mails, qui est le coeur de mon métier, et déroutante, car on ne change pas huit ans d'habitudes avec Eudora en un seul clic, d'autant que deux ou trois comportements du logiciel sont un petit peu particuliers. Mais c'est surtout agréable: le système antispam est redoutable, pour peu qu'on prenne le temps de lui faire la leçon; l'affichage des mails par thread représente un énorme gain de clarté dans la lecture; le fait de n'avoir à renseigner qu'un seul réglage SMTP pour tous les comptes est, pour un nomade comme moi qui doit changer cette configuration jusqu'à 4 fois (bureau, GPRS, maison, bureau Paris), un gain notable. Bref, m'y voici, même si c'est encore sur Windows.
2004-09-11 07:24:20
http://
Disons-le, j'ai la poisse. Mon mode de vie nomade s'étant accéléré, j'ai décidé de ne miser que sur mon ordinateur portable. Mal m'en a pris, car samedi dernier, mon disque a fait tchac tchac et puis plus rien... Récupérer des sauvegardes datant de dix jours n'est pas amusant et il faut attendre la réparation. Bref, j'ai installé des Thunderbird un peu partout sur les postes qu'on a bien voulu me prêter une heure ou un jour, sans filtre, de façon très sauvage, juste pour lire mes emails. J'en ai profité pour constater que ce n'est pas pour rien que Thunderbird en est à la version 0.8. Le logiciel progresse, mais il n'est pas encore totalement mûr. Il me semble inutile de lister les petits et gros problèmes de ce logiciel. En revanche, au vu des progrès réalisés de version en version, je suis convaincu qu'il va devenir, comme Mozilla, un des rouages majeurs d'une migration généralisée vers le libre, sans douleur. Et si demain je causais d'OpenOffice.org?
2004-09-25 14:32:05
http://
Issu du projet Mozilla, le client de messagerie Thunderbird avance à grands pas, tout comme son compagnon, le navigateur Web Firefox. Récemment la version 0.8 du logiciel a été diffusée, version dont la traduction française peut désormais être téléchargée. Outre les résolutions de bugs, cette nouvelle "release" offre des fonctionnalités supplémentaires : un mode de recherche rapide plus complet d'abord, permettant d'effectuer des requêtes dans le corps de texte, directement à partir de la liste des messages. Par ailleurs, il semble que les fonctions d'import à partir d'autres clients mails soit plus complète que précédemment. Enfin, et ce n'est pas la moindre des choses, Thunderbird lit désormais des flux de données au format RSS. D'un point de vue purement technologique, l'innovation est très faible ; du point de vue des usages, il en va tout autrement ; car faire l'expérience d'une lecture de fils RSS avec visualisation des pages HTML correspondantes dans son client de messagerie habituel vaut le détour : Lors de la première utilisation de cette fonctionnalité, Thunderbird crée un nouveau dossier de compte "Nouvelles et Blogs" dont on gère les abonnements un peu comme un compte Usenet, mais sans liste prédéfinie bien sûr ; chaque nouveau site syndiqué a son propre sous-dossier, dans lequel on trouve une entrée par article ou post. Lorsqu'on clique sur le titre de l'article, c'est ou bien le résumé qui s'affiche, ou bien la page Web auquel il fait référence, dans le panneau de prévisualisation ; exactement comme un mail. Il est possible de manipuler et de classer ces éléments comme s'il s'agissait de messages. Le rafraîchissement des fils d'information se fait en même temps et par la même action que la relève des comptes mails. Rapprocher ainsi le service RSS du mail est une innovation très intéressante car elle s'appuie sur des points communs entre les deux vecteurs d'information : la nouveauté. On s'intéresse aux nouveaux articles, comme on regarde en priorité ses nouveaux messages ("You've got new mail"). Du coup, on se rend compte que le Web, et les navigateurs qui le parcourent, ne sont pas du tout adaptés à la logique du RSS ; car conçu comme un outil documentaire, le Web s'intéresse finalement assez peu à la chronologie de l'information, ni même à la notion de nouveauté (c'est pourquoi on est obligé de mettre des "new" criards partout sur les pages Web lorsqu'on veut annoncer quelque chose) ; ici, c'est le client qui prend en charge cet aspect, à l'intérieur d'une interface unifiée. Il ne faudrait pas méconnaître l'impact que ce petit module peut avoir sur le comportement des utilisateurs ; car autant le RSS (et la notion de Web dynamique qu'il sous-tend généralement) semblait réservé à un petit groupe de spécialistes plus ou moins blogueurs, autant le mail touche tout le monde, de manière très large. C'est donc une véritable aubaine pour les producteurs de contenus, que de pouvoir porter leurs informations quasiment dans la boîte aux lettres de leurs lecteurs, y compris les plus rétifs à l'intérêt d'Internet comme source d'information. Pour les utilisateurs, c'est une reconfiguration de leur système d'information non plus autour de la division entre communication one-to-one (mail) et communication one-to-many (web), déjà bien mise à mal par les listes de discussion et les forums, mais autour de l'opposition entre une organisation événementielle de l'information (mail et RSS), et une présentation documentaire et thématique (web et moteurs de recherche). Un bémol mérite tout de même d'être opposé à cet enthousiasme : tout d'abord, de récentes statistiques indiquaient que les avalanches de virus et de spam sur les boîtes aux lettres des utilisateurs avaient tendance à les détourner du mail. Peinant à émerger des masses d'information non pertinente qui leur tombent dessus, peut-être ne voudront-ils pas en rajouter...Il faut les rassurer : Thunderbird est un des logiciels les plus efficaces de sa catégorie pour gérer ce genre de problème. Il peut alors constituer un formidable outil de veille, à l'écoute du monde et de ses vibrations.
2004-09-26 22:23:19
Thunderbird 0.8 en français
http://frenchmozilla.sourceforge.net/thunderbird/
Après deux ans de développements, un nouveau système de publication sur Internet, Lodel, vient d'être diffusé en libre téléchargement dans sa version 0.7 finale. Il est souvent important de savoir d'où vient un logiciel, au sein de quel type de communauté il a été conçu, pour en comprendre le mode de fonctionnement ; qu'il suffise de dire ici que Lodel a d'abord été créé pour répondre à des besoins d'édition électronique en sciences humaines et sociales pour la fédération de revues scientifiques [Revues.org->http://www.revues.org]. Cela explique pourquoi le logiciel est si bien adapté à la publication de documents complexes, fortement structurés, pour un affichage maîtrisé et validé. Le haut niveau de qualité du résultat final tient en effet aux réponses qui ont dû être apportées année après année aux critiques et exigences des différents corps de métier qui interviennent sur une chaîne de publication. Lodel est donc un logiciel qui s'est conçu et amélioré en permanence en situation de production. Tout l'enjeu de la diffusion de cette version est d'élargir le cercle des utilisateurs de Lodel, au delà des milieux professionnels où il est connu, sans rien céder sur les exigences de qualité. Un réel effort a été fait en ce sens, d'abord vers la simplicité d'utilisation (l'interface d'édition est limpide), ensuite vers la montée en généricité ; dans Lodel, tous les objets (dossiers, documents, publications) et leurs champs de description sont configurables par interface Web ; et l'ensemble de ces configurations peut être sauvegardé, exporté, échangé, importé. C'est ce qui permet au logiciel d'être utilisé dans des situations très diverses : revues, bases de documents, sites événementiels et même...[blogs->http://figoblog.ouvaton.org] ! Développé dans un contexte professionnel, Lodel repose sur une particularité qui paradoxalement risque fort de lui attirer les faveurs d'un large public : tout le travail d'édition des textes se fait dans un logiciel de traitement de textes (Word ou Open Office). C'est Lodel qui, ensuite, se charge de convertir le tout pour la publication Web. Lodel dispose d'un lecteur RSS et émet lui-même des fils aux formats RSS et Atom ; il comprend la syntaxe wiki, mais présente une grosse lacune dans le support d'interfaces de discussion : aucun système de forum n'est encore fourni par le logiciel. Autre défaut, mais de jeunesse celui-là : comme tout système de publication un peu nouveau, le logiciel n'offre pas une grande diversité d'habillages tout faits. Il permet en revanche aux concepteurs de sites de créer eux-mêmes leur propre habillage, grâce à un ensemble de gabarits et l'utilisation d'un langage de script intermédiaire, appelé Lodelscript. Le fonctionnement du système ressemble un peu à Spip. Pour quels types d'usages faudrait-il conseiller ce logiciel comme une solution possible ? D'abord lorsqu'on cherche bien davantage à publier dans des conditions optimales des documents ayant une certaine importance, plutôt que pour encourager la libre discussion et participation sur le Web. Ensuite, ce logiciel est parfaitement adapté lorsque les producteurs de contenu (les auteurs) sont peu habitués à l'utilisation du Web et de ses outils (ils se cantonnent à Word), ce qui nécessite l'intervention d'un ou plusieurs intermédiaires relativement calés dans la conception et la gestion de sites Web. Une bonne compréhension du Web dynamique est requise pour jouer ce rôle. Si l'on résume donc la configuration d'usage que représente Lodel par rapport à Spip (car la question se pose inévitablement), on pourrait symboliser la situation ainsi : |Caractéristiques|compétences auteur|compétences intermédiaires|contrôle qualité publication|interactivité auteurs-lecteurs| |Lodel|-|+|+|-| |Spip|+|-|-|+| Faut-il le préciser ? Lodel est un logiciel libre diffusé sous licence GPL. Alors, que tout le monde en profite !
2004-09-29 11:46:41
Lodel
http://www.lodel.org
Cela fait plusieurs années maintenant que le service de syndication de news lancé par Google est toujours en version béta. Wired nous explique pourquoi : le célèbre moteur de recherches ne peut en effet pas placer de publicité payante sur ses pages. Car à partir du moment où il tire profit de ce service, la reprise du titre et de passages relativement longs des articles n'est plus couverte par l'exception au droit d'auteur que constitue le fair use aux Etats-Unis. La nouvelle législation européenne relative au droit de propriété intellectuelle sur les bases de données, risque aussi de lui faire des soucis, ajoute un commentateur d'[Ars Technica->http://arstechnica.com/news/posts/20040929-4256.html]. En somme, une véritable contradiction entre les protections qu'offre le droit d'auteur et les usages de syndication du réseau apparaît de plus en plus. En France, Jérémie Berrebie en avait fait les frais en son temps, avec son service [Net2one->http://www.net2one.com/index.asp] (une sorte de Google news avant l'heure) qui avait déclenché des réactions peu amicales au sein du syndicat français des éditeurs en ligne, le GESTE. Sur le fond, c'est toujours le même problème, celui du modèle économique de la publication en ligne, qui apparaît : syndiquer des milliers d'articles en provenance de centaines de sources est une aide considérable pour le lecteur qui peut ainsi aller droit à l'information qui l'intéresse ; c'est plus problématique pour les sources d'information qui voient leurs écran intermédiaires de publicité, leur maladroites tentatives de fidélisation superbement ignorés par des lecteurs-zappeurs. Pour autant, la plupart d'entre eux offrent maintenant eux mêmes des services de syndication qui permettent à tout un chacun de se faire son petit Google news sur son lecteur RSS. Qu'y a-t-il donc de choquant, de plus déstabilisant dans le service offert par Google ? Ce n'est pas difficile à comprendre et c'est le même problème que pour son moteur de recherche : la hiérarchisation de l'information. Car non seulement, Google news dépossède les médias de leur capacité à définir et imposer un agenda médiatique (ce qui constitue, bien plus que la production brute d'information, leur coeur de métier), mais en outre, il se permet de redéfinir lui-même une hiérarchie entre les médias, plaçant parfois sans vergogne un petit site personnel en position bien plus visible qu'une grande entreprise de presse. On comprend que la roulette russe de la visibilité qu'impose Google en rende nerveux plus d'un. Et ceci d'autant plus que la méthode qui détermine ce classement, aussi bien au niveau du moteur de recherche que de Google News, est totalement opaque. Pour autant, la hiérachisation de l'information et des sources d'information qu'impose Google est-elle plus arbitraire, moins légitime que celle qu'impose la tradition, la puissance financière et l'inscription dans des réseaux de pouvoir ? Vaste débat qu'il sera pourtant nécessaire d'ouvrir au delà des cercles professionnels où il est traité actuellement sous l'angle exclusivement technique du secret des algorithmes.
2004-09-30 12:29:17
Google News : Beta not make money
http://www.wired.com/news/culture/0,1284,65106,00.html
Un adolescent québécois jouant à Luke Skywalker devant une caméra numérique ; c'est le point de départ très banal d'une des analyses les plus intéressantes qu'on ait eu à lire depuis longtemps sur la modification des habitudes culturelles par la démocratisation des outils d'édition numérique et Internet. A travers l'étude d'un cas concret, Frank Beau, l'auteur de l'article, montre comment les nouvelles technologies modifient les notions d'oeuvres, d'auteur et de public, modification préalable, annonce-t-il, à la définition d'un nouveau contrat social.
2004-10-01 22:58:24
Star Wars Kid, l'accident qui révèle l'éco-système
http://www.fing.org/index.php?num=5167,2
Linux existe en plusieurs variantes. On appelle ça des distributions. Jusqu'à présent, je m'étais focalisé sur Linux Mandrake, parce que cette distribution était française, avait très bonne réputation, pignon sur rue. Elle représentait à mes yeux un espoir de réussite commerciale du libre. J'ai donc acheté une distribution Mandrake, bien qu'on puisse aussi les télécharger gratuitement. J'ai tenté la version 8, la 9 et même la 10. J'étais assez ulcéré d'entendre MégaGeek me dire : "mais tu as la 9.0, il n'y a que la 9.2 qui fonctionne bien", puis "Mais tu as la 9.2, il n'y a que la 10 qui fonctionne bien". Assez énervant. Pour ne pas dire carrément exaspérant. Parce que soit ça marche, soit ça ne marche pas. Arrivé dans mon nouveau boulot-tout-neuf, j'ai posé la question au chef de l'informatique (enfin, non, pas le chef, disons : parmi les chefs, le sous-chef compétent). Sa réponse est simple : Suse Linux, ou Debian. Mais pas Mandrake. Une recherche rapide sur le réseau me confirme ça ([Lettre ouverte à Mandrakesoft->http://www.linuxfrench.net/communaute/lettre_ouverte_a_mandrakesoft_du_cycle_de_developpement..._article1470.html]). Alors, voilà, c'est décidé. Je vais tester Suse Linux. On m'avait promis l'arrivée de mon nouveau portable Dell pour cette semaine. Puis on me l'a promis pour la semaine prochaine. Soit.
2004-10-02 22:13:37
Suse Linux
http://www.suse.fr/fr/
Mediatic a raison de le relever : Le blog de Phersu fête son premier anniversaire et c'est l'occasion de découvrir un véritable talent de blogueur qui a su trouver ses marques : des sujets et un ton qui lui valent aujourd'hui une popularité assurée. Phersu ; un blog parmi d'autres, mais pas comme un autre, qui montre comment cette forme d'écriture, alternant spleen et dérision, explications pointues et aimable bavardage, forme courte et la longueur de temps, finit par faire apparaître, comme en filigrane, une personnalité s'affirmant et se révélant jour après jour ; c'est d'ailleurs tout l'enjeu de ce blog, dont l'auteur a si soigneusement choisi son [pseudonyme->http://www.20six.fr/Phersu/archive/2004/02/28/1846ruzfyoofa.htm]. Il faut lire Phersu, même si l'on n'est pas fan de politique américaine et internationale (et certains passages sont éprouvants pour qui ne l'est pas) et lire les commentaires que postent ses lecteurs. On y comprend combien le blog, sensé être le reflet servile de la vie quotidienne, est bien plutôt le générateur d'un autre quotidien, parallèle au premier, qui ne peut être saisi que dans la continuité de la lecture et dont la clé est détenue par celui qui écrit ; une personne.
2004-10-03 00:33:32
Des weblogs commentent le débat Bush-Kerry
http://mediatic.blogspot.com/2004/10/des-weblogs-commentent-le-debat-bush.html
Comment ne pas le remarquer ? Les licences Creative Commons poussent comme des champignons, marquant de leur emblème "CC" un nombre croissant de sites Web. Nées il y a un peu plus de deux ans aux Etats-Unis dans un contexte d'affrontements très violents autour de l'application du copyright aux oeuvres désormais numérisées, ces licences visent à donner un pouvoir accru aux auteurs sur les conditions dans lesquelles leurs oeuvres sont diffusées. L'intelligence pédagogique avec laquelle ces outils juridiques au service des auteurs ont été présentés, aboutit aujourd'hui à un phénomène, que la presse économique commence à regarder avec attention : le nombre de contenus licenciés CC est en train d'exploser, principalement sur le net, mais pas seulement. La légitimité de ces licences, par exemple dans les institutions scientifiques -pour lesquelles la question du droit d'auteur a toujours constitué une difficulté-, est, elle aussi en train de croître. Et les répercussions pourraient être bien vite politiques dans le contexte d'une très dure bataille législative (et policière malheureusement) entre l'industrie de l'infotainement et le public sur les usages des réseaus P2P, remarque eWeek. Pas révolutionnaire en soi, l'article que le magazine consacre au sujet est intéressant, essentiellement par son contexte de publication. Il indique que la conscience que quelque chose est en train de changer se propage dans des milieux qui ne se sentaient pas concernés jusqu'ici par la question.
2004-10-03 01:15:53
Creative Licensing Scheme Grabs Artists' Attention
http://www.eweek.com/article2/0,1759,1662698,00.asp
Google continue à étoffer son offre en détectant si vous cherchez une ville. Si c'est le cas, que ce soit Paris, Lyon ou même le petit village de Méthamis en Vaucluse, il vous proposera d'utiliser ViaMichelin et Map24. Ouagadoudgou, Pékin, Moscou et les villes d'Europe de l'Est semblent ignorées, sans doute parce qu'aucun service de cartographie dynamique n'existe pour ces pays. Que pense Mappy.com, concurrent de ViaMichelin et de Map24, de cette nouvelle fonctionnalité? Google se fait-il payer pour ce service susceptible de fournir beaucoup de visiteurs? Si cela s'avérait être le cas, l'espace attribué aux "sponsored links" dans la page de résultats de Google s'en trouverait augmenté d'autant. Pourtant, le lien n'apparaît pas dans la colonne "Liens commerciaux" mais bien comme première réponse. On commence à voir où mène le fleuve Google. Un moteur de recherche mondial, P2P, puissant et autonome, ça vous dirait? Et si on s'y mettait? Sj.
2004-10-03 15:44:42
L'information annoncée par WebRankInfo
http://www.webrankinfo.com/actualites/200409-plans-de-villes.htm
Pas encore sorti des griffes de Quark Xpress, monstre coûteux et bien peu ouvert, le monde de la PAO (publication assistée par ordinateur), c'est-à-dire le monde de l'édition, semblait vouloir se tourner vers Adobe InDesign. Mais Thierry Stoehr nous apprend que, malgré ses talents, InDesign n'est pas vraiment plus ouvert que son illustre et pachydermique prédécesseur. Alors que la révolution du libre est en marche du côté de la bureautique (OpenOffice.org grignotant consciencieusement les parts de marché de Microsoft Office); de la navigation (Mozilla et Firefox laminant Internet explorer sur leur passage); du courrier électronique (Microsoft Outlook et Eudora étant menacés par Thunderbird) et même de la retouche de photographies (Photoshop contre The Gimp[[ Quantitativement il n'est pas certain que les graphistes aient vraiment entamé le mouvement de migration, mais les performances du logiciel laissent espérer une issue positive à l'affrontement.]]), on se demande ce qu'il en est de la PAO (dominée par Xpress) et du dessin vectoriel (dominé par Adobe Illustrator). Les pistes alternatives telles que Scribus, listées par l'excellent [Framasoft->http://www.framasoft.net], sont-elles mûres, c'est-à-dire puissantes, souples et multi-OS? Rien n'est moins sûr. Anne, ma soeur Anne, ne vois-tu rien venir ? Sj.
2004-10-05 08:04:10
L'information sur Formats-ouverts.org
http://formats-ouverts.org/blog/2004/10/03/139-PiegeLeFormatPrecedentNexistePas
Après un voyage transcontinental parsemé d'embûches et un retour fracassant dans la réalité professionnelle (passons les détails), Sj0mann se retrouve face à un beau portable équipé d'une belle distribution Debian. Un ami bienveillant (un de ces Megageek megageekien qui peuplent parfois notre planète) a eu la bonté de considérer que l'installation de Linux pouvait être traitée dans un second temps, une fois le "Linux-virus" attrapé par le biais d'une pratique quotidienne... Je n'ose pas vous faire la description du beau bureau concocté par ce spécialiste. Un environnement propre, confortable, où tout est à portée de main. Son travail a consisté, me dit-il, à créer des icônes vers des ressources trop discrètes dans le système, déjà présentes et installées. Un ensemble impressionnant de ressources. Oui, mais voilà. Je souhaite partager de façon transparente Thunderbird sur les deux environnements. Et là, il a tiqué. Il m'a dit que ce n'était pas raisonnable. Que mon courrier était le coeur de mon activité professionnelle et qu'on ne pouvait pas prendre le risque d'altérer ces données en passant d'un système à l'autre régulièrement dans la journée. Et de me conseiller de migrer totalement vers Linux, en copiant de temps en temps mes données Thunderbird sur mon Windows, pour ne pas avoir trop de décalages. Oui, mais tous les envois effectués depuis Windows seront perdus, sauf si je fais une copie carbone vers mon compte. Oui, mais je n'aurai jamais sur Windows de données à jour. Oui, mais il me faudra redémarrer sans cesser pour "switcher" comme diraient nos amis macophiles bercés par le discours marketing de Steve Jobs. Oui. Mais non. Encore raté. Mon beau Linux dort dans ma partition dédiée, et je suis en train de saisir ce billet sur Firefox, tournant sur Windows XP. Je l'aurai, n'en doutez pas, je l'aurai...
2004-12-02 00:00:00
http://
Qui n'a jamais fait l'expérience de voir l'un de ses messages rejetés par un filtre anti-[?spam] placé sur le serveur de messagerie de son correspondant ? de moins en moins de monde. Car la lutte anti-spam prend une telle ampleur que le véritable tir de barrage que les robots chasseurs de spam et autres spam-assassin sont contraints de déclencher pour protéger les boîtes aux lettres de leurs usagers ne peut manquer de prendre pour cible des messages tout ce qu'il y a de plus légitimes. Le phénomène est pire lorsqu'il s'agit des listes de discussion (parfois appelées "[?liste de diffusion]"), car celles-ci sont un vecteur privilégié de diffusion par les spammeurs de leur messages. L'Electronic Frontier Foundation avertit, par le biais d'un rapport très intéressant, que la multiplication des techniques de protection peut provoquer des dommages collatéraux sur la liberté d'expression, en particulier en touchant les listes de discussion non commerciales. Et plutôt que de se contenter de dénoncer cette dérive, les deux auteures du rapport, Cindy Cohn et [Annalee Newitz->http://www.homo-numericus.net/auteur.php3?id_auteur=34] proposent aux principaux intéressés, à savoir les fournisseurs de services Internet, une série de propositions visant à remettre entre les mains du destinataire final les moyens de décider s'il accepte ou non les messages qu'il reçoit. Les gestionnaires de listes de discussion y trouveront de leur côté des conseils pour éviter au maximum que leur liste ne soit considérée comme "compromise" par les chasseurs de spam
2004-12-02 23:07:59
Noncommercial Email Lists: Collateral Damage in the Fight Against Spam
http://www.eff.org/wp/?f=SpamCollateralDamage.html
Le parlement européen devait examiner ces jours-ci une proposition émanant du Conseil qui visait à rendre obligatoire la présence sur tous les passeports de l'Union européenne de deux éléments d'identification [?biométrique] : une image du visage et les empreintes digitales. L'association de défense des libertés individuelles dans la société de l'information IRIS s'est associé à quelques uns de ses homologues européens, comme Privacy International, Statewatch et European Digital Rights, pour demander au Parlement de ne pas accepter cette proposition, en particulier parce qu'elle n'offre aucune garantie que ces éléments d'identification ne seront pas enregistrés dans une [?banque de données] centrale dont l'usage pourrait être détourné. Au passage, IRIS pointe du doigt le rôle du gouvernement français dans cette évolution sécuritaire et égratigne la CNIL qui n'aurait pas su, selon l'association, mettre en garde les différents acteurs et provoquer un débat au sein de la population sur un sujet qui la concerne pourtant de très près. L'association fait enfin remarquer, avec une certaine ironie, que les exigences du gouvernement américain à l'égard des voyageurs étrangers, souvent évoquées pour justifier de telles mesures, ne concernent pas les empreintes digitales, spécificité bien française...
2004-12-03 00:11:49
Lettre ouverte au Parlement européen contre l'immatriculation biométrique de tous les citoyens et résidents européens
http://www.iris.sgdg.org/info-debat/comm-biometrie1104.html
Publier sur le web des textes longs, fortement structurés, accompagnés de notes, farcis de graphiques et d'illustrations. Quiconque est confronté à ce type de tâches, sait pertinemment que les difficultés sont nombreuses pour la réaliser dans des conditions satisfaisantes. Car le meilleur outil pour écrire ce type de textes, celui qui en tout cas est le plus utilisé, à tort ou à raison, c'est un logiciel de traitement de texte, de type Word ou Open Office. Le problème est que ces logiciels produisent des textes où l'information de mise en forme, de structuration ou d'enrichissement du texte est comme intégrée au texte lui-même, incrustée dans l'information textuelle [[on parle alors de fonctionnement "Wysiwyg"]], alors que le langage du Web, le langage html, est un langage dit "de balises", où l'information de structuration marque extérieurement le texte sur lequel elle s'applique. Pour le dire vite, Word produit ce texte, tandis que pour arriver au même résultat, le langage html doit en passer par <code><b>cette étape</b></code>. Dès lors, la publication de textes sur le Web, en particulier par l'intermédiaire d'un logiciel de publication automatisé (content management system) comme Spip, ne peut que passer par des formulaires qui ne peuvent transmettre que du texte brut, éventuellement balisé, mais jamais enrichi comme dans un logiciel de traitement de texte. Il suffit pour s'en convaincre de prendre un texte dans Word, de lui appliquer une série d'enrichissement (styles, mises en forme directes), et de copier-coller le résultat dans un formulaire Web. On voit immédiatement que toutes les informations de mise en forme sont perdues d'un format à l'autre. Spip pallie à cet inconvénient ou bien en reconnaisant les balises html, ou bien en utilisant son propre langage de balises simplifiées. Il en va de même par exemple dans les logiciels de gestion de forum (PhpBB par exemple qui s'appuie sur le BBcode) ou encore les systèmes de wiki, qui ont leur syntaxe propre. Dans tous les cas, il faut ou bien écrire et mettre en forme le texte directement dans les formulaires d'édition, ou bien travailler dans Word et ensuite appliquer des moulinettes, généralement des macros qui interprètent les mise en forme de Word pour générer les balises correspondantes à copier-coller dans le formulaire web. Toutes solutions relativement lourdes ou complexes dans un contexte où les producteurs de textes ont écrit sans s'inquiéter du support par lequel ils les diffuseraient, et donc, majoritairement, dans Word. Par ailleurs, dans le cadre d'une publication multi-supports, il est relativement difficile de partir de la version html d'une publication pour produire une version papier par exemple. On préférera disposer d'une version au format traitement de texte qui sera utilisée pour les étapes suivantes de mise en page et d'impression. Bref, quoiqu'on en pense, le format traitement de texte reste souvent à la fois la source et le format pivot incontournable de l'édition de textes en ligne. C'est pourquoi certains logiciels de publication, comme Lodel, s'intéressent à prendre en charge de manière relativement automatisée l'opération de conversion du format Word (ou Open Office), vers un langage de balises comme xml, html ou xhtml. Et comme cette opération est relativement lourde et complexe (beaucoup plus qu'on ne le pense en général en tout cas, car les problèmes d'interprétation des styles sont importants), certains se sont tournés vers la solution d'une "délocalisation" de l'opération à l'extérieur du logiciel de publication qui y a recours. Le tout nouveau système de prise en charge de cette opération de conversion s'appelle Servoo[[le nom est expliqué par les caractéristiques techniques du système : il s'appuie sur le logiciel Open Office piloté en mode serveur]]. Servoo, c'est le système qui peut être adapté à n'importe quel outil de publication web pour lui fournir, de manière déportée, une solution de publication des textes directement à partir du fichier traitement de texte. L'idée essentielle qui anime le développement du projet, est que la fonction de conversion ne peut et ne doit être prise en charge par le logiciel de publication. Celui-ci a déjà suffisamment à faire en gérant les différents intervenants, les différents étapes de production et la structuration d'une publication, tout en conservant une légèreté et une simplicité lui permettant d'être installé partout et utilisé par tous. Il faut donc que le travail de conversion soit assuré par un autre serveur qui peut d'ailleurs, puisqu'il ne fait que cela, effectuer le travail pour un grand nombre d'utilisateurs. Cette structuration du fonctionnement logiciel proposé par Servoo manifeste la réalité d'une tendance dont il n'est pas le seul exemple. Rien que pour Spip ,les fonctions de correction orthographique pour la future version 1.8, et de génération de formules mathématiques pour une des contributions en cours de développement, reposent sur le même principe. On voit émerger la réalité d'une architecture logicielle de type "web services" dont l'avantage essentiel est de permettre de concilier la simplicité d'utilisation à la richesse des fonctionnalités. Le Graal informatique en quelque sorte. Pour passionnante et riche de promesses qu'elle soit, cette évolution n'est pas sans poser quelques questions : tout d'abord celle de la confidentialité ; car l'architecture répartie des fonctionnalités logicielles suppose une circulation démultipliée de l'information, et donc une certaine confiance envers les opérateurs entre les mains desquels cette information circule, sans même évoquer les risques d'indiscrétion sur le chemin qui conduit d'un serveur à un autre. La deuxième question posée est celle de la mutualisation des ressources. Car pour qu'un grand nombre de système de publication "clients" puisse utiliser un système servoo, il faut bien qu'un plus petit nombre d'acteurs offre les ressources de serveurs, plus lourds et complexes à gérer, à l'ensemble d'une communauté dont ils doivent cerner les contours. Il faut donc nécessairement, outre des ressources techniques, un fonctionnement social de type communautaire où certains acteurs offrent des services sans contrepartie immédiate à la communauté dans laquelle ils s'insèrent. [[C'est ce que fait par exemple Revues.org, en offrant les services d'un servoo de test]] Gageons que c'est sur ce point que les différentes communautés du logiciel libre sauront montrer leur évidente supériorité, en mettant en oeuvre, une fois de plus, le mode de fonctionnement mutualisé dont elles ont coutume. Servoo se présente pour l'essentiel sous la forme d'une API. Ghislain Picard, le concepteur et principal développeur du logiciel attend explicitement que chaque communauté constituée autour de son logiciel de publication s'en empare pour l'implémenter dans son propre système, à l'instar de Lodel. Il semble évident que la communauté des utilisateurs de Spip (ou plutôt les différents sous-communautés qui la constituent) va se montrer très vite intéressée, en publiant rapidement une "contrib" permettant de l'utiliser avec son CMS préféré. La première version de la partie "client" de Servoo, vient d'être diffusée. Il est important de savoir que le projet est en plein développement, en attendant la diffusion sous peu de la partie "serveur" du système, dont on espère qu'elle provoquera une véritable efflorescence de servoo ouverts au moins à certaines communautés, et, pourquoi pas, à tous. Il y aurait, pour ceux qui auront fait le choix de cette dernière option, l'occasion d'un véritable engagement en faveur d'une expression collective et démocratique sur le réseau.
2004-12-05 00:00:15
Servoo
http://www.servoo.net
McKenzie Wark est professeur de "culture and media studies" à la New School University de New York. Il vient de publier un ouvrage intitulé "A Hacker Manifesto" aux Harvard University Press, où il analyse, d'après la présentation qu'en fait l'éditeur, les conflits actuels autour de la propriété intellectuelle en terme de lutte de classes. Nous serions en train d'assister à un conflit généralisé entre une classe de "hackers", comprenant artistes, scientifiques, philosophes, musiciens, programmeurs, qui produisent de l'information, et une classe de possédants, les sociétés de l'infotainement qui cherchent à monopoliser la production des premiers. En un mot, précise l'éditeur, c'est du Marx revisité par Debord et Deleuze. Hum. Des volontaires pour le lire et en faire un compte rendu détaillé qu'Homo Numericus se ferait un plaisir de publier ?
2004-12-05 12:21:41
A hacker Manifesto
http://www.hup.harvard.edu/catalog/WARHAC.html
Le mois de décembre est chaud et pénible professionnellement, pour presque tout le monde. Les organismes sont fatigués. Le moral baisse. Hors de question de retenter une linux-migration dans ces conditions. Pourtant, on peut quand même avancer par petits pas. L'utilisation de The Gimp sur Windows, par exemple, est un élément structurel qui permettra d'atterir en douceur le jour J. The Gimp, c'est bien, ça fait beaucoup de choses et c'est simple. On ne s'en rend compte qu'en enlevant carrément tous les éditeurs d'images piratés de sa machine. Il y a bien quelques soucis de traduction de l'interface (pourquoi traduire "Resize" en "Etirer l'image", alors qu'on peut aussi la réduire ?). Les travaux quotidiens se font simplement. Redimensionner une image, recadrer une image, appliquer des filtres, lancer le scanner depuis The Gimp et même faire une capture d'écran (l'outil proposé par The Gimp est pas trop mal foutu). J'en suis là. C'est peu, mais ça correspond à une grande partie de mes besoins. Donc, lors de ma migration, je n'aurai pas à chercher où se trouve telle ou telle fonction désormais. Ce n'était pas le cas quand j'ai ouvert ce blog. Idem pour OpenOffice.org. Je m'en sers désormais à 98% en remplacement de Word. Je rencontre pas mal de petits problèmes liés à des habitudes sur Word. Mais, en contrepartie, il y a pas mal de choses qui sont mieux, comme le glisser-déposer d'image sur une image déjà existante (il ne superpose pas, mais il remplace! ce qui permet de conserver les réglages de taille de l'image, par exemple). On peut redimensionner un objet en tapant F4. C'est la seule façon rapide d'y parvenir. Donc : à noter. La modification des styles est beaucoup moins lourde (qui pourra m'expliquer pourquoi il faut tant de clics pour modifier l'épaisseur du corps dans un style Word ?). J'ai encore beaucoup à explorer, mais voici ce qui me manque : - la possibilité d'avoir une colonne de styles permettant d'embrasser d'un seul coup d'oeil les styles appliqués aux paragraphes. Pour l'instant, le styliste ne permet de connaître que le style du paragraphe sélectionné. - la possibilité d'associer des raccourcis claviers aux différents styles que j'utilise souvent. Ca doit exister, mais je n'ai pas trouvé où. - La possibilité d'afficher d'autres barres d'outils que les 4 qui sont proposées par défaut. Ce qui est étrange, c'est que dans l'outil de personnalisation, il propose beaucoup de barres d'outils formidables, mais je ne parviens pas à les activer. Bizarre, non? J'utilise OpenOffice.org 1.1.3. Je dois encore fouiller pour désactiver tout un tas d'automatismes pénibles, comme l'automplétion débile. Bref. Je suis sur Windows et j'avance vers le libre.
2004-12-19 10:45:43
http://
Depuis plus d'un mois, Homo Numericus n'est quasiment plus alimenté en nouvelles fraîches [[Hormis les billets de Sjomann, bien sûr]] pour une raison simple : depuis le début du mois de décembre, l'éditeur principal du site n'a plus de connexion Internet. Son erreur ? Avoir demandé le dégroupage total de son accès au réseau téléphonique, au profit de Free. Depuis l'intervention des techniciens de cette société au niveau du central téléphonique, il n'a plus aucune connexion et ne dispose évidemment pas de ligne RTC pour mettre en place une connexion de secours. Depuis, c'est la lente descente dans l'enfer de la hotline que décrivent habituellement sur les forums les utilisateurs ayant eu à en faire l'expérience : coups de fil surtaxés mais totalement inutiles, diagnostics variés et souvent absurdes, multiplicité des interlocuteurs non coordonnés, lettres en recommandé non suivies d'effet. Incurie ou incompétence ? Sans doute un mélange des deux. Quoi qu'il en soit, Free semble bien incapable d'assurer son rôle d'opérateur de télécommunication et singulièrement les obligations en matière de qualité de service que fait peser sur lui le dégroupage total. Les associations de consommateur prodiguent des conseils de prudence à l'égard de ceux qui souhaitent se libérer totalement de France Telecom. On ne peut qu'abonder dans leur sens. Visiblement, le monopole de l'opérateur historique n'est pas prêt d'être remis en cause. Ce billet est écrit depuis une des nombreuses boutiques de l'Est parisien offrant à prix modique un accès Internet (outre de la teinture pour les cheveux et de l'encens). Nous prions nos chers lecteurs de bien vouloir nous excuser, mais nous sommes dans l'impossibilité de leur indiquer à quelle date sera publié le prochain.
2005-01-07 14:48:25
Free
http://www.free.fr
Lorsqu'il y a plus d'un an, le Ministère de l'Education Nationale a lancé un vaste projet de numérisation restrospective d'un certain nombre de revues prestigieuses en sciences humaines et sociales, on a pu avoir toutes les craintes sur les résultats de l'opération : les travaux de numérisation sont réputés très lourds, très compliqués et peu gratifiants. Nombre d'entre eux aboutissent à des interfaces de consultation peu ergonomiques et ne reflétant que trop la masse immense de travail que la publication a nécessité. Ce n'est pas le cas de Persée, le portail résultant de la commande du Ministère. Abritant aujourd'hui 7 revues de premier plan, Persée offre accès à des parties de grandeur variable de la collection de numéros qu'offre chacune d'elle, mais jamais aux derniers numéros, bien sûr. Il s'agit bien de numérisation, et non d'édition électronique : les articles sont donc présentés comme fac-similés de leur version papier, mais avec une interface de navigation intuitive. L'affichage des fac-similés se fait dans de bonnes conditions et le feuilletage est assez agréable, quel que soit le navigateur. Ce qui plaît surtout dans cette interface, c'est le parti pris de simplicité : on accède en trois clics à l'article à partir de la page d'accueil du portail. Un certain nombre d'"astuces" donnent une réelle valeur ajoutée au portail : on peut ainsi obtenir, à partir de l'image de chacune des pages du portail, une version en mode texte pouvant être utilisée dans les pratiques de citation. Le système de recherche surligne dans le document les occurrences de l'expression recherchée. Un système d'authentification permet de garder en mémoire les recherches effectuées, et de se constituer une base bibliographique à partir des articles consultés [[mais la liste est bêtement limitée à 10 items (?)]]. On voit enfin une volonté embryonnaire de constituer des communautés de lecture par le biais de forums attachés au portail ainsi qu'à chaque revue. Aucun système n'est parfait, et celui-ci se heurte parfois aux limites inhérentes à la numérisation en mode image : il propose par exemple un export au format PDF des articles disponibles. L'idée est excellente, sauf que, lorsqu'on télécharge vraiment les fichiers, on se rend compte qu'ils pèsent souvent plus de 20 Mo (sans avertissement préalable) ! Mieux vaut avoir une connexion à haut débit et un ordinateur conséquent pour le gérer. Autre question : comment citer les articles ? Si l'on veut indiquer l'url de consultation, il faut avoir le coeur bien accroché : [http://www.persee.fr/showPage.do?urn=hom_0439-4216_1998_num_38_145_370423->http://www.persee.fr/showPage.do?urn=hom_0439-4216_1998_num_38_145_370423] Dernier problème, et de taille : apparemment, on n'accède pas aux résumés des articles. C'est quand même pousser la mode du texte intégral un peu loin. Le résumé est en effet très utile à la lecture, particulièrement en sciences humaines et sociales, où l'argumentation ne va pas toujours droit au but. Il y a donc là un défaut d'information essentielle, renforcé par l'impossibilité d'accéder à la liste des mots clés, qui existent pourtant, puisqu'ils sont utilisés par le moteur de recherche. Mais tout cela n'est que broutille finalement, en comparaison de ce qu'apporte Persée aux étudiants, chercheurs, et même au débat public, quand on pense à des revues aussi importantes pour la vie intellectuelle que sont l'Homme et les Annales. En complémentarité avec d'autres initiatives en édition électronique, Persée apporte sa pierre à ce vaste mouvement de libre accès aux résultats de la recherche publique, permettant à n'importe qui d'accéder dans de bonnes conditions à des textes essentiels. Et de cela, qui peut se plaindre ?
2005-01-24 12:53:53
Persée : portail de revues scientifiques en sciences humaines et sociales
http://www.persee.fr
Jeudi 3 février 2005, de 12h15 à 14h00 se tiendra une discussion sur les biens communs et l’accès ouvert autour des livres «International commons at the digital age – La création en partage» (Editions Romillat), édité par Danièle Bourcier et Mélanie Dulong de Rosnay, et «La bataille du logiciel libre» (Editions La Découverte), de Perline et Thierry Noisette, en présence des auteurs. La rencontre se déroulera à la librairie Tekhnè, 7, rue des Carmes 75005 Paris (Métro : Maubert-Mutualité).
2005-01-27 23:51:16
http://
Journée d'étude et de discussion organisée par l' équipe de recherche «Plurilinguisme et multimédia» [ICAR->http://icar.univ-lyon2.fr/accueil.html] UMR 5191 ENS LSH - Lyon2 Date :Jeudi 17 mars 2005 Lieu : ENS Lettres et Sciences humaines, Amphithéâtre _ diffusion en direct sur [->http://www.ens-lsh.fr] Problématique En 2000, l'ouvrage sous la direction de Plantin, Doury et Traverso Les émotions dans les interactions, a fourni des propositions méthodologiques et des outils permettant de traiter les émotions dans le cadre d'une théorie des interactions. Nous voudrions reprendre la question de l'expression et de la gestion des émotions dans la communication en ligne. En effet, le développement des campus numériques et autres dispositifs d'enseignement en ligne amène à s'interroger sur les spécificités socio-affectives de ce type de communication. Par exemple, dans sa classe virtuelle, l'enseignant ne peut jouer de son corps ni de sa voix pour créer une ambiance socio-relationnelle conforme à celle qu'il souhaite avec ses étudiants. Cependant, contrairement à certaines idées reçues, la communication en ligne n'est pas dépourvue d'affectivité. Tout au contraire, l'unicité du canal écrit incite souvent les intervenants à compenser sa "pauvreté" en potentiel relationnel par des marques émotionnelles plus explicites qu'ils n'en produiraient dans une situation de classe classique. Il s'agira donc pour nous de chercher à repérer, en fonction de différents contextes de communication en ligne, quels descripteurs de la dimension émotionnelle peuvent être retenus, quelles émotions sont mises au jour, quels effets ils produisent sur le(s) destinataire(s). Programme - 9h – 9h30 : Accueil des participants - 9h30 – 9h40 : Présentation de la journée, Christine Develotte, Mélanie Lesguillons, UMR ICAR, ENS LSH - Université Lyon 2 - 9h40 – 10h20 : Agnès Camus-Vigué, BPI. Formats de l’écrit et résonances émotionnelles L’émotion intéresse différentes disciplines dans les sciences humaines ; état sensible, qui engage ce qu’il y a de plus intime chez l’individu, l’émotion est aussi un vecteur de lien social. Si les pères fondateurs de la sociologie n’ont guère pris en compte les affects individuels dans la construction de leurs objets, les sociologues contemporains, considérant désormais les acteurs comme des êtres dotés d’une capacité à explorer leurs sentiments, intègrent dans leurs objets les affects qui participent d’une élaboration réflexive et normative de l’identité sociale. Dans le langage courant, l’émotion est définie comme un trouble simultané de la psyché et du corps. Dans le cadre des interactions numériques du type « forum » la question du corps comme vecteur de lien social pose problème. Le corps, en effet, disparaît derrière l’écran. Qu’en est-il alors de l’émotion ? Peut-elle surgir hors d’une co-présence corporelle ? Nous avancerons l’hypothèse que la médiation technique entre les individus n’évacue pas, pour autant, l’émotion, mais la génère au contraire. Peut-être avec d’autant plus de force, que les enjeux de l’interaction (affectifs, symboliques…) sont souvent peu maîtrisés et que les acteurs disposent de faibles indices pour gérer son déroulement. Nous comparerons, pour étayer notre propos, deux forums numériques. L’analyse de l’un d’entre eux montre qu’au langage du corps, se substitue parfois des formats de l’écrit qui produisent des résonances émotionnelles. - 10h20 – 11h : Discussion - 11h – 11h40 : Kathryn English, Université Paris II La gestion des émotions en-ligne en anglais et en français. La rédaction de l’oral Cultura est un programme interculturel sur Internet destiné à aider les étudiants de langue étrangère à comprendre les attitudes culturelles, les croyances et les manières d’interagir différentes. Des étudiants de l’Université de Paris 2 qui apprennent l’anglais ont correspondu avec des étudiants apprenant le français de l’Institut de Technologie du Massachussets. Le Programme Cultura sera décrit et on analysera un forum dont le sujet sont les élections présidentielles américaines en 2004. Ce forum a fourni un corpus de 24 111 mots tirés de 130 messages. Les premières conclusions suggèrent que les interactions intra-classe, étudiants américains avec d’autres américains, était encouragées par de fortes émotions qui étaient intensifiées, peut-être à cause de la syntaxe orale du discours écrit en ligne. Les messages transatlantiques, inter-classes, affichaient moins de marques explicites d’engagement émotionnel. Cependant, les outils rhétoriques traditionnels tels que la répétition, les questions, les connecteurs conversationnels, un vocabulaire spécifique, et l’usage intensif de la première personne était employés pour souligner des concepts et ‘marquer des points’. D’autres techniques, pour ‘sauver la face’, étaient utilisées tant pour défendre que pour attaquer un point de vue. Il apparaît que la nature de ces débats en ligne est imprégnée de tradition orale. En tant que tels, les étudiants-auteurs semblent penser tout haut quand ils conversent avec une image idéalisée ou distante de leurs interlocuteurs. Leurs écrits vont du soliloque rationnel au texte mis en scène. J’espère montrer que si le discours ému n’est pas toujours émouvant, la structure du discours oral, une fois écrite, elle, nous affecte effectivement. - 11h40 – 12h20 : Discussion - 12h20 – 14h : Pause déjeuner - 14h – 14h40 : Michel Marcoccia, Tech-CICO (ISTIT ; CNRS / Université de Technologie de Troyes) Les manifestations des émotions dans les forums de discussion L’objectif de cette communication est d’analyser les manifestations et le rôle de l’émotion dans les forums de discussion. Les travaux sur les émotions dans les interactions communicatives en face à face permettent de mettre en évidence l’importance du non verbal pour l’expression des émotions (Ekman, Scherer) et le rôle central de la connaissance interpersonnelle pour le partage des émotions (Cosnier, Rimé). Partant de ces observations, bien établies dans le champ de la psychologie, les forums de discussion peuvent apparaître comme des dispositifs rendant a priori problématiques l’expression et le partage des émotions. En effet, l’utilisation du code écrit, l’asynchronie des échanges, l’anonymat et le caractère public sont autant de paramètres qui pourraient limiter l’émergence de ces phénomènes. Pourtant, l’observation empirique de messages extraits de différents forums de discussion (français et marocains) permet de noter de nombreuses manifestations émotionnelles. Deux phénomènes seront particulièrement abordés : l’expression des émotions par les smileys et les émotions racontées dans les séquences de dévoilement de soi. On notera en conclusion que ce phénomène s’explique par la nature hybride des forums de discussion qu’on peut définir comme des dispositifs de communication interpersonnelle de masse (Baym). 14h40 – 15h20 : Discussion 15h20 – 15h40 : Pause 15h40 – 16h20 : Xavière Hassan, Open University ‘lol, :-), J’ : Interactions en ligne, émotions entre les lignes. Depuis quelques années, les étudiants en langues de l’Open University bénéficient de tutorat en ligne grâce au dispositif Lyceum, environnement audiographique synchrone leur permettant de parler, écouter, écrire, lire et collaborer en ligne et en temps réel sur des tâches linguistiques diverses. À partir des données recueillies au cours de rencontres d’apprenants sur Lyceum et d’un corpus d’interactions tirées de deux expériences pédagogiques récentes, l’une menées dans WebCT, l’autre dans MOO, nous présenterons et comparerons la variété des moyens mis en œuvre par les apprenants pour exprimer leurs émotions dans ces trois plateformes d’apprentissage. 16h20 – 17h : Discussion Contacts : cdevelotte at ens-lsh.fr, melanie.lesguillons at ens-lsh.fr
2005-02-03 21:29:06
ENS Lettres et Sciences humaines
http://www.ens-lsh.fr
APPEL A COMMUNICATION Les troisièmes Doctoriales du GDR TIC & Société auront lieu les 27 et 28 juin 2005 à Télécom Paris. Une quarantaine d'articles maximum seront sélectionnés par le comité scientifique, présentés par leurs auteurs et commentés par des chercheurs seniors. Chaque papier présenté disposera d'une demi-heure. * Le comité scientifique (en cours de constitution) est composé de : Pierre-Jean Benghozi, Éric Brousseau, Bernard Conein, Godefroy Dang Nguyen, Patrice Flichy, Michel Gollac, Nathalie Greenan, Josiane Jouet, Michel Gensollen, Christian Licoppe, Frédéric Moatty, Dominique Pasquier, Thierry Pénard, Alain Rallet,… * Le comité d'organisation est composé de David Bounie et Thomas Houy. Thèmes # TIC, marchés, concurrence, émergence de nouveaux collectifs # TIC, économie numérique et nouveaux modèles d'affaires # TIC, usages, appropriation, conception et co-design # TIC, médias, pratiques culturelles, pratiques d'écriture et de lecture # TIC, langage, dialogue et interaction # TIC, cognition et connaissances, apprentissage et développement # TIC, transformation des organisations et nouvelles pratiques managériales # TIC, espace, territoires et mobilités # TIC, analyse d'activités, environnement de travail et formes de l'emploi # TIC, nouvelles régulations juridiques et sociales # TIC, aspects sectoriels : éducation, santé, e-administration,… # TIC, banque et marchés financiers
2005-02-03 21:45:32
L'appel à communication (PDF)
http://gdrtics.u-paris10.fr/pdf/doctorants/2005/AppelGDRTIC2005.pdf
Long silence sur "Linux pour de vrai" : la situation n'a pas avancé. Le manque de temps pour se pencher sur le problème du partage des données de Thunderbird entre deux OS en simultané m'empêche de progresser. Cela dit, les réactions de lecteurs de ce blog m'ont aidé, car la documentation indiquée est très utile. Sur Windows, j'avais négligé de déplacer le dossier de syndication de contenus ("Blogs et nouvelles" par défaut dans Thunderbird), ce qui allait l'exclure du partage Windows/Linux. Je l'ai donc déplacé au bon endroit. Ce faisant, j'ai commis une maladresse et j'ai perdu ma liste de liens. Je l'ai reconstruite. Mais je suis prêt, l'ensemble de mes données est désormais bien dans le disque FAT32 dédié au partage avec Linux. Ca avance à peine.
2005-02-04 10:02:01
http://
Mardi 15 février de 19h à 21h Le groupe de travail « Produire et gérer les savoirs » des « Temps Nouveaux » organise une soirée débat sur le thème de la brevetabilité du logiciel en tant que tel. Elle sera l'occasion de tracer un historique de la directive traitant de la brevetabilité des inventions sur la mise en oeuvre des ordinateurs, de confronter les opinions de certains acteurs en présence et de discuter des options de sortie d'une procédure d'examen tumultueuse. Avec la participation de : - Jean-François Abramatic, d'Ilog ; - Gérald Sédrati-Dinet, de la Foundation for a Free Information Infrastructure (FFII) ; - Thaima Samman, de Microsoft France. Lieu Assemblée Nationale Salle 6217 126 rue de l'Université Paris Métro : - ligne 12 station Assemblée Nationale - lignes 8, 13 et C station Invalides Inscription Entrée libre, mais inscription préalable obligatoire auprès de ludovic@penet.org.
2005-02-04 23:44:52
Temps nouveaux
http://www.temps-nouveaux.net/article.php3?id_article=108
« Eyes on the screen » : téléchargez, visionnez, projetez... Contre la confiscation de la mémoire du mouvement des droits civiques aux USA En réaction à la remise en cause des libertés civiles aux Etats-Unis suite à la ré-élection de G.W. Bush, le site web américain Downhill Battle [[Downhill Battle [->http://www.downhillbattle.org].]] a décidé de mettre en ligne (via un réseau P2P) trois épisodes de « Eyes on the Prize », la plus importante et la plus respectueuse des séries documentaires jamais réalisées sur l’histoire de la lutte pour les libertés civiques aux USA. « Eyes on the Prize » est un ensemble de 14 documentaires, réalisés sur et par le Mouvement Noir aux Etats-Unis, des droits civiques et des Black Panthers. Il est considéré par beaucoup de spécialistes comme un des éléments fondamentaux dans la compréhension de la genèse de ce mouvement et de ses implications, y compris actuelles, posant la question de la place des afro-américains dans la société américaine. Cette série est un élément important de vulgarisation politique et d’éducation civique pour une majorité de citoyens américains et au-delà du monde entier. Depuis des années, il est cependant impossible de visionner ou de projeter en public « Eyes on the Prize » pour des questions de droits. La société productrice du film, Blackside, créée par Henri Hampton, n’ayant pas les moyens de vérifier les droits de tous les éléments qui apparaissent dans les films, elle n’est pas en mesure de le diffuser alors même qu’aucun livre ou autre documentaire n’explique aussi bien et aussi clairement les enjeux politiques et civiques de l’histoire des libertés publiques aux USA. « Eyes on the Prize » est l’un des plus saisissants documentaires jamais réuni à propos des droits civiques » dit le leader des droits civiques Lauwrence Guyot. « C’est comme arrêter la publication de tous les livres écrits sur Martin Luther King, arrêter la circulation de tous les livres sur Malcom X, arrêter la circulation de tous les livres qui fondent la société américaine... Je voudrais inviter tous ceux qui y ont accès à violer ouvertement les lois concernées par sa projection. » Blackside a par ailleurs demandé à Downhill Battle, par l’intermédiaire de ses avocats, de retirer les liens qui pointaient vers un des épisodes mis en ligne. Cette exigence est purement suicidaire du point de vue des producteurs : loin d’être « une arme de destruction massive » de la culture et des auteurs, le P2P est une manière de redonner vie à des films sciemment enterrés ou tombés dans l’oubli, permettant ainsi d’envisager à nouveau diffusion et leur exploitation commerciale. Si « Eyes on the Prize » n’est plus effectivement disponible au téléchargement à partir des Etats-Unis, à l’initiative d’activistes européens anonymes, ces fichiers sont à nouveau en ligne [[Plusieures possibilités de téléchargement sont proposées (par BitTorrent ou par FTP). Voir : _ [->http://videobaseproject.net/blogtorrent/] _ [->http://regardeavue.com/] _ [->ftp://ftp.samizdat.net/medias/video....].]] Downhill Battle est un groupe d’activistes américains qui travaille à la fin du monopole des Majors sur l’industrie musicale. Il s’est notamment illustré en février 2004 en organisant le « Grey Tuesday », journée internationale de protestation contre l’interdiction du disque de Danger Mouse « The Grey Album » et qui avait permis le téléchargement de plus d’un million d’albums en une journée [[Gray Tuesday : [->http://www.greytuesday.org].]] Sous le label « Eyes on the screen », Downhill Battle et Lawrence Guyot, proposent par ailleurs d’organiser le 8 février, à l’occasion du « Black History Month », une projection, partout dans le monde, d’un épisode de ce documentaire mythique [[Eyes on the screen : [->http://www.downhillbattle.org/eyes/].]]. À Paris, ce 8 février sera donc organisée une projection d’épisodes de la série afin : - d’apporter notre contribution et notre soutien, y compris en posant un acte de désobéissance civile à cette lutte afro-américaine qui va du mouvement des droits civique aux mouvements des Black Panthers et des autres mouvements radicaux et post-coloniaux contemporains - et de lutter contre les tentatives, sous prétexte de propriété intellectuelle, de verrouillage de l’accès au savoir et à la connaissance. Le copyright se révèle être, dans ce cas particulièrement exemplaire, une arme à double tranchant de censure et d’amnésie collective. En France aussi, la réalisation de documentaires sur des sujets gênants ou brûlants (Algérie, Vietnam, Madagascar, etc.) se heurte à des difficultés similaires du côté des producteurs. Les séquences doivent être rachetées à prix d’or à un organisme public, faisant ainsi obstacle à la libre création et à la mise à disposition d’archives pour des projets de nature pédagogiques, artistiques ou civiques. Il convient aujourd’hui d’affirmer, de par le monde, dans le sillage du mouvement du Logiciel Libre et de la Free Culture, que la mémoire d’un peuple, d’une communauté, ou d’un mouvement, pas plus que ses gènes ou son corps, ne peut pas être une marchandise. Réservez dès à présent la soirée du 8 février pour la projection du premier épisode de la série : « Awakenings 1954-1956 », réalisé par Judith Wecchione diffusé à Paris pour la première fois avec une version sous-titrée pour l’occasion [[Rendez-vous sur : [->http://www.videobaseproject.net].]]. À cette occasion, Louis Massiah, responsable d’une école de vidéo à Philadelphie [[Scribe : [->http://www.scribe.org].]] et réalisateur de deux épisodes de cette série, sera en direct avec Paris (et peut-être en même temps que dans d’autres villes d’Europe) afin de présenter la série. Des extraits des épisodes qu’il a réalisé pour « Eyes on the prize », sur le mouvement des Black Panthers, l’assassinat d’un de ses leaders Fred Hampton et la révolte de la prison d’Attica, seront également diffusés en traduction simultanée en français. La projection sera présentée entre autres par Achie Shepp. Saxophoniste et compositeur se définissant comme « africain-américain », Archie Shepp joue un rôle important dans l’histoire musicale de ce siècle. Résolument proche du Black Power, il a été une sorte de chaînon entre le mouvement social et les sphères artistiques. Paris le 31 janvier 2005 Mardi 8 février 2005 à 20h. _ EcoBox, _ Atelier d’Architecture Autogéré _ 22, quater rue Pajol, _ 75018 Paris _ M° Marx Dormoy ou La Chapelle _ (entrée libre)
2005-02-06 12:07:20
« Eyes on the screen » : téléchargez, visionnez, projetez...
http://www.videobaseproject.net/
Feb 28th - Mar 1st, 2005, University of Southampton, UK "The latest in a series of bi-annual follow-up meetings on the implementation of the recommendations in the Berlin Declaration. Signatories to the Berlin Declaration have already committed themselves to take actions within their organizations, to strengthen open access. The principal aim of this meeting is to review the progress that institutions have so far made in implementing these actions and to agree on the next steps that need to be taken. The intention is to keep the momentum and enthusiasm of the Berlin conference held in October 2003. Lectures on key aspects of implementation, together with reports on the steps that signatories have taken so far will form the initial part of the program. Revising the roadmap in the light of the community's experience will form the latter part. The meeting will be hosted by the School of Electronics and Computer Science at the University of Southampton in the United Kingdom."
2005-02-11 21:34:14
http://www.eprints.org/berlin3/index.html
http://www.eprints.org/berlin3/index.html
«Right now, the costs of distribution and production of film and shows are plummeting. This opens up the door for a great number of amateur content providers to step in and scoop up their share of the Long Tail market. With the number of independent films and shows soon to come, what will happen to American ideas about attractiveness?»
2005-02-12 11:39:14
Kuro5hin
http://www.kuro5hin.org/story/2005/2/3/9525/78860
FRED FOREST/ PIERRE LAVOIE FRANCE CULTURE PIERRE LAVOIE / FRED FOREST FRANCE CULTURE EMISSION " QUESTIONS DE DESIGN " DESIGN NUMERIQUE ET PROGRAMMATION COMME ART VENDREDI 18 FEVRIER 2005 22 H 30 à 24 H Le designer numérique Pierre Lavoie d'origine canadienne face à l'artiste multimédia Fred Forest : une confrontation très édifiante et fructueuse ! Lors d'un entretien, ils échangent leurs points de vue nuancés sur le sujet. Sommes-nous sous l'emprise d'une idéologie technico-commerciale dominante ? L'art et ses institutions (universités et milieux de l'art) sont-ils victimes de dérives opportunistes ? Des dérives où le savoir faire technique, intrinsèque, prime désormais sur la dimension symbolique, l'invention de langages sensibles et surtout l'attitude critique ? Une attitude critique, sans laquelle l'art ne serait plus, que les résultats de démos d'un laborieux artisanat électronique, voir, même, mais hélas beaucoup plus rarement, celui de brillantes manipulations d'algorithmes dont on se demande, à vrai dire, le rapport avec l'art ? La question se pose, d'une façon brûlante, avec un discours et des prestations universitaires, qui tendent d'une façon préoccupante, sans beaucoup plus d'esprit critique, à enfourcher ce nouveau cheval de bataille
2005-02-12 12:47:38
Le débat a déjà commencé sur Nettime-fr
http://listes.samizdat.net/wws/arc/nettime-fr/2005-02/msg00041.html
Ceci est le vingt-et-unième numéro de « Sélection libre », la revue de presse sur le logiciel libre, la documentation libre et les sujets afférents. Habituellement elle paraît toutes les deux ou trois semaines, néanmoins, et comme de coutume dans le mouvement du logiciel libre, elle paraît quand elle est prête. Sommaire ------------------------- -# Brevets logiciels -# Manifestations diverses -# Licences libres -# Interopérabilité -# Passage au Libre -# Passage au Libre (suite) -# EUCD -# Procès antitrust -# Accord Microsoft/UNESCO -# Batailles autour de l'immatériel -# Vente liée -# EDRI-gram 2.22 à 2.25 -# Publications
2005-02-13 15:53:36
http://april.org/groupes/selection/2004/20.html
http://april.org/groupes/selection/2004/20.html
via CS Monitor «Since the inception of the WIMP-based Graphical User Interface more than 20 years ago at the legendary Xerox PARC Link points to external site laboratory, the world has seen many GUIs come and go. While it is easy to think of graphical interfaces in terms of newest editions of Windows (95 and up), it’s been much earlier and much more than that. This site is meant to be an online museum of graphical interfaces, especially those old, obscure and in desperate need of preservation. Whether you want just to look back and refresh some nice memories from years ago, or are interested in seeing how the GUIs evolved throughout the decades (and it is sometimes fascinating to witness that), I hope you’ll enjoy your stay. Of course, as I am writing these words four month after this website’s launch, there are still more misses than hits – lots of interfaces are M.I.A. and almost no textual descriptions are present. Sometimes I am plainly frightened of all the work that still needs to be done, so if you’re have enjoyed what you’ve seen so far, some encouragement would be very welcome. :) Also note that, growing up in Windows world, I don’t have much experience in other GUIs. So, don’t be afraid to correct me if I assume something wrong or miss out on anything important.»
2005-02-13 21:45:22
http://www.aci.com.pl/mwichary/guidebook/index
http://www.aci.com.pl/mwichary/guidebook/index
Le 1er avril 2005 se tiendra à Paris (à l’ENST) une rencontre ouverte sur les questions de développement, de biens publics de l’information et de propriété intellectuelle. Cette journée de réflexion et de débat se propose : - de déchiffrer les différentes facettes du développement humain et des droits de propriété intellectuelle (brevets, marque, droit de propriété littéraire et artistique, droit de l’image...) à l’heure de la société de l’information ; - d’évaluer les conséquences de leurs interactions sur les conditions de vie des peuples, notamment des pays en développement ; - d’identifier les espaces politiques dans lesquels les acteurs du développement, les mouvements sociaux et citoyens doivent s’investir et de tenter d’articuler leurs actions. 8h30 : Accueil 9h00 à 9h15 : Ouverture 9H15 à 10h45 : Atelier A : Santé et propriété intellectuelle L’inégal accès aux médicaments dans le monde est la manifestation la plus évidente des tensions de plus en plus vives entre la santé vue comme une marchandise et la santé vue comme un bien public mondial. Les accords ADPIC (Aspects de droits de propriété intellectuelle qui touchent au commerce) qui harmonisent et durcissent les brevets internationaux, ont été élaborés sous la pression des grands laboratoires pharamceutiques. C’est aux brevets que l’on doit le pilotage par le privé de la R&D (recherche et développement) en matière de médicaments et la règle des « 90/10 », où 90% des efforts de recherche et développement sont ciblés sur seulement 10% des besoins mondiaux. Animateur = Florent Latrive Intervenants - Bernard Pécoul, directeur du Drugs for neglected diseases initiative (DNDi). - Philippe Pignarre, ex cadre de Sanofi, éditeur (Les empêcheurs de penser en rond) et auteur du « Grand secret de l’industrie pharmaceutique ». - Benjamin Coriat, économiste de la santé. - Gaelle Krikorian, consultante pour Act Up, ALCS (Maroc), REDS (Cameroun), CPTech (US). 11h00 à 12h30 Atelier B : Agriculture, savoirs traditionnels, biopiraterie et propriété intellectuelle Les accords ADPIC, CDB (Convention sur la Diversité Biologique) ou ITPGRFA (traité international sur les ressources phytogénétiques pour l’alimentation et l’agriculture) ont des effets directs sur l’activité des paysans du monde. La prise de risque des OGM découle principalement du régime des brevets, dominé par le Nord. La brevetabilité du vivant va de pair avec la réduction de la diversité des semences et des espèces animales domestiques. Le travail millénaire des paysans et des peuples indigènes pour sélectionner les cultures et les plantes médicinales se voit aujourd’hui approprié par les entreprises et les universités du Nord dans un vaste mouvement de biopiraterie. Animatrice = Valérie Peugeot Intervenants - François Dufour, Confédération paysanne. - Frédéric Thomas, conquête coloniale et production des savoirs, ex INRA. - Suman Sahai, http://www.genecampaign.org. - Anne Chetaille, représentante du GRET. 12h30 à 14h00 : Déjeuner 14h00 à 15h30 Atelier C : Recherche, industrie et brevets La relation entre brevets et développement est au coeur du débat sur les mécanismes mis en place par les pays du Nord pour, comme l’a dit Ha-Joon Chang [1], « enlever aux pays du Sud l’échelle » qui leur avait permis de se développer. Mais aujourd’hui, l’interrogation du rôle des brevets va bien au-delà : - L’appropriation restrictive des brevets frappe non seulement le développement industriel dérivé (se déroulant à partir de l’état actuel des techniques) mais aussi le développement d’autres modèles d’innovation comme ceux liés aux biens communs (logiciels libres, ressources biologiques coopératives). Elle entrave l’activité de recherche, l’exception pour la recherche étant inopérante dès que la recherche suppose un déploiement de l’usage. - L’interrogation du concept de développement lui-même amène à se poser la question de l’impact des brevets sur les cibles d’innovation elles-mêmes : dans quelle mesure les brevets encouragent-ils ou découragent-ils la recherche-développement visant des technologies correspondant à des modèles de développement endogène, soutenable et centré sur le développement humain. Animateur = Philippe Aigrain Intervenants - Jamie Love - Mohamed Larbi Bouguerra, ancien directeur de l’Institut national de la recherche scientifique et technique de Tunisie, auteur de "La recherche contre le tiers-monde" et "Des batailles de l’eau, pour un bien commun de l’humanité". - Cheick Oumar Sagara, Université de Bamako, chef de projet C3LD-MALI. - Michel Trometter, INRA 15h45 à 17h15 Atelier D : Connaissance, création et propriété intellectuelle Les besoins de développement au Sud passent par l’organisation collective des grandes fonctions de circulation de la connaissance et de la culture : écoles, bibliothèques, diffusion des résultats de la recherche. Ces infrastructures permettent de stimuler la création et d’adapter les réseaux de diffusion aux conditions locales, dans le respect de la diversité culturelle. Les accords mondiaux actuels, loin d’aller dans ce sens, renforcent la domination des industries de produits culturels, des médias et des grandes universités du Nord. Comment aujourd’hui développer l’utilisation équitable des ressources culturelles au profit des pays en développement et instaurer des régimes d’exception allant en ce sens ? Comment les auteurs, créateurs et intellectuels des pays du Sud peuvent-ils utiliser la fabrication d’un domaine public consenti, au travers des licences d’usage de type Creative commons, et constituer ainsi leurs réseaux d’échanges de connaissances et de culture inter-Sud et du Sud vers le Nord ? Animateur = Hervé Le Crosnier Intervenants - Pascal Renaud, IRD, Vecam. - Jean-Claude Guédon, université de Montréal. - Claudine Belayche, (Association des bibliothécaires francophones) : favoriser l’accès socialisé à la lecture. 17h30 à 18h30 : Plénière de clôture • La plénière de clôture sera consacrée au décryptage des négociations internationales en cours autour des enjeux traités tout au long de la journée et à l’identification des prochains rendez-vous politiques qui peuvent constituer autant points de convergence pour les mouvements qui résistent à l’accaparement des connaissances. Animatrice = Valérie Peugeot • Présence de « grands témoins ». - Suman Sahai. - Jamie Love - German Velasquez, Associate Director Department of Technical Cooperation for Essential Drugs and Traditional Medicine Organisation mondiale de la santé (OMS).
2005-02-16 23:54:15
Formulaire d'inscription
http://www.vecam.org/inscription_avril.php3
L’information et ses technologies refaçonnent notre univers technique, social et éthique, mais ces bouleversements se font dans deux directions opposées selon que l’on choisit d’en encourager l’appropriation privée ou d’en faire des biens communs. D’un côté, l’extension des domaines couverts par les brevets (molécules pharmaceutiques, variétés végétales, séquences génétiques, logiciels) restreint, pour le profit de quelques multinationales, l’accès à des ressources essentielles telles que les médicaments, les semences et l’information. La concentration des médias - notamment audiovisuels - menace la démocratie là où elle existe. De l’autre côté, la production et le partage de l’information et des créations sont plus libres qu’avant, et la multiplication des échanges esquisse une société mondiale, diverse et solidaire. Les médias coopératifs, les logiciels libres, les publications scientifiques ouvertes et les autres biens communs réinventent la démocratie. Comment les acteurs de ces nouveaux domaines peuvent-ils faire cause commune par-delà ce qui sépare les logiciels des ressources biologiques, ou l’art des sciences ? Comment l’information peut-elle servir les biens publics sociaux de la santé, de l’éducation ou de la solidarité au lieu de contribuer à les détruire ? Quelles alliances peut-on envisager entre les sociétés et les États, gardiens irremplaçables des biens communs épuisables que sont l’eau ou l’air ? Dans cet ouvrage, Philippe Aigrain analyse les causes et les origines d’une situation paradoxale et les tensions qu’elle suscite. Il propose une politique qui remette les êtres humains aux commandes de ces transformations.
2005-02-17 00:25:16
Cause commune sur Amazon
http://www.amazon.fr/exec/obidos/ASIN/2213623058/homonumericus-21
par Fabien Granjon et Dominique Cardon Résumé Si la lecture critique des médias dominants (que d'aucuns pensent faire évoluer à terme vers un « réformisme ordonné et éthique » des moyens de communication) se présente comme un combat où le mouvement altermondialiste se doit d'être actif, la stratégie de résistance aux diktats des idéologies dominantes passe également par l'appropriation des plus récentes technologies de l'information et de la communication et la création de médias alternatifs défendant des valeurs autres que celles du marché, permettant aux mouvements sociaux d'accéder à une certaine émancipation médiatique. Les initiatives allant dans ce sens se sont multipliées ces dernières années, révélant l'émergence de dispositifs sociotechniques portés par un militantisme informationnel dont l'existence même tient à la mise en accusation des constructions journalistiques et à la production de représentations autonomes du mouvement. L'on peut sans doute avancer l'idée de l'édification d'un répertoire médiatique transnational propre au mouvement altermondialiste, un espace public médiatique multiforme, fait de communautés d'action et d'espaces de représentation variés, et au sein duquel les dimensions à la fois locale, nationale et internationale s'interpénètrent de façon forte. Sans avoir les moyens d'avancer que de tels espaces publics (tels qu'ils se donnent à voir au travers du cas d'Attac-info ou d'autres initiatives) contribuent effectivement à la mobilisation de l'action, on peut sans doute plus aisément penser que leur existence permet au moins d'assurer une meilleure représentation des intérêts des luttes altermondialistes et de contribuer à la construction symbolique des identités d'un mouvement en pleine croissance, au-delà des cercles militants qui travaillent directement à son édification. Lors de travaux antérieurs, nous défendions l'idée que, globalement, ces « nouveaux » espaces publics étaient le lieu d'une reconstruction de certaines figures de la critique sociale et politique et qu'ils étaient porteurs de discours démentant l'idée d'une dépolitisation et d'une orientation vers le témoignage compassionnel des formes d'expression publiques. Bien que les dernières recherches que nous avons menées (en particulier le cas d'Attac-info) ne contredisent pas le caractère plus affirmé des répertoires de la parole publique, l'attention que nous avons ici portée au fonctionnement effectif de l'un de ces espaces informationnels, nous amène toutefois à préciser que la radicalisation relative des espaces de représentation, n'atteste en aucun cas de manière automatique d'un affermissement idéologique des communautés d'action qui les portent.
2005-02-17 00:45:18
Archivesic
http://archivesic.ccsd.cnrs.fr/sic_00001336.html
«Au delà des applications métiers très spécifiques, assez rares sont les logiciels libres grand public (end user) d’origine francophone à connaître une renommée internationale. On pourra citer par exemple la distribution Linux Mandrake, le moteur de blog Dotclear, le CMS Spip, l’éditeur de pages web Nvu, ou encore le pack webmaster EasyPHP. VideoLAN est de ceux là. Il s’agit d’une suite logicielle, un client et un serveur, chargé à l’origine d’assurer la diffusion de vidéo sur un réseau informatique local (LAN). Mais c’est en fait le seul lecteur, que l’on appelle aussi VLC pour VideoLAN Client, qui a fait le succès du projet de part à sa capacité à lire preque tous les formats. Avec le Media Player Classic, c’est ainsi le lecteur multimédia libre le plus utilisé sous Windows. Issu de l’École Centrale de Paris (ECP), c’est un projet original et spécifique parce qu’il entretient des liens très étroits avec cette école et ses étudiants. Mais c’est aussi un projet libre qui accueille (ou est censé accueillir) n’importe quelle contribution via internet. De part sa proximité géographique, c’est le projet qu’a choisi Thomas Basset, étudiant à Sciences Po, pour son mémoire de DEA de sociologie (filière sociologie de l’action organisée), paru en septembre 2003, dont le titre exact (qui annonce bien la couleur) est « Monographie d’un logiciel libre : VideoLAN - Légitimité, pouvoir et repoduction d’une structure hiérarchique entre personnes reliées par Internet et regroupées au sein d’une organisation collégiale ». Sur plus d’une centaine de pages, voici donc une enquête accessible et approfondie à l’intérieur du développement d’un projet libre (dont on prend le soin d’en rappeler la définition). Dans la mesure où le logiciel libre a aujourd’hui dépassé la sphère des informaticiens pour avoir quasiment pignon sur rue, nombreux seront les utlisateurs intéressés par ce document, qui a su éviter la complaisance et qui n’hésite pas au passage à écorner parfois certains mythes de la communauté.»
2005-02-18 19:57:10
Framasoft
http://www.framasoft.net/article3586.html
«Last January, when I first wrote about the medium that I’ve since come to call screencasting, it seemed an odd-enough topic that I felt obliged to justify it to my editor. A year later it’s clear that my instincts weren’t leading me astray. I’m now using screencasts — that is, narrated movies of software in action — to showcase application tips, capture and publish product demonstrations, and even make short documentaries. And I’m seeing others around the Net starting to do the same. Now’s a good time to explain why I think this mode of communication matters and will flourish. Let’s start with the simplest form: a screencast that highlights a product feature, offers a tip, or teaches a technique. An example is the 90-second short movie I made to show how I use a Firefox extension called Linky to efficiently review a set of linked pages. Of course I could explain the procedure using the written word. As one viewer of the screencast noted, however, “There’s nothing like seeing.”»
2005-02-18 20:36:34
Let's hear it for screencasting
http://www.infoworld.com/article/05/02/11/07OPstrategic_1.html
Podcast Makes Podcasting History :- NEW YORK, Sun 20 Feb 2005 - MANDINGO embraces the Magic Of Super Sunday. In celebration of President's Day Weekend, Aruntx iPodcasting Syndication Network (http://aruntx.com) commences a one-hour program hosted by Tom Fallon, known for his dynamic and engaging style. This weekly program offers all the great Motown songs by all the great Motown artists from the 1960s and 1970s. Each show features information on the artists and Motown Memories trivia questions. Listen to Motown Memories anywhere in the world with genuine Aruntx iPodcast Entertainment Syndication. (http://motownmemories.com). In a power pack, Aruntx Entertainment Syndication Proudly Presents - Polyester Radio. Polyester Radio takes you back to the 70s and Very Early 80s when Disco was thought to be unstoppable. Hosted by SW of radio station KQCX Queen Creek Arizonia, (http://www.kqcx.com), this program gives you a retrospective look at the music which turns your iPod or mobile device into a personalized radio station, loading it with beautiful classics. The concept of the Aruntx iPodcasting Syndication Network is unique and a podcast first making podcasting history, given content of a radio station located in Arizonia is being syndicated, podcast if you please, by a facility located in New York City, turning your iPod into a personalized radio station; for usage riding in an underground subway or beyond the limited broadcast range of KQCX low power 100 Milliwatts AM and 250 Milliwatts FM the maximum allowed by the FCC. Further Aruntx Syndication provides a bridge of low power radio to be transmitted over the internet whether by podcast software, Aruntx non-software delivery or Aruntx mobile delivery to a network of Mobile 3G High Speed Transmission SmartPhones. The original content delivery has a multi-national distribution potential with Aruntx Syndication. (http://podcasts.tk) ###
2005-02-20 12:48:02
Aruntx Newswire Radio Show
http://aruntx.com/podcast/shows/
The issue papers below are the first of a series of 'draft working papers' prepared by WGIG members, reflecting the preliminary findings of various drafting teams. They have been prepared according to a list of issues, which was developed at the First Meeting of WGIG. Mainly due to time constraints it was not possible to develop papers on all issues on the list. The issue papers are conceived as a brief summary (ideally three to five pages), based on this template. In some cases, due to the complexity of the issues concerned, the papers exceeded this size. The draft working papers have been subject to review by all WGIG members, but they do not necessarily present a consensus position nor do they contain agreed language accepted by every member. The purpose of the drafts is to develop a common understanding on a given issue and to provide a basis for the ongoing work of the group. They are therefore not to be seen as chapters of the final WGIG report, but rather as work in progress and raw material that will be used when drafting the report. The draft working papers have been published here for public comment, so they will evolve, taking into account input from governments and stakeholders. Additional draft working papers will be made available in this section. List of Papers: - Administration of Internet names and IP addresses - Administration of the Root Server system - Peering and Interconnection - Telecommunications infrastructure, broadband access, convergence with NGN - Cyber security, cybercrime - Competition policy, liberalization, privatization and regulations - Multilingualization of Internet naming systems - Spam - Dispute Resolution - Security of network and information systems - Technical Standards - Affordable and universal access - Social dimensions and inclusion - VoIP - E-commerce - Consumer, user protection and privacy - Unlawful content and access protection - Intellectual Property Rights (Executive Summary) - Cultural and linguistic diversity - Education and human capacity building - National Policies and Regulations
2005-02-20 20:02:41
WGIG Report
http://www.wgig.org/working-papers.html
Today the Electronic Frontier Foundation (EFF) released a white paper warning consumers about how they can be harmed by end user license agreements (EULAs) for consumer electronics and online services. Many EULAs contain terms that damage consumer interests, including invitations for vendors to snoop on users' computers, prohibitions on publicly criticizing the product in question, and bans on customizing or even repairing purchased devices. "Overbroad EULAs are one of the greatest threats to consumer rights in the high tech industry," said Annalee Newitz, EFF policy analyst and author of the white paper. "Few people realize that simply visiting a website or downloading a software update may constitute 'agreeing' to a EULA that permits third parties to monitor your communications or allows a vendor to dictate what you can or cannot do with the product you've bought. Clicking the 'I Agree' button may mean clicking away your privacy, freedom of speech, or other rights." EULAs, often called "click-through agreements," have become ubiquitous in the technology industry. While they are supposed to bind consumers to strict terms dictated by vendors, consumers don't negotiate them, don't sign them, and in many cases can't even read them until after they've bought the product, taken it home, and opened up the package. EFF's white paper, "Dangerous Terms – A User's Guide to EULAs," comes at a key juncture in the case of Davidson (commonly known as Blizzard) v. Internet Gateway, a lawsuit that tests whether EULAs can override public protections under federal copyright law such as the fair use doctrine. Tomorrow, lawyers for Blizzard will file an appeal brief arguing that three open source programmers violated Blizzard Entertainment's EULA by creating bnetd, a free game server whose creation was a fair use under copyright law. EFF is co-counsel to the defendants in the case, which is currently on appeal in the Eighth Circuit. EFF is also in the process of devising legal strategies to challenge EULAs. This white paper is intended to educate the public, but also to serve as a call to arms for consumers who want to fight unfair terms in EULAs. EFF invites people who have been harmed by EULA terms, or who have been threatened with lawsuits for violating terms in EULAs, to contact EFF with their stories.
2005-02-20 20:14:02
Electronic Frontier Foundation
http://eff.org/wp/eula.php
«Second cahier de partage d’expérience de la collection "L’accessibilité pour tous aux TIC", proposée par CRéATIF avec le soutien de la Caisse des Dépôts et Consignations, de la Délégation aux Usages de l’Internet et de plusieurs collectivités régionales. Il s’adresse plus particulièrement aux animateurs et responsables de lieux d’accès publics au multimédia et à internet, ainsi qu’aux professionnels de l’insertion sociale. La rédaction a été menée par une équipe d’une douzaine de contributeurs-trices, animée et coordonnée par Philippe Cazeneuve.»
2005-02-20 20:49:18
Créatif
http://www.creatif-public.net/rubrique.php3?id_rubrique=20
«Aujourd'hui une compagnie de disques ou de cinéma peut légalement embaucher des enquêteurs privés pour faire la chasse aux amateurs de fichiers musicaux ou vidéos qui les échangent sur les réseaux P2P (Gnutella, eDonkey, Kazaa, etc.)... pour les faire condamner ensuite en vertu de la LEN. Aujourd'hui les « responsables des ressources humaines » font de plus en plus de recherches sur Google sur les candidat(e)s éventuels à l'embauche à la recherche d'éventuels sites personnels, contributions sur des forums ou autres mailing lists. Aujourd'hui, grâce à la LEN, les services de police peuvent en toute légalité intercepter des courriers électroniques (ce n'est pas vraiment de la correspondance privée), voir faire intrusion sur des disques dur d'ordinateurs, pour les « besoins de l'enquête. » Une entreprise peut aussi consulter les logs de son intranet ou de son proxy pour raisons de sécurité, et au passage « contrôler » les activités en ligne de ses salariés, à la recherche des éventuels amateurs de sites cochon aussi bien que des activités syndicales. Ces quelques exemples ne font que démontrer à quel point l'utilisation des dites nouvelles technologies de l'information et de la communication par les activistes, les militants, les associations ou les simples citoyens sont tout autant riche en possibilité que risquées du point de vue de la confidentialité des échanges et des activités. Il appartient donc à chacun et chacune d'entre nous de connaître un minimum les possibilités réelles de la surveillance de la communication via l'Internet et tout autant de prendre en charge les moyens pratiques de garantir un minimum la confidentialité et la protection de nos échanges, qu'ils soient privés ou dans le cadre d'une activité collective. Nous organisons donc une journée de d'information, de discussion et d'ateliers pratiques sur ces questions avec l'objectif de permettre à chacun et chacune, même sans « compétences techniques » particulières, de mettre en pratique cette règle des réseaux : pour vivre libre vivons cachés... du moins des grandes oreilles et du regard de Big Brother. --- Samedi 26 février --- 10 H – 11 H 30 : Accueil par l'EPN L'espace libre 13.1 a pour vocation de mettre à la disposition du grand public des outils et des moyens d'accès aux technologies de l'information et de la communication, il permet à tous les publics de s'initier et de se former aux nouvelles technologies. Le support des logiciels libres sera privilégié. L'ASTS étant l'association porteuse, elle donnera une une inclinaison vers la vulgarisation scientifique mais aussi les débats de société, notamment la question du numérique. Samizdat : Introduction à la journée Diapo : Quelle confiance accorder aux mails que nous recevons ? Eléments de réponse. Débat avec les participants (fin 12H30) 14 H – 16 H : Conférences débats « Le droit, la loi et les communications privées sur internet » Sébastien Canevet – Docteur en droit – Membre du Conseil d'Orientation du Forum des Droits de l'Internet – Expert auprès du Ministère des Affaires Etrangères. « Comment protéger sa vie privée sur l'Internet » Jean Marc Manach – Journaliste – Membre de la Fédération informatique et Libertés (FIL). Débat avec la salle 16 H – 18 H : Ateliers 16 h : Projection Vidéo réalisée par Regarde à vue : « Quand la loi est injuste, la désobéissance est un droit, formation crypto, samizdat.net, 18 septembre 2004 » 16 H 15 : Ateliers : mettre ses mails sous enveloppe, comment authentifier et chiffrer ses messages. 18 H : fin Les participants peuvent apporter leur ordinateur portable s'ils le souhaitent (connexion wifi assurée). Ils peuvent également se munir d'une clé USB ou d'une disquette pour récupérer les clés d'authentification et de chiffrage que nous leur proposons de générer dans les ateliers. Espace Public Numerique 47 rue du javelot, 75013 Paris Tél. 01 45 70 75 32»
2005-02-23 09:57:27
Samizdat
http://infoblog.samizdat.net/page.php?p=1902
Un partenariat entre l'Espace culture multimédia de l'Espace Mendès France (centre de culture scientifique, technique et industrielle en Poitou-Charentes) et l'Ecole supérieure de l'image de Poitiers le mardi 1er mars 2005 Journée de réflexion et d'échanges sur la création numérique dans ses relations avec les pratiques du logiciel libre et du développement en open source. Cette journée s'intègre dans le programme de l'Atelier de Recherche et Création Art en ligne, animé par Emmanuelle Baud, Jean-Jacques Gay, Aurélien Bambagioni et Jean-François Joyeux. PROGRAMME Entrée libre. Matin (10h à 12h30) : Conférences modérées par Emmanuelle Baud (ESI Poitiers) Samuel Bianchini : Open source : mise en oeuvre collective, publique et permanente. Considérant internet comme une nouvelle forme d'espace public, comment oeuvrer dans cet espace et pour cet espace ? Défini par les activités - et même les interactivités - qui s'y produisent, cet espace n'est jamais acquis ou stabilisé, mais le reflet d'une mise en oeuvre permanente. Comment envisager la création collective dans un tel contexte qui confond de plus en plus oeuvre et mise en oeuvre ? Au-delà de ses aspects juridiques fondamentaux, l'open source nous donne des référents aussi bien méthodologiques qu'organisationnels pour envisager des modes de création appropriés à ce nouveau contexte. Isabelle Vodjani : Le rôle du copyleft dans l'économie de la création et le marché de la culture Ma présentation s'appuie sur l'émergence massive de nouvelles formes d'activités qui sont à mi chemin entre amateurisme et professionnalisme. Elle s'attache à montrer que si ce phénomène accompagne la précarisation des activités créatrices (dont profite le marché de la culture), le copyleft apparaît comme la meilleure issue pour affirmer la primauté d'une économie de la création dans une culture dominée par l'économie de marché. Antoine Moreau : Du logiciel libre à l'art libre Comment le copyleft issu des logiciels libres en autorisant la copie, la diffusion et la transformation des oeuvres redéfini pour la création contemporaine la fonction de l'auteur et le statut de l'oeuvre. Peter Hanappe : Construire des écosystèmes pour la création collaborative La création partagée et ouverte sur internet a un profond impact sur l'industrie des contenus culturels : un nouvel écosystème peut apparaître. Pour en favoriser le développement, il faut toutefois mieux comprendre ce qui motive les participants à un tel système et les outils techniques qui le fondent et le dynamisent. Le développement d'une création collaborative pourrait être une réponse aux thèses alarmistes sur la marchandisation de la culture. Nathalie Magnan : Quel accès à la mémoire collective constituée par les médias ? De "illegal art" aux licences de contenus libres ("creative commons", "copyleft"), les artistes ont adopté différentes approches : des tactiques à saisir. Après midi de 14h30 à 18h : Table ronde modérée par Samuel Bianchini Aspects historique, technique et juridique comment le principe d'un développement informatique public et de licences publiques a été rendu possible ? Aspects artistiques comment les artistes investissent de tels modes de développement et dans quelles dynamiques de création ?
2005-02-23 22:43:05
CCSTI Poitou-Charente
http://www.maison-des-sciences.org/ecm/programmation/opensource
Organisé à l'IUT Michel de Montaigne de Bordeaux, ce débat s'inscrit dans le mandat confié par le Ministre Dominique de Villepin au Forum des droits sur l'internet La première étape du débat national sur la carte d'identité électronique se tiendra le : Mardi 8 mars 2005 de 14h à 16h30 à l'IUT Michel de Montaigne Grand Amphithéâtre 1 rue Jacques Ellul 33000 Bordeaux Entrée gratuite, Inscription obligatoire Elle se déroulera en présence de : Jean PERINGUEY Président de la communauté de commune de Villandraut, maire de Noaillan (33) Patrick NOUVEL Directeur commercial domaine identitaire Thales Security System André VITALIS Directeur du Centre d'Étude des Médias Université Michel de Montaigne Bordeaux III Marcel DESVERGNE Président d'Aquitaine Europe Communication Un représentant de la Ligue des Droits de l'Homme Délégation programme INES (Identité Nationale Electronique Sécurisée) Ministère de l'Intérieur Les thèmes abordés : - La mise en place d'une carte nationale d'identité électronique - Les garanties souhaitéees en terme de protection de la vie privée - L'accès à d'autres applications (services administratifs ou marchands) - Les modalités pratiques souhaitées Ce débat a pour but de recueillir l'avis des Français sur ces questions Entrée gratuite, Inscription obligatoire Manifestation réalisée en partenariat avec AEC et l'IUT Michel de Montaigne
2005-02-24 17:52:07
Forum des Droits de l'Internet
http://www.foruminternet.org/activites_evenements/lire.phtml?id=99
L'innovation telle qu'on en parle n'est plus seulement technique. Innovation de service, de process, innovation par l'usage, innovation sociale, innovation incrémentale et de rupture... forment autant de facettes que les recherches et les pratiques ont exploré ces dernières années. L'internet et les T.I.C. entretiennent naturellement un rapport étroit avec l'innovation : parce que les technologies évoluent très vite ; parce que les usages demeurent encore émergents et extrêmement ouverts ; et enfin, phénomène plus neuf, parce qu'ils mettent entre les mains de chaque utilisateur des outils de production, de création et de diffusion de niveau professionnel.Pour sa 3e édition, l'Université de Printemps de la Fing convie chercheurs de tous horizons, entrepreneurs, acteurs publics, créateurs, acteurs sociaux... à réfléchir sur le thème « Innovation et Internet ». L'objectif est de partager visions et pratiques, de réfléchir et de produire ensemble, de tisser des liens entre des individus, des expériences et des savoirs venus d'horizons différents. L'Université se tiendra du 8 au 10 juin 2005 à Aix-en-Provence. En attendant la publication d'un programme plus détaillé, réservez vos dates.»
2005-02-25 21:02:03
Annonce sur le site de la Fing
http://www.fing.fr/index.php?rubrique=agenda#600
Abstract «Typical digital rights management (DRM) systems used for piracy protection in content distribution provide access to encrypted content only on the hardware identified in a digital license. This hardware locking restricts fair use, e.g., by preventing copying content for private use. Using hardware identity, media distributors can also link together all customer purchases, which can threaten customer privacy. The need to design DRM systems and electronic commerce business models that allow fair use is commonly agreed. But the intelligence and contextual factors that a judge uses in interpreting the legal limits of fair use in the US cannot be fully implemented in the licensing rules of DRM systems. However, approximating fair use by licensing would be well in line with the requirement of the EU copyright directive and would also serve customers in the US by reducing the need for costly human evaluation. We propose approaching this problem by a set of new design concepts bringing access to process context information to DRM license control systems. These concepts provide privacy by separating user and product identities and by enabling distribution history tracking. The fair use licensing proposed does not violate privacy although it maintains the advantages of hardware locking. It also enables new added value services for customers on back-up services and on re-sales of content products.» D-Lib Magazine _ February 2005 _ Volume 11 Number 2 ISSN 1082-9873 _ Concepts and a Design for Fair Use and Privacy in DRM Pasi Tyrväinen _ University of Jyväskylä, Finland
2005-02-26 17:33:58
D-lib magazine
http://www.dlib.org/dlib/february05/tyrvainen/02tyrvainen.html
[[Note à l'attention des puristes et autres gardiens du temple prompts à dégainer le RPG à la moindre occasion : ce titre est un clin d'oeil, une blague (notez bien les guillemets), avec tous les smileys ;-) ;-) qu'on voudra en guise de prophylaxie du [troll commun->http://www.uzine.net/article1032.htm] ]]Homo Numericus met à disposition de ses lecteurs la liste exhaustive de ses sources d'informations ; soit plus d'une centaine de sites, blogs, magazines et revues en ligne portant sur différents aspects de la société de l'information. Les dernières publications de chacune de ces sources sont affichées sur les pages de présentation des différentes rubriques d'Homo Numericus : [Cybercratie->http://www.homo-numericus.net/rubrique.php3?id_rubrique=23], [E-maginer->http://www.homo-numericus.net/rubrique.php3?id_rubrique=2], [Kap-IT-al->http://www.homo-numericus.net/rubrique.php3?id_rubrique=3] et [Numerica->http://www.homo-numericus.net/rubrique.php3?id_rubrique=24]. Par ailleurs, la totalité des sources syndiquées est affichée sur [une page synthétique->http://www.homo-numericus.net/source.php3], donnant accès à leurs publications, mais aussi à l'adresse de syndication qu'offre chacune d'elle. Il est enfin possible de télécharger en un seul fichier OPML la liste complète de ces sources. Rappelons que ces ressources reposent sur le protocole RSS, qui est exploité par des agrégateurs de contenus. Ceux-ci peuvent prendre la forme d'interfaces web (comme [Bloglines->http://www.bloglines.com] ou de logiciels clients spécifiques (nous recommandons en particulier [RSSowl->http://www.rssowl.org/]). Les fils de nouvelles peuvent être ajoutés dans ces outils, ou bien manuellement (utiliser les logos "RSS" pour repérer les adresses), ou bien en bloc, par l'intermédiaire d'un fichier OPML.
2005-02-27 20:14:26
Les sources du site open
http://www.homo-numericus.net/source.php3
Il aura fallu renoncer à la synchronisation intégrale avec Windows pour être totalement libre de mes mouvements. Au fond, ce n'est que justice. A quoi cela sert-il, de se créer mille fils à la patte? L'épreuve du feu est là, devant moi. J'ai donc installé ce matin la distribution Linux Ubuntu, très à la mode, pour de bonnes raisons. Aussi facile qu'une Mandrake, aussi fiable qu'une Debian. J'ai dû éditer le fichier /etc/fstab pour monter automatiquement la partition windows que je conserve, et le transfert des fichiers Thunderbird de Windows vers Linux m'a donné quelques cheveux blancs (perte des accents lors du transfert ; sans doute aurais-je dû renseigner plus précisément le charset utilisé sur windows)... mais j'y suis. Je n'ai eu aucun problème de reconnaisssance de périphérique (Dell Latitude D600), ni de configuration réseau, ni de mise à jour. Il a fallu ajouter Thunderbird, car Ubuntu préfère l'excellent Evolution. C'est très simple grâce au gestionnaire de paquets "Synaptic". Mon environnement est désormais simple : OpenOffice.org, Thunderbird, Firefox. Il me reste à retourner de temps en temps sur Windows pour utiliser mes anciennes bases Filemaker et Access, ainsi que six années de courrier électronique conservées sur Eudora. En théorie, je n'ai pas vraiment d'autre raison d'aller sur Windows. Je l'espère, du mois. Pourquoi avoir perdu tant de temps entre le moment où j'ai voulu aller sur Linux et le moment où j'ai l'impression d'avoir une installation qui pourrait durer? Tout simplement parce que j'étais trop pris par le boulot. C'est bien là que réside la principale menace vers la remise en cause des monopoles : l'habitude, le manque de temps, l'inertie quotidienne.
2005-05-30 15:50:59
http://
«Ce blog est un espace de travail et d'expérimentation qui s'inscrit dans le cadre du cours *Dissidences Numériques* dispensé en 3ème année de Licence Arts et Culture de l'Université Lille III. Enseignants et etudiants ont à cette occasion rendu compte de pratiques contemporaines, actions, performances, réalisations hybrides pour lesquelles artistes, codeurs, activistes se trouvent réunis parfois dans une même personnalité ou interagissent dans des coalitions créatives. Ces pratiques témoignent de la manière dont aujourd'hui des artistes contemporains, des hackers et des activistes se trouvent engagés dans des actions croisant les frontières de l'art, la technique et la politique. Cela suppose de repenser la politique comme une culture, la chose politique comme une "res publica", qui a besoin pour apparaître comme telle, pour rassembler et faire agir, d'une scène, d'une dramaturgie et d'une rhétorique. On comprend mieux dès lors comment la culture peut être une politique et comment la technique un objet de politisation. Les avant-gardes du 2oème siècle ou le Do It Yourself du mouvement punk rappellent qu'un mode d'action politique historique a été la résistance culturelle. Les mouvements de désobéissance civile non violents conduits par Gandhi et Luther King ou les actions fulgurantes des black block démontrent combien l'action politique est aussi une performance et nécessite une imagination formelle. Depuis les campagnes roses et noires d/'Act Up/ aux/ strategic software/ des activistes du copyright /Downhillbattle/ se coalisent des causes publiques densifiant l'agenda politique A leur tour, les étudiants imaginent de nouvelles formes de réarticulation entre les arts, les techniques et la politique et explorent les bords du possible... En designant des modes opératoires d’action collective et déployant des moyens d’expression au croisement de la guerilla sémiotique et de la culture du hack, leurs actions ouvrent les raisons d'agir, les causes et les moyens qui font se rassembler un public.» (Transmis via Escape-l (entre autres))
2005-06-03 18:30:27
Politechnicart
http://www.politechnicart.net/blog/
Pour qui s'intéresse à la manière dont la mouvance du [?logiciel libre] interagit avec le reste de la société, la période électorale que traverse la France cette année représente sans doute un moment important. L'initiative [Candidats.fr->http://www.candidats.fr], mise en place par une des associations de défense du logiciel libre, [l'April->http://www.april.org/], en est une manifestation importante. Utilisant la même méthode que Nicolas Hulot avec son pacte écologique, Candidats.fr tente de contraindre les candidats, d'abord à l'élection présidentielle, puis aux législatives, de prendre publiquement des engagements en matière de législation sur le logiciel ou d'utilisation des logiciels libres au sein des administrations. Ce n'est pas un hasard si cette initiative s'est mise en place quelques mois après l'adoption de la lois sur le Droit d'Auteur et les Droits Voisins dans la Société de l'Information ( [?DADVSI] ). Cette loi, et plus encore, la manière dont elle a été discutée et adoptée à l'Assemblée Nationale, ont en effet représenté un événement majeur dans le cercle, assez restreint, de ceux qui s'intéressent à ces questions. D'un côté, elle a mis en lumière l'incroyable poids du lobby des industries culturelles au sein du Ministère de la Culture, agissant sans complexe auprès de responsables politiques dépassés par les événements. De l'autre, elle a montré qu'on ne pouvait plus considérer que la classe politique dans son ensemble était réfractaire à tout intérêt pour les questions technologiques. Au cours des débats, plusieurs députés et sénateurs, y compris parmi ceux qui n'étaient pas a priori spécialisés sur la question, ont fait preuve d'un véritable intérêt et de réelles connaissances sur les questions techniques sous-jacentes. Candidats.fr semble tirer les leçons politiques de cette double expérience en tentant de faire pression sur les responsables politiques. Et ce n'est pas un hasard si ceux que l'on retrouve à la tête de l'initiative, se sont particulièrement illustrés lors des débats sur la DADVSI - avec l'initaitve [EUCD.info->http://www.eucd.info] notamment. Il faut bien dire que pour l'instant, l'expérience n'est pas très concluante. Les réponses des candidats aux élections présidentielles ont été peu nombreuses et tardives. A quelques semaines du scrutin législatif, seuls 38 candidats à la députation ont répondu au [Pacte du logiciel libre->http://candidats.fr/index.php/2007/05/23/78-le-pacte-du-logiciel-libre], qui leur était proposé. Il est clair que les militants du logiciel libre n'en sont qu'au tout début d'un processus qui ira certainement en s'amplifiant dans les années à venir. C'est d'ailleurs convergent avec l'évolution générale d'une société qui voit les revendications communautaires émerger progressivement et s'organiser pour peser sur la décision politique. Sur leur chemin, ils rencontreront cependant une difficulté qu'il leur faudra surmonter : le poids d'un groupe de pression est directement proportionnel à la popularité du thème sur lequel il travaille. Ainsi, la «méthode Hulot» ne peut fonctionner que dans la mesure où l'écologie et le réchauffement climatique sont devenus des sujets de préoccupation universellement partagés. On ne peut pas en dire autant du logiciel libre...pour l'instant. Erratum : contrairement à ce que laisse croire une formule malheureuse de ce texte, la plupart des candidats à l'élection présidentielle ont répondu au questionnaire envoyé par Candidats.fr. Ce n'est que le caractère tardif de ces réponses qui est manifeste. (voir les interventions de forum ci-dessous). HN présente ses excuses aux animateurs de Candidats.fr à qui il souhaite d'ailleurs de réussir dans leur entreprise...
2007-05-30 00:26:41
Candidats.fr
http://www.candidats.fr
«Certaines des ruptures les plus significatives de l’internet n’ont pas été initiées par un plan de développement industriel accompagnant la mise à disposition d’une technologie ou d’un service nouveau issus de laboratoires de recherches. Au contraire, beaucoup d’innovations que l’on connaît dans la société de l’information (Wi-Fi, P2P, Blogs…) ont pris forme par “le bas", au terme d’un processus coopératif réunissant, souvent de manière spontanée, des réseaux d’usagers. Cette dynamique “horizontale", appelée également “innovation ascendante", est devenue une caractéristique essentielle du développement des usages et du marché de l’internet. Rencontre avec Dominique Cardon, responsable du Pôle usage au Laboratoire de sociologie des usages (SUSI) de France Télécom R&D, qui consacre une part importante de son travail à ce thème de recherche.» Lu dans Internet Actu
2005-06-03 21:46:19
Internet Actu
http://www.internetactu.net/index.php?p=5995
«Talk about decisions that come out of nowhere with no public discussion or warning: ICANN advances the .xxx domain name. Read the official press release or the CNN story. But most of all, read Lauren Weinstein's commentary, which seems to me to get the issues about exactly right. » M. Froomkin dans ICANNwatch et la réponse de Milton Mueller : « The issue is simple. ICANN's job is to coordinate the top level of the domain name space. Full stop. If someone puts forward a technically credible application for a .xxx TLD and no one else has it, then they should get an exclusive assignment. People who want ICANN to refuse to create a TLD because of its meaning or content, or because of speculation that its meaning might trigger political and legal effects they disapprove of, are asking ICANN to broaden its mission to make inappropriate policy judgments.»
2005-06-03 22:42:59
.xxx approval a positive sign
http://www.icannwatch.org/articles/05/06/03/0540257.shtml
«L'objectif des Rencontres Mondiales du Logiciel Libre est d'offrir un <img51|left>lieu de rencontre unique, localisé dans l'espace et dans le temps, au plus grand nombre de participants possible, qui permette la mise en commun des informations et la fédération des énergies autour de projets. Cette édition comportera une vingtaine de thèmes de conférences pour certaines accessibles à tous (« grand public »), pour d'autres réservées à un public averti (« techniques ») : - Administrations et Collectivités Territoriales ; - Audiovisuel ; - Bases de données et systèmes de fichiers ; - Cooker (Mandriva) ; - Documentation / Internationalisation ; - Éducation ; - Embarqué ; - Entreprises ; - Gestion de contenu (CMS) ; - Impression ; - Interlug ; - Jeux ; - Le Libre au-delà du logiciel ; - Loi, Économie, Politique et Logiciel Libre ; - Médecine ; - Méthodologie ; - Middlewares / Infrastructures logicielles libres ; - Noyaux et systèmes d'exploitations ; - Python ; - Logiciels libres pour la Recherche ; - Sécurité ; - Smalltalk ; - Systèmes d'Information Géographiques ; - XoopsFrance. Parmi les nombreuses personnalités présents, on remarquera notamment Harald Welte, de gpl-violations.org, David Turner, du GNU GPL Compliance Lab de la FSF et Michel Rocard qui participera à la plénière du jeudi 7 juillet après-midi, le lendemain de l'examen en seconde lecture de la directive brevets logiciels au Parlement Européen. Les visiteurs pourront également découvrir le village des associations et participer à ses animations. Nouveauté 2005, les RMLL comporteront également un « village des PME » qui permettra de rencontrer des entreprises régionales et internationales du logiciel libre. Le soir, en plus des traditionnelles retrouvailles conviviales dans les cafés et restaurants, les participants auront la possibilité de participer aux Nocturnes organisées aux Tanneries en marge des RMLL (voir dépêche précédente). Rejoignez-nous à Dijon du 5 au 9 juillet et réservez dès à présent vos repas et votre hébergement ! »
2005-06-06 12:45:49
RMLL
http://rencontresmondiales.org
«Organisation : - Florent Pasquier (IUFM Paris, Paragraphe / DNU ) Alors qu'évoluent les critiques et les malentendus dont elle est parfois encore l'objet, la création numérique contemporaine ne peut désormais plus être ignorée. Ses formes multiples (installations, net-art, performances, littérature, CD-Rom...) ne facilitent pas une véritable cohérence dans sa perception. Quelles sont alors ses modalités de diffusion actuelles permettant de la faire connaître, et pourquoi pas reconnaître, par les publics anciens et nouveaux amateurs d'art ? Animée et organisée par Florent Pasquier, la journée proposera de faire le point sur les questions liées à la diffusion des arts en "ique", sous forme de table-ronde réunissant plusieurs intervenants du secteur . 9h30. Introduction à la journée : la médiation des arts en "ique" : Florent Pasquier, Elodie Chagnas. 10h-11h15. Galeries : François Coulon (Totonium, www.francoiscoulon.com), Christophe Cartier (www.Visuelimage.com), Stéphane Maguet (www.NumerisCausa.com). 11h-12h30. Institutionnels : Jean-Christophe Theobalt (Ministère de la culture et de la communication, ECM, www.culture-multimedia.culture.fr), Beaubourg, Janique Laudouar (http://numedia.scola.ac-paris.fr), Jean-Damien Collin (http://espacegantner.cg90.fr), Jacques Parsi (http://www.cnac-gp.fr) 12h30-14h. Pause. 14h-15h15. Associations et Médias de diffusion : Robin Hunzinger (www.larevuedesressources.org), Thierry Destriez (http://www.heure-exquise.org), Xavier Cahen (http://www.pourinfos.org) 15h15-16h30. Organisateurs d'Evènements et de Festivals : Florent Aziosmanoff (Art 3000, Le Cube, Nov'Art : www.lesiteducube.com), Pierre-Emmnauel Reviron (www.arborescence.org), Aliette Guibert-Certhoux (www.critical secret.com), Agathe Ottavi (www.dedale.info) 16h30-17h. table-ronde finale.»
2005-06-06 13:04:33
Laboratoire Paragraphe
http://doc.univ-paris8.fr/je/2005/arts/
Rapport de Christian Vanneste, sur le projet de loi sur le droit d'auteur dans la société de l'information. Morceaux choisis et sélection forcément subjective. «À l'instar du financement partiel de la diffusion du téléphone mobile par le téléphone fixe, le développement et la diffusion d'internet haut-débit - avec un taux d'accès des ménages d'environ 13 % en France aujourd'hui, supérieur au taux d'accès au bas-débit - se sont opérés par une forme de subventionnement croisé, supporté involontairement par les titulaires des droits sur les contenus, au profit des fournisseurs d'accès à internet et de leurs clients. Ce transfert d' « utilité », au sens économique du terme, (14) a été estimé à environ 360 millions d'euros en 2003, et pourrait atteindre 500 millions d'euros en 2004, pour la seule industrie de l'accès à internet, c'est-à-dire en excluant les ventes d'équipements de micro-informatique. Ces montants correspondent à l'extrapolation, grossière mais cependant significative, de l'hypothèse suivant laquelle on peut estimer que la moitié (15) de l'utilité additionnelle du haut-débit proviendrait des contenus (et pas seulement du confort purement technique d'un débit supérieur), soit une estimation de la subvention résultant de l'évasion de valeur subie par les détenteurs des contenus, à hauteur d'environ 10 à 15 euros par mois et par abonné. (14) : « Enjeux économiques de la distribution des contenus », par Olivier Bomsel ; étude réalisée pour le SNEP (syndicat national de l'édition phonographique), mars 2004. (15) : Selon une enquête Ipsos Redi, de 2003, portant sur 6 600 individus interrogés dans 12 pays, 44 % des internautes ont téléchargé de la musique au moins une fois en 2002. ---------------------------------- «Le développement des téléchargements de fichiers musicaux à grande échelle a commencé, en l'occurrence, parallèlement au développement des accès à internet à haut débit, pour atteindre des volumes considérables. Selon les informations transmises par les éditeurs de phonogrammes, simultanément, dans le monde, 7,4 millions d'internautes utilisent des logiciels peer-to-peer. Le nombre de fichiers audio téléchargés sur ces logiciels se serait élevé, en 2003, à 6 milliards en France, à 65 milliards aux États-Unis, à 38 milliards en Europe de l'Ouest, et à un total de 150 milliards dans le monde (16), soit l'équivalent, par jour, pour ces zones géographiques respectives, de 15 millions, 200 millions, 100 millions, et de l'ordre de 500 millions. Ces volumes correspondent, de surcroît, à une croissance exponentielle puisque, en 2002, le nombre de fichiers téléchargés annuellement n'aurait pas dépassé 55 milliards, soit trois fois moins qu'en 2003, et de 20 à 25 milliards en 2001. À titre de comparaison, en 2003, l'industrie du disque a vendu, en France, près de 400 000 unités (albums et cd-deux titres) chaque jour, à comparer à 16 millions de fichiers audio en peer-to-peer (17). En conséquence, après une période de relative hésitation sur les conséquences potentielles de ces pratiques sur les ventes licites d'œuvres musicales, le chiffre d'affaires des éditeurs de phonogrammes français a subi des baisses marquées, répétées et régulières depuis les trois dernières années. Ainsi, son chiffre d'affaires a chuté de 14 % en valeur et de 11,5 % en volume en 2003, consécutives à des croissances encore constatées, respectivement, à hauteur de 4,4 % et 3,3 % en 200»2, et plus fortes encore, de 11 % en valeur en 2001. » ------------------------------------------ «du point de vue de la création et de la diversité culturelle, la chute des recettes commerciales conduit inexorablement à réduire la part des artistes les moins vendus. Certains artistes de renom, au succès déclinant, peuvent se voir privés de contrat. D'autres artistes nouveaux ne feront pas l'objet de l'investissement nécessaire pour prendre le risque de les « lancer ». Ainsi, le solde net des signatures de contrat (nouveaux contrats - contrats rendus) est demeuré positif en 2003, mais a néanmoins brutalement diminué. Il est en effet passé d'un niveau assez stable de 65 à 100 par an, à un étiage de 18 en 2003, contre 112 en 1995 et 1996. Cette diminution est à l'évidence particulièrement préoccupante.» --------------------------------------------------- « C'est pourquoi une action résolue des enseignants en ce sens s'avère aujourd'hui indispensable pour faire reprendre conscience à ceux qui l'auraient oublié de la valeur des droits d'auteur et du prix de la création. Le ministre de la Culture et de la communication, à l'occasion d'une récente communication en conseil des ministres du 2 juin 2004, a pris acte de cette exigence, et a présenté un plan global de lutte contre la piraterie, qui met l'accent sur la sensibilisation : - du jeune public, en premier lieu, avec le lancement d'une campagne de sensibilisation sur les conséquences dramatiques, pour la survie même des artistes, du « piratage » de leurs œuvres ; - des enseignants, ensuite, qui pourront apporter à leurs élèves toute la pédagogie nécessaire sur les dangers de cette « piraterie », sous réserve d'un travail de concert des ministères chargés respectivement de la culture et de l'éducation.» --------------------------------------------------- «Certains, notamment les gestionnaires institutionnels des droits des artistes-interprètes, considèrent que la lutte contre le téléchargement du type peer-to-peer constitue une forme de tonneau des Danaïdes, qu'aucun dispositif juridico-technique ne serait en mesure de complètement vider. En effet, selon eux, les mesures de protection technique ne résisteront pas indéfiniment à la capacité et à l'ingéniosité des « pirates » dans leur appétence à contourner les logiciels de protection. Or une fois la protection levée, il suffit d'une seule mise à disposition sur internet pour que le monde entier puisse y accéder immédiatement. Au demeurant, les logiciels de protection ne sont encore qu'imparfaitement fiables, en interdisant parfois même l'utilisation du produit sur des lecteurs standards du commerce, à l'instar de certains autoradios utilisant des lecteurs de type informatique et non audio. Par ailleurs, la condamnation pénale des protocoles déconcentrés de type peer-to-peer, organisés et développés précisément pour échapper à celle-ci, semble aujourd'hui peu vraisemblable, comme le montrent effectivement certains jugements de juridictions étrangères(25). Au-delà de ces considérations de nature plutôt techniques, les comportements de copie gratuite seraient, selon l'analyse des mêmes ayants droit des interprètes, entrés dans les habitudes à un point tel qu'un retour en arrière apparaîtrait difficile. Les tenants d'un tel dispositif évaluent aujourd'hui, très grossièrement et sans étude réellement approfondie, le montant de la rémunération qui serait nécessaire à environ 5 euros par abonné et par mois. Celui-ci s'ajouterait au prix des abonnements à internet en haut-débit, actuellement étalés, en France, entre 10 et 30 euros par mois, selon le débit et l'opérateur, mais en tout cas en voie de diminution progressive très sensible. Pour autant qu'une telle proposition soit économiquement équilibrée, et ne pèse pas de manière inéquitable sur des utilisateurs d'internet à haut débit honnêtes ne procédant jamais à des téléchargements illicites (26), elle soulève en tout état de cause des objections très importantes, de toutes natures et aujourd'hui non résolues» -------------------------------------- «Les États-Unis ont réagi très vite aux risques potentiels pour les industries culturelles résultant du développement du numérique, et ont traduit les engagements internationaux pris au sein de l'ompi dès le 28 octobre 1998 dans leur législation nationale, à travers le Digital millenium copyright act (dmca). Celui-ci prévoit notamment l'interdiction, à compter de 2000, de la neutralisation des dispositifs de contrôle d'accès autorisés par le titulaire des droits, ainsi que, dès 1998, de la fabrication et de la vente de techniques, produits ou services visant principalement à contourner les dispositifs d'accès et de protection contre la copie. Sont cependant prévues diverses exceptions à cette dernière interdiction : en cas d'évaluation pré-achat par les bibliothèques, à des fins d'interopérabilité, pour des tests de sécurité, pour les activités de recherche sur le cryptage, pour garantir la vie privée... Par ailleurs, l'apport essentiel du dmca réside dans les zones de sécurité (safe harbors) instituées au profit des fournisseurs d'accès à internet de services en ligne, sous réserve que ceux-ci respectent un certain nombre de règles telles que l'information de leurs clients que le service sera interrompu en cas de contrefaçons répétées, le respect des technologies de protection contre la copie, la désignation d'un responsable qui reçoit et gère les plaintes pour contrefaçon, ... Sous ces conditions, le fournisseur ne peut être tenu responsable ni de la transmission ou du stockage temporaire de contenus contrefaisants initiés par des tiers, ni du stockage temporaire et automatique pour accélérer la consultation des pages les plus demandées (caching), ni non plus du lien avec des sites contrefacteurs, tant que le fournisseur n'a pas connaissance de ce caractère contrefaisant. Enfin, par la voie de sommations judiciaires, le dmca impose au fournisseur internet de collaborer avec les titulaires de droits d'auteur pour l'identification de contrefacteurs présumés. Le dmca a également entériné l'accord intervenu entre les diffuseurs de radios sur internet (webcasters) et les titulaires de droits - en l'occurrence la puissante riaa (Recording industry association of America), permettant aux diffuseurs de souscrire une licence unique payante pour l'exécution en ligne d'enregistrements sonores.» ------------------------------------------------ « S'agissant des exceptions facultatives, le projet de loi a fait le choix de n'ajouter aux exceptions en vigueur que celle en faveur des personnes handicapées (cf. commentaires des mêmes articles 1er, 2 et 3). Le projet de loi n'a pas non plus prévu de préciser dans le droit français le régime des exceptions déjà en vigueur pour les aligner sur le dispositif communautaire. Ainsi, aurait-il pu en particulier prévoir de mieux définir, ou de consolider dans la loi française : - l'exception pour revue de presse, qui est plus clairement délimitée dans la directive (37) que dans la loi française, - l'exception jurisprudentielle, admise par la directive (38), pour les reproductions d'œuvres placées dans des lieux publics, que la jurisprudence française admet tant qu'elles présentent un caractère accessoire, - l'exception pour l'utilisation d'œuvres visant à annoncer des expositions publiques ou des ventes d'œuvres artistiques (39), qui doivent aujourd'hui s'inscrire dans la jurisprudence applicable aux courtes citations.» --------------------------------------------- « Constatant que la directive 2001/29 autorisait, à titre facultatif, une exception en faveur des activités pédagogiques et de recherche, au double titre du c) du 2. de son article 5 en ce qui concerne « les actes de reproduction spécifiques effectuées par des bibliothèques accessibles au public, des établissements d'enseignement ou des musées », et du a) du 3. de ce même article, s'agissant des « utilisations à des fins exclusives d'illustration dans le cadre de l'enseignement ou de la recherche scientifique (...) », nombreux ont été ceux qui, bénéficiaires potentiels de son éventuelle mise en œuvre, ont jugé le moment opportun d'en revendiquer l'inscription dans la loi française. Bien qu'effectivement en place dans certains autres États membres, et malgré l'avantage qui pourrait à l'évidence en être retiré à court terme en faveur de la diffusion de la culture et du savoir - en particulier pour certaines formes d'enseignement, telle l'histoire de l'art, qui reposent par nature sur la reproduction d'œuvres encore souvent protégées -, l'introduction d'une telle exception paraît toutefois difficilement compatible avec l'exigence de maintenir l'équilibre nécessaire à la rentabilisation des investissements indispensables pour permettre aux œuvres elles-mêmes de voir le jour. À cet égard, une démarche de nature contractuelle, entre les ayants droit et les éditeurs, d'une part, et les représentants institutionnels des chercheurs et des enseignements, notamment du supérieur, d'autre part, est manifestement plus satisfaisante. Elle impose en effet une réflexion et des efforts communs tenant compte de l'intérêt collectif, qui ne peut faire fi de l'évidence que toute création mérite rémunération.» --------------------------------- « EXAMEN EN COMMISSION La Commission a examiné le projet de loi au cours de sa séance du mardi 31 mai 2005. Après l'exposé du rapporteur, plusieurs commissaires sont intervenus dans la discussion générale. M. Christian Paul a noté que la complexité du droit modifié par le projet de loi ne devait pas faire oublier l'importance du risque que ce droit fait aujourd'hui courir aux jeunes générations. [...] S'agissant du projet de loi lui-même, il est regrettable que son examen ait été sans cesse reporté alors que le rapporteur avait commencé à l'étudier il y a un an et demi. En outre, la directive dont le projet de loi assure la transposition témoigne d'un contexte technologique ancien, puisqu'elle est l'expression d'un accord intervenu à l'ompi en 1996, alors que les conséquences des nouvelles possibilités d'échange offertes par la « révolution numérique » ne sont apparues en Europe qu'ultérieurement. Le retard pris pour son examen n'a pas permis pour autant de travailler sérieusement sur ce projet de loi, le Président de l'Assemblée nationale, M. Jean-Louis Debré, ayant refusé de constituer une mission d'information sur le sujet. Or une telle mission d'information aurait permis à tous les acteurs du dossier de débattre des conséquences de cette révolution numérique et d'aborder le problème dans sa globalité. Dès lors, ce projet de loi paraît refléter le choix gouvernemental d'ignorer l'intérêt général, celui des artistes comme celui de l'ensemble de la chaîne de création, de production et de diffusion des œuvres. La philosophie générale du texte du Gouvernement consiste en effet à rejeter toute recherche d'équilibre entre les intérêts en présence et à mener une répression excessive à l'encontre des internautes - alors que le nombre de « pirates » potentiels est aujourd'hui estimé à 8 millions. On peut légitimement s'interroger sur le sens de la poursuite de cette politique répressive et il serait souhaitable de s'orienter plutôt vers une légalisation des échanges d'œuvres sur internet, à condition que le produit de la rémunération versée aux fournisseurs d'accès soit réparti équitablement entre les auteurs. [...] M. Xavier de Roux a fait part de son soutien au projet de loi et a rappelé que l'extension de l'accès à la culture supposait avant tout l'existence d'une production culturelle, c'est-à-dire d'une création artistique. Or, les auteurs, comme l'ensemble de la chaîne de production artistique, sont aujourd'hui particulièrement affectés par la « révolution numérique ». La proposition de M. Christian Paul consiste à s'éloigner du système classique de rémunération des auteurs au moyen de la perception de droits individuels, pour y substituer un mécanisme dans lequel les auteurs seraient rémunérés grâce à la répartition « équitable » du produit de la contrepartie d'une licence légale, payée par les fournisseurs d'accès. Un tel système n'est pas réaliste, compte tenu de la difficulté déjà éprouvée pour assurer la gestion d'organisations collectives telles que les sociétés d'auteurs. Cette nouvelle logique s'éloignerait fortement du principe de rémunération des artistes au titre de leur création propre et de nombreux interprètes sont totalement hostiles à un bouleversement de cette nature. [...] Reprenant la parole M. Christian Paul a précisé que les artistes étaient actuellement privés d'une rémunération dont ils pourraient pourtant bénéficier si une redevance existait, alors que les plates-formes de téléchargement légal rémunèrent très faiblement les artistes. Le sondage précédemment cité indiquait d'ailleurs qu'une majorité de personnes étaient prêtes à accepter de payer jusqu'à cinq euros par mois pour pouvoir télécharger librement de la musique. Compte tenu du nombre d'abonnés à internet, cela permettrait ainsi des financements nouveaux considérables pour la création, en général, et pour les artistes en particulier car il est techniquement envisageable de lier la rémunération au nombre de téléchargements de chaque titre réellement effectués. Il est donc faux de faire croire que le débat opposerait les partisans de la gratuité à ceux d'un système organisé et structuré. Au contraire, le groupe socialiste propose la mise en place d'un véritable système de financement de la culture alors que la situation actuelle est un déni de rémunération des artistes, que la solution proposée par le projet de loi ne modifiera pas. [...] Soulignant comme M. Christian Paul, le caractère plus politique que technique du projet de loi, M. Jean Dionis du Séjour a considéré qu'il s'adressait à toute une génération, habituée à télécharger gratuitement sur internet : il faut prendre en compte cette réalité, sans verser cependant dans l'idéologie. En effet, ce texte applique le droit européen, centré sur la notion de droit exclusif et il va donc falloir orienter les internautes vers ce cadre nouveau pour eux. Ce sera probablement difficile et cela exigera de répondre très concrètement aux questions et objections posées par les utilisateurs concernant le fonctionnement des systèmes de musique en ligne payante, relatives notamment aux prix trop élevés et au nombre de titres disponibles insuffisant. Quant à la proposition d'instituer une licence légale, elle ne doit pas être diabolisée dans la mesure où ce mode de financement forfaitaire existe déjà en ce qui concerne les supports d'enregistrement vierges. La seule question à se poser est celle de l'équilibre entre avantages et inconvénients d'une telle solution par rapport à celle des droits exclusifs. Son premier inconvénient est d'être une taxe supplémentaire supportée par l'ensemble des usagers : or, si selon le sondage précédemment cité, 62 % des personnes se déclareraient prêtes à payer de 1 à 5 euros pour une telle taxe, 18 % seulement accepteraient une taxe entre 6 et 10 euros. Dans ce contexte, et compte tenu des tensions existantes sur le pouvoir d'achat des Français, instituer un prélèvement supplémentaire ne semble pas raisonnable. Le deuxième inconvénient de la licence légale réside dans la difficulté de rémunérer individuellement les artistes de façon précise. Ainsi, il semble préférable de suivre la philosophie proposée par le projet de loi, même s'il faudra tenir compte de l'évolution de la question dans l'avenir. Enfin, il semble que la contrepartie nécessaire de la reconnaissance des droits exclusifs soit de s'engager davantage dans la voie de l'interopérabilité des systèmes de lecture des œuvres numérisées. Le président Pascal Clément s'est déclaré sensible à l'argument concernant le pouvoir d'achat des ménages. En effet, il est aujourd'hui incontestable que la diffusion croissante des nouvelles technologies a entraîné une baisse des sommes consacrées aux autres formes de consommation, par exemple dans la grande distribution. M. Christian Paul a contesté la pertinence d'un argument tiré de l'amputation du pouvoir d'achat, dans la mesure où la redevance de l'ordre de cinq euros par mois qu'il propose permettrait d'accéder à des centaines de milliers de titres, alors que le prix moyen d'un cd récent est de l'ordre de 20 euros. M. Jean Dionis du Séjour a rappelé que beaucoup d'utilisateurs d'internet ne téléchargeaient pas de musique et que l'augmentation de 5 euros de leur abonnement aurait nécessairement des conséquences négatives sur le développement du haut-débit. »
2005-06-07 14:18:46
Rapport sur le projet de loi relatif au droit d'auteur et aux droits voisins dans la société de l'information
http://www.assemblee-nationale.fr/12/rapports/r2349.asp
«Monsieur le député, Suite à la publication de votre rapport sur le projet de loi sur le droit d'auteur et les droits voisins dans la société de l'information (DADVSI), nous tenons à vous exprimer notre inquiétude. En effet, dans votre rapport, vous indiquez que les dispositions de l'article 7.3 de ce projet de loi ont été conçues de façon à interdire la communication publique d'un code source permettant la mise en oeuvre de l'interopérabilité avec une mesure technique.[1] Cette analyse est aussi la nôtre et, comme nous l'avons fait auprès du sénateur Thiollère lors de nos auditions, nous vous signalons qu'une telle disposition aura pour effet immédiat d'exclure les acteurs du logiciel libre de nombreux marchés porteurs et stratégiques en les plongeant dans une insécurité juridique sans précédent. Nous tenons également à vous rappeller que, d'une part, certains travaux de la communauté du logiciel libre ont été classés par l'UNESCO comme Trésor du Monde,[2] et que, d'autre part, l'industrie du logiciel libre a été identifiée dans un récent rapport d'information parlementaire sur les outils de la politique industrielle (adopté à l'unanimité par la commission des finances, de l'économie générale et du plan) comme l'une des rares possiblités encore offertes à l'Europe pour reprendre l'initiative sur le marché du logiciel.[3] Nous trouvons dès lors incroyable que le législateur français se prépare à censurer, au nom du droit d'auteur, de tels auteurs. De plus, croire que la mise en place d'une protection par le secret sur les mesures techniques les rendra plus efficaces est une tartufferie. Comme nous l'avons expliqué au sénateur Thiollère lors de notre dernière audition, la sécurité par l'obscurité ne peut être une politique employée sur le long terme. Nous vous demandons donc de bien vouloir porter l'amendement de substitution à l'article 7.3 que nous vous avons communiqué par courriel le 2 juin dernier [...] Nous vous demandons de plus de faire inscrire dans le corps du projet de loi que les dispositions visant à protéger les mesures techniques ne remettent pas en cause les dispositions prévues à l'article 122-6-I du code de la propriété intellectuelle (exception "ingénierie inverse), pas plus qu'elles ne peuvent empêcher la recherche de la sécurité informatique. Nous vous communiquons ci joint un amendement allant dans ce sens [...] Enfin, nous nous permettons de vous communiquer une réponse de notre organisation au directeur général de la société civile des producteurs phonographiques (SCPP) suite aux propos qu'il a tenu sur l'article 7.3 du projet de loi DADVSI. En restant à votre disposition pour tout renseignement complémentaire ou pour une audition, et en espérant que vous saurez défendre les droits d'auteurs oeuvrant pour l'interêt général, veuillez agréer, Monsieur le député, l'expression de notre plus haute considération. [signature + coordonnées] *** REFERENCES *** [1]""par crainte que la communication de tout ou partie de leur code source ne conduise les contrefacteurs à contourner trop rapidement la protection, le bénéfice de l'exception est encadré par l'exigence de respecter les conditions garantissant la sécurité de fonctionnement des mesures techniques de protection ainsi utilisées" (http://www.assemblee-nationale.fr/12/pdf/rapports/r2349.pdf) [2] (http://www.fwtunesco.org/article/articleview/22) [3] "l'industrie du logiciel et les flux financiers qu'elle draine, restent aux mains de quelques grands éditeurs, principalement américains. L'éclosion d'une industrie du logiciel libre permettrait à l'Europe de reprendre l'initiative en la matière, et de laisser mûrir un potentiel industriel, économique et social en pleine expansion. La maîtrise de l'information et des systèmes d'information est un enjeu essentiel . Les logiciels propriétaires, contrairement aux logiciels libres, ne permettent pas aux utilisateurs de maîtriser les outils informatiques. Ce défaut de maîtrise est évidemment critique dans certains secteurs sensibles.." (http://www.assemblee-nationale.fr/12/rap-info/i2299.asp) *** A PROPOS D'EUCD.INFO *** EUCD.INFO est une initiative créée par la FSF France (Fondation pour le Logiciel Libre) dont la mission est d'informer sur les conséquences sociales et économiques de la directive européenne du 22 mai 2001 relative au droits d'auteurs et aux droits voisins dans la société de l'information (surnommée EUCD).»
2005-06-10 20:16:11
EUCD.info
http://www.eucd.info/
«L'équipe de COMMposite, la revue électronique des jeunes chercheurs et chercheuses en communication, a le plaisir de vous annoncer la parution de son huitième numéro, v2004, en exclusivité sur le Web. Au sommaire : Les articles suivants : - "La fin du politique : une critique de la cyberdémocratie", par Félix Weygand, Université Aix-Marseille II - "Katz et le modèle "dominant" des effets limités", par Marin Ledun, France Télécom Recherche & Développement - "La programmation télévisuelle : une arme stratégique dans la guerre des chaînes", par Jérôme Burtin, Université de Metz - "L'identité russe à travers le marché international audiovisuel et cinématographique", par Indira Yakovenko, Université de Nice Sophia Antipolis - "Le discours sur l'éthique professionnelle des journalistes français : le cas du Syndicat National des Journalistes (1990-2000)", par Magali Prodhomme, Université Catholique de l'Ouest - "Les ressources des cyberconversations. Analyse goffmanienne des interactions sur le dialogue en direct de Caramail", par Véronique Mattio, Université de La Réunion Une note de recherche : - "Les stratégies des acteurs internes face au défi des NTIC : le cas des PME tunisiennes", par Sami Zlitni, Université Stendhal - Grenoble III (avec les résumés 5 langues : français, anglais, espagnol, allemand et portugais). Une note de lecture : - "Femmes, le pouvoir impossible" (Marie-Joseph Bertini), par Sandrine Basilico, Université de Nice PLUS les rubriques habituelles : - PERSPECTIVE : l'éditorial de l'équipe de COMMposite. - TRANSIT : notre sélection de liens vers des sites pertinents pour la recherche dans le champ de la communication, avec un accent mis sur les sites francophones, consultable par catégorie et par pays. - AFFLUENTS : la liste continuellement mise à jour des colloques et des conférences consacrés aux études en communication à travers le monde. - SÉDIMENTS : les archives complètes des numéros précédents, ainsi que des actes de colloques co-organisés par COMMposite. »
2005-06-11 14:23:23
COMMPOSITE
http://commposite.org/
Quelques jours après le grand passage, je ne suis retourné que deux fois sur Windows, quelques minutes. Pour vérifier quelque chose sur Word et pour lire un vieux message sur Eudora. Pour le reste, je n'ai pas de regret. J'ai eu du mal à lire les MP3. Pour des raisons de licences, Debian et donc Ubuntu ne livrent pas la librairie adaptée en standard. Ca se comprend, mais j'aurais aimé en savoir plus plutôt que d'avoir à chercher. Megageek 1 m'a débloqué en m'indiquant qu'il fallait ajouter "gstreamer0.8-mad". Il suffisait de le savoir. C'est une affaire qui roule, maintenant. J'ai aussi pensé, quelques secondes, que mon imprimante n'était pas détectée. En fait, elle l'était, mais je devais passer par le menu Système / Administration / Impression une première fois pour l'activer. Et ça a marché du premier coup. Pour l'instant, je ne suis pas parvenu à faire fonctionner ma carte Wifi, livrée en interne dans mon Dell Latitude D600, mais je n'ai guère cherché, il faut le dire. Pour le reste, ça fonctionne très bien. Gaim sur Windows et Gaim sur Linux, c'est du pareil au même. The Gimp également. J'utilise Gthumb à la place d'Irfan View, pour visionner mes photographies. Il est vraiment très intuitif et facile d'emploi. L'outil de reconnaissance et d'importation des photos prises par mon Canon Powershot A70 est tout simplement excellent et transparent. En remplacement de l'Explorateur windows, j'ai adopté Konqueror à la place de Nautilus, dont l'ergonomie m'avait vraiment peu convaincu. Pour naviguer sur les dossiers partagés des machines windows voisines, aucun souci en vue grâce à Samba. Sur Konqueror, je tape "smb://" comme adresse et je vois tout. Transparent, là aussi. Je cherchais un client FTP simple, et j'ai adopté Gftp, bien que Megageek utilise Konqueror (qui sert à tout !). Enfin, j'ai dû modifier un fichier de configuration pour essayer d'installer un CVS (sans succès pour l'instant), et j'ai adopté emacs. Après cette énumération laborieuse de logiciels, j'imagine que vous êtes saoulés. Mais moi, je suis rassuré. J'arrive à travailler sur Linux sans me sentir agressé par l'environnement et sans me sentir bridé. La suite au prochain numéro.
2005-06-12 18:07:03
http://
Des tonnes de sites web sont conçus pour les polices Microsoft. Bien entendu, on parvient à les consulter très facilement malgré l'absence de ces polices sur Linux, mais le rendu graphique est appauvri et les concepteurs de sites pleurent quand ils voient le résultat de leur création sur ma machine. Alors, par bonté d'âme, sans doute, je m'installe les polices Microsoft. Car figurez-vous qu'il existe un paquet destiné à cela : "msttcorefonts". Voici le descriptif du paquet : «Installer for Microsoft TrueType core fonts. This package allows for easy installation of the Microsoft True Type. Core Fonts for the Web including: Andale Mono Arial Black Arial (Bold, Italic, Bold Italic) Comic Sans MS (Bold) Courier New (Bold, Italic, Bold Italic) Georgia (Bold, Italic, Bold Italic) Impact Times New Roman (Bold, Italic, Bold Italic) Trebuchet (Bold, Italic, Bold Italic) Verdana (Bold, Italic, Bold Italic) Webdings»
2005-06-14 09:31:26
http://
J'imprime, j'imprime, j'imprime... <img55|left>Sauf avez Mozilla Firefox. Pourquoi donc ? Je l'ignore, et je souhaite continuer à l'ignorer. Mais à chaque fois que j'imprimais sur l'imprimante laser HP 2200 du bureau, le système m'imprimait une page d'instructions en anglais pour bien configurer Firefox... Après quelques erreurs de recopiage, et suite à l'aide technique apportée par Megageek 3, j'ai fini par modifier la ligne d'option qui est proposée au moment de l'impression en y mettant ceci: <code> gs -q -sDEVICE=pswrite -sOutputFile=- -dNOPAUSE -dBATCH -dMozConvertedToLevel2=true - | lpr $MOZ_PRINTER_NAME:+'-P'$MOZ_PRINTER_NAME </code> Gasp ! C'est illisible et bien peu user-friendly, mais ça marche... Alors qu'à cela ne tienne, je n'en aurai aucune rancune envers Linux. Juste un peu d'humeur froissée.
2005-06-15 00:00:00
http://
Revue Terminal : sommaire numéro 92 - Printemps 2005 EDITORIAL : Feue la loi informatique et libertés, Jacques Vétois DOSSIER : Internet et politique Introduction : La domestication d'internet dans le jeu politique ? _Coordination éditoriale : Thomas Lamarche et Bruno Villalba Internet en campagne : une pratique professionnelle - Au delà de la technique : l'introduction d'internet dans le répertoire de mobilisation électorale de candidats en campagne. Le cas des élections législatives de juin 2002, Nicolas Benvegnu - L'Internet, un nouvel outil de la mobilisation politique en Corée du Sud, Ilkwon Sung - TIC et les Verts : apprentissage, appropriation, politisation, Bruno Villalba De nouvelles normes pour le politique ? - Cyberdémocratie ou fin du politique ?, Félix Weygand - Quel modèle d'analyse pour le développement d'Internet en Hongrie ?, Róbert Pinter - L'informatisation de la société marocaine : analyse rétrospective d'un discours prospectif, Abdelfettah Benchenna - Le développement du vote électronique en France : normes sociotechniques, logiques commerciales et enjeux industriels, Marin Ledun Vers un Internet participatif - Contribution à un Internet participatif. Entretien avec Michel Briand - Repenser le gouvernement électronique. Les réseaux citoyens en Italie, Mariella Berra - La concertation pour les Plans de Déplacements Urbains sur les sites Internet : le sens de la participation citoyenne, Stefan Bratosin MULTIMÉDIAS Penser notre relation à la machine (plutôt que nous penser comme des machines), Denis Berthier TRAVAIL L'informatisation comme outil de contrôle et de surveillance de la productivité des organisations de soins et du travail médical au Québec, Luc Bonneville Terminal revue trimestrielle _ 24 rue de la Chine 75020 PARIS _ Courriel : terminal@ras.eu.org _ URL : http://www.terminal.sgdg.org _ éditée par les Editions L'Harmattan
2005-06-16 13:46:31
Terminal
http://www.terminal.sgdg.org
Communiqué de presse d'IRIS - 15 juin 2005 «Une ordonnance de référé rendue le 13 juin 2005 par le tribunal de grande instance de Paris impose à plusieurs fournisseurs d'accès français le filtrage d'un site Internet négationniste hébergé aux États-Unis. L'ordonnance est fondée sur l'application de l'article 6-I-8 de la loi pour la confiance dans l'économie numérique (LEN). Depuis l'adoption de la LEN, en effet, « l'autorité judiciaire peut prescrire en référé ou sur requête, à toute personne mentionnée au 2 [les hébergeurs] ou, à défaut, à toute personne mentionnée au 1 [les fournisseurs d'accès], toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne ». Victime de dommage ou prescripteur de la norme sociale ? Il devient ainsi possible dorénavant d'empêcher la simple consultation, par des abonnés à des fournisseurs d'accès français, de contenus hébergés - par ailleurs tout à fait légalement - à l'étranger. Des demandes similaires avaient déjà été exprimées dans le passé, avec plus ou moins de succès. Elles n'avaient pas été satisfaites lors de l'affaire Front14 en 2001. En 2000, un épisode de l'interminable affaire Yahoo avait imposé à la société Yahoo France d'enjoindre ses utilisateurs, par ses conditions contractuelles d'utilisation du service, d'« interrompre la consultation du site concerné sauf à encourir les sanctions prévues par la législation française ou à répondre à des actions en justice initiées à son encontre », sanctions au demeurant inexistantes à l'époque, et encore à ce jour. Il n'existe pas, en effet, du moins en France, d'« infraction de consultation de sites interdits ». Cela ne semble pas pour autant empêcher que des mauvaises lois comme la LEN agissent comme palliatif à ce que certains considèrent apparemment comme une lacune. Cela n'empêche pas non plus de les invoquer, et à présent d'obtenir gain de cause au nom du « dommage » causé, que ceux qui s'en considèrent les victimes entendent faire cesser, voire prévenir, décidant ainsi dans la pratique de ce qui se peut lire et de ce qui doit être censuré. Ainsi se construit, par subtils glissements, le transfert de la surveillance, du contrôle, et, in fine, de la culpabilité, vers le citoyen. Ainsi se cautionne, subrepticement, le passage du statut de « victime d'un dommage occasionné » à la nettement plus enviable posture de prescripteur de la norme sociale, définissant le licite et l'illicite, le permis et l'interdit. Paradoxe contre-productif Il n'est sans doute pas utile de rappeler aujourd'hui l'ensemble des arguments contre le filtrage. L'AFA (Association française des fournisseurs d'accès), s'en charge en partie, dans sa promptitude à réagir dès lors que ses intérêts commerciaux sont en jeu. Pour le reste, et notamment la question démocratique, l'association IRIS (Imaginons un réseau Internet solidaire) s'est suffisamment exprimée par le passé à cet égard, comme en témoignent les nombreux documents publiés sur le site de l'association. Il demeure l'incompréhensible paradoxe dans lequel s'emprisonnent certaines des associations à l'origine de l'action judiciaire menée. Comment combattre certaines lois - la LEN, mais aussi précédemment la loi Gayssot - et ensuite les invoquer ? Comment utiliser des procédés et des procédures que l'on dénonce lorsqu'ils sont mis en oeuvre par d'autres, parfois par des gouvernements antidémocratiques dont l'on ne cesse par ailleurs de dénoncer les atteintes à la liberté de la presse et aux droits de l'homme ? Comment faire barrage à la progression d'un ordre moral alors qu'on aura légitimé les méthodes que ses tenants ne manqueront pas d'utiliser à leur tour ? Comment enfin s'insurger contre la répression du mouvement social lorsque ses commanditaires étoufferont la parole des syndicats et associations par des moyens que l'on aura soi-même cautionnés ? Plus généralement, y compris lorsque le but poursuivi est seulement pragmatique et vise à influencer des décisions internationales en matière de compétence des juridictions, ou d'harmonisation des législations, la méthode demeure contre-productive. Le Protocole additionnel à la Convention du Conseil de l'Europe sur la cybercriminalité, visant à incriminer les actes racistes et xénophobes commis par le biais de systèmes informatiques, restera lettre morte dans les pays spécifiquement ciblés, alors même que la Convention elle-même est entrée en vigueur, et a été ratifiée en mai dernier par la France, avec toutes les atteintes aux droits et aux libertés qu'elle autorise désormais. Le projet de Décision-cadre de l'Union européenne sur la lutte contre le racisme et la xénophobie vient d'être abandonné ce mois-ci, après avoir achoppé notamment sur la question du négationnisme que plusieurs pays refusent de réprimer légalement, alors même que la décision aurait pu aboutir, s'agissant de la répression des infractions racistes et xénophobes. Encore une occasion manquée d'harmoniser, dans 25 pays, la criminalisation du racisme et de la xénophobie. Le réexamen de la LEN plus que jamais à l'ordre du jour La décision de filtrage du site négationniste Aaargh, hébergé aux États-Unis, ne constitue que les prémices d'un processus plus global. Les nombreux autres effets pervers de cette loi ne tarderont pas à se révéler. Comme l'a déjà déclaré IRIS à la suite de la validation de la LEN par le Conseil constitutionnel, seul le réexamen des dispositions de la loi pour la confiance dans l'économie numérique permettra d'endiguer ce processus. Contact IRIS : iris-contact@iris.sgdg.org - Tel/Fax : 0144749239»
2005-06-16 14:31:18
Adresse de ce communiqué sur le web
http://www.iris.sgdg.org/info-debat/comm-aaargh0605.html
Daren Yates sur Buzzle.com : «Google recently filed a US patent which reveals a great deal of how they rank your web site. Some of it you could never have guessed at... How many years did you register your domain name for? If it was only one then Google could hold that against you. Why? Because the majority of Spam websites only register a domain name for one year. A domain name registered for a longer period implies that the owner is more likely to be legitimate and serious about their web site. This is just one of the unusual factors possibly considered by Google when indexing and ranking a website. Factors you could never even have guessed at in some cases. How do I know this? Google recently made public, March 31 2005, the contents of their filing of United States Patent Application 20050071741. In which many of the search giant’s secret ranking criteria is revealed and it makes very interesting reading. You must read this if you are serious about ranking well in Google. The days of Spamming Google are drawing to a close. With this patent they reveal just how hard they're coming down on Spam sites. You Do Not want to get caught out. Listed below you will find the hard facts, I recommend that you bookmark this page now. You will need to reference it each time you optimize a new site.»
2005-06-17 22:30:07
Great Site Ranking in Google The Secret's Out
http://www.buzzle.com/editorials/6-10-2005-71368.asp
« As a provocateur, he's very effective. But as a prognosticator, people are less convinced. Business writer Nicholas G. Carr raised many hackles in the information technology industry when he published a piece titled "IT Doesn't Matter" in 2003. His latest piece with a similarly extreme headline, "The End of Corporate Computing," reopens the discussion of utility computing--the notion that corporations subscribe to computing services over the Internet much as they purchase electricity.»
2005-06-17 23:57:25
Will computing flow like electricity?
http://news.com.com/Will+computing+flow+like+electricity/2100-1011_3-5749968.html?tag=st.prev
« Live performances of Beethoven's first five symphonies, broadcast as part of The Beethoven Experience on BBC Radio 3, have amassed an incredible 657,399 download requests during a week long trial. The downloads – launched on 6 June - offered complete Radio 3 programmes containing live performances of the symphonies by the BBC Philharmonic in Manchester, conducted by Gianandrea Noseda. They were available free of charge and therefore not eligible for the Official UK Download or Top 40 Singles charts, although the public’s enthusiasm for the programmes is evident from the individual totals: Symphony 1 (6 to 13 June) - 164,662 Symphony 2 (7 to 14 June) - 154,496 Symphony 3 (6 to 13 June) - 89,318 Symphony 4 (7 to 14 June) - 108,958 Symphony 5 (7 to 14 June) - 139,905 Roger Wright, Controller of Radio 3, said: "The response has been incredible and much bigger that we expected. "The success shows Beethoven's enduring appeal and we hope this will encourage new audiences to explore online classical music." Simon Nelson, Controller of BBC Radio & Music Interactive, said: "This trial was all about gauging listeners' appetite for downloads and the results are astonishing. "We are hopeful that we have attracted people who wouldn't previously have explored much classical music, as well as inspiring others to embrace digital technology." Gianandrea Noseda added: "I'm thrilled that our performances have reached such a large, new audience and hope this trial will encourage more people to experience and enjoy orchestral music live in concert." The downloads were available for seven days after their broadcast (Symphonies 1 and 3 from Monday 6 June and Symphonies 2, 4 and 5 from the following day), as well as available streamed for seven days from the BBC Radio Player. The trial formed part of Radio 3's Beethoven Experience (5-10 June), in which the complete works of Beethoven were broadcast in one week. The remaining symphonies – numbers 6 to 9 – will be available to download for seven days after they are broadcast later this month, with dates as follows: no.6 (the Pastoral) on Monday 27 June; no. 7 on Tuesday 28 June; no. 8 on Wednesday 29 June; and no. 9 on Thursday 30 June. Listeners should visit bbc.co.uk/radio3 for more details. The BBC recently announced it will be offering up to 20 programmes as podcasts and downloads, as a time-limited trial to give a more detailed picture of audiences' appetite for downloads and to inform the development of the BBC strategy for audio downloads and on-demand content.»
2005-06-18 00:07:51
Beethoven downloads receive more than 600,000 requests
http://www.bbc.co.uk/pressoffice/pressreleases/stories/2005/06_june/16/beethoven.shtml
«Art Mobs returns with a new project. Last year we hosted a gallery event at Marymount Manhattan College. Now we're focusing our attention on the Museum of Modern Art. We've produced (unofficial) audio guides for MoMA, and we're making them available as podcasts. We'd love for you to join in by sending us your own MoMA audio guides, which we'll gladly add to our podcast feed. Why should audio guides be proprietary? Help us hack the gallery experience, help us remix MoMA!»
2005-06-18 00:11:44
Art mobs
http://mod.blogs.com/art_mobs/
J'ai un disque dur externe OneTouch de 120Go, destiné à mes sauvegardes. Il y a belle lurette qu'une gravure de CD ne m'est d'aucune utilité, vu la taille de mes données vitales. J'y entreprose une demi-douzaine de sauvegardes de mon disque dur principal, environ chaque semaine ou chaque quinzaine. Depuis ma migration sur Linux, je n'ai pas procédé à la sauvegarde de mon dossier /home/sjomann. J'ai bien compris que cette organisation des données était très rationnelle et serait bien plus efficace que la sauvegarde de Mes documents sur Windows. Encore faudrait-il que j'y parvienne. Ma sauvegarde échoue en effet systématiquement. Semble-t-il sur des fichiers accentués. Mais ça reste à démontrer, car je n'ai guère eu le temps de creuser cette difficulté.<doc54|left> L'hypothèse du moment est que le disque est sans doute formaté en FAT32 et que la longueur et/ou l'accentuation de certains chemins pose problème en passant en FAT32. Je veux bien admettre toutes les considérations techniques que l'on voudra, sur la médiocrité du format de Windows, sur l'incompatibilité des formats, sur l'incomplétude de la configuration de mon Linux, tout ce qu'on voudra, dis-je. Mais au fond, je m'en moque, de toutes ces considérations. Je ne veux pas que le processus de sauvegarde provoque une erreur au bout de dix minutes de copie. Je veux que le système me dise comment faire pour éviter ce souci et pour éviter de trembler tant que je n'aurai pas rétabi mon parachute. Une solution pourrait consister à formater le disque dur dans un format plus avancé, comme NTFS, ou même un format Linux. Or, ce disque contient mes sauvegardes et des sauvegardes de collègues. Et il pèse tant qu'il me faudrait un autre disque d'une capacité égale pour assurer la transition des données. Et puis un format Linux empêcherait mes collègues utilisant Windows d'utiliser ce disque. Car, comme chacun sait, Windows ignore souverainement les formats de ses petits voisins de pallier. Je vais trouver une solution. Je vais trouver une solution. Je vais trouver...
2005-06-17 00:00:00
http://
J'ai un splendide Palm Tungsten C, d'usage intensif. En arrivant sur Ubuntu, j'ai tenté d'utiliser l'application Kpilot. La synchronisation via le port USB fonctionne en apparence correctement, mais j'ai des problèmes de pertes d'accents dans la plupart de mes adresses et de mes notes. Autant dire que l'application est inutilisable. En plus, il faut une application complémentaire pour gérer le calendrier. <img56|left>J'ai ensuite tenté d'utilisation Evolution, qui semble le plus adapté pour cette tâche. Après quatre essais de synchronisation via Gnome-pilot, avec lequel il dialogue manifestement, je n'ai pu que constater mon échec. L'arsouille ne détecte aucun Palm. Le Palm ne détecte aucun PC. Rien. Nada. Ligne morte. Je ne désespère pas, mais pour l'heure, j'utilise mon Palm sans synchronisation. Avec, cependant, de temps en temps, un retour sur Windows pour archiver sur un autre support mes données. Rassurez-vous, je n'y reste pas. Je n'en ai aucune envie et n'y éprouve aucun plaisir. Ah, j'ai réussi à faire ma sauvegarde sur mon disque dur externe. C'est plutôt geek comme solution, mais ça marche du tonnerre de Dieu. Je suis donc plutôt rassuré. Donc, au prochain numéro, je vous conterai cela.
2005-06-18 17:50:51
http://
«Dans ce commentaire, j'avais suggéré la création d'un Crooked Timber francophone. Crooked Timber est un collectif d'universitaires anglo-saxons qui a réuni sur une même page les adresses de tous les blogs académiques anglophones répondant à leurs critères de sélection. Baptiste Coulmont a apporté sa pierre à l'édifice, voici la mienne. En espérant que la masse critique de blogs universitaires francophones finira par convaincre nos médias que la blogosphère compte autre chose que des oisifs.» François, dans phnk La liste de Crooked Timber, c'est ici : [->http://crookedtimber.org/academic-blogs/]
2005-06-18 21:36:12
http://phnk.com/blog/index.php?2005/06/07/186-blogs-universitaires
http://phnk.com/blog/index.php?2005/06/07/186-blogs-universitaires
Ecole Ouverte fait peau neuve. Le portail d'accès à l'ensemble des ressources électroniques de l'ENS Lettres et Sciences humaines constitue désormais un instrument de navigation bien précieux pour s'orienter dans la masse des documents que l'Ecole met à disposition sur la Toile. Revues en ligne, sites de colloques, thèses, éditions critiques, bases bibliographiques, ressources vidéos, bases de publications et sites d'équipes, l'investissement de l'ENS Lettres et Sciences humaines dans les nouvelles technologies, se manifeste par une grande richesse et diversité de sa production éditoriale en ligne. Produites par des collectifs de recherche ou d'enseignement appuyés sur des technologies de publication dynamiques, la plupart de ces ressources vivent de leur vie propre, évoluent sans cesse, sont constamment enrichies. Portail documentaire, Ecole Ouverte se fait aussi l'écho de cette actualité éditoriale ; le site repère et met en valeur les dernières publications et mises à jour en ligne, dans chacune des disciplines représentées à l'Ecole. On y retrouve les annonces, appels à contribution et événements qui ponctuent la vie de ces ressources. Parce qu'enfin les sciences humaines et sociales produisent des savoirs susceptibles d'intéresser l'ensemble de la société, Ecole Ouverte tente à la fois de permettre aux chercheurs de trouver les outils de travail dont ils ont besoin, et en même temps d'offrir à un plus large public un espace d'ouverture sur des connaissances inédites.
2005-06-21 15:47:41
Ecole Ouverte-ENS Lettres et Sciences humaines
http://ecole-ouverte.ens-lsh.fr
<img57|left>«L'hostilité de Lawrence Lessig à l'égard des dérives monopolistiques et des excès de la réglementation, notamment celle du droit d'auteur, ne se fonde pas sur des présupposés idéologiques, mais sur une analyse précise, illustrée par de nombreuses études de cas, des conséquences catastrophiques pour l'innovation et la créativité que ne manqueront pas d'avoir les évolutions récentes de l'architecture d'Internet. De plus en plus fermée, propriétarisée et centralisée, celle-ci est en train de stériliser la prodigieuse inventivité à laquelle l'Internet a pu donner lieu à ses débuts. Historien scrupuleux des trente années de développement de ce moyen de communication interactif, d'échange de connaissances, de création de richesses intellectuelles sans précédent, Lawrence Lessig pose le problème en juriste, mais aussi en philosophe et en politique. C'est une certaine idée du partage des savoirs et de la création artistique qui est en jeu dans les tendances actuelles qui dénaturent les principes démocratiques de l'Internet originel. Cette étude parfaitement documentée est aussi un pressant cri d'alarme. Juriste de formation, actuellement professeur de droit à l'Université de Stanford, spécialisé dans le droit de l'informatique, Lawrence Lessig est l'une des voix les plus présentes et les plus écoutées dans les débats sur le développement mondial de l'Internet. C'est aussi un praticien et un militant, qui a été l'assistant juridique de plusieurs juges, dont le juge à la Cour Suprême Antonin Scalia. Il a participé comme avocat ou comme expert à de nombreux procès concernant le monde du Net. Il a publié des dizaines d'analyses et de rapports dans des revues comme Red Herring, revue des technologies innovantes, dans The Industry Standard et dans bien d'autres revues de droit et de technologie. Avant The Future of Ideas (Random House, 2001), il a publié un premier ouvrage remarqué sur l'Internet, The Code and Other Laws of Cyberspace (Basic Books, 1999) ; depuis a paru Free Culture : How Big Media Use Technology and the Laws to Lock Down Creativity (Penguin Press, 2004).»
2005-06-22 09:16:06
http://sites.univ-lyon2.fr/pul/article.php3?id_article=651
http://sites.univ-lyon2.fr/pul/article.php3?id_article=651
Michael Geist : «As expected, this afternoon the federal government introduced its copyright reform bill (UPDATE: Bill C-60 is now available online). In this age of instant analysis, new legislation does not work particularly well since it requires considerable study and scrutiny to develop a full sense of its implications. However, since government telegraphed its intentions four months ago, it is possible to provide at least a quick perspective (full caveat that this a quick read and subject to change upon reflection) on the statutory implementation of the March plan. I'll have much more to say in the days ahead but my immediate impression is that the recording industry is the big winner with an enormous basket of new rights and individual Canadians are the big losers as the bill does little to address their interests.»
2005-06-22 23:50:01
Canada introduces new copyright bill
http://www.michaelgeist.ca/home.php#432
«Gandi serait à vendre donc. C'est la fin d'une époque et j'ai beaucoup de mal à me faire à la simple idée qu'un jour je n'aurai peut-être plus mes domaines chez eux. Car si une chose est certaine c'est bien que je ne resterai pas chez Gandi en cas de revente. Pourquoi ? Gandi est un des rares, sinon le seul, registar à donner la pleine propriété du domaine à l'acquéreur, les autres registars ne faisant que louer les noms à leurs clients. C'est pour ça que je suis client de Gandi. Gandi a été fondé par des pionniers de l'Internet - Laurent Chemla et Valentin Lacambre - et l'image de la société est fortement associée à ces deux personnalités dans l'esprit de bon nombre de leurs clients. Gandi n'est pas une énième start-up monté par des marchands d'aspirateur n'ayant plus de dents à force de rayer le parquet. Gandi est dirigée par des personnes dont la légitimité n'est plus à faire. C'est pour ça que je suis client de Gandi. L'engagement des propriétaires de Gandi dans notre société est, à bien des égards, remarquable, que ce soit auprès de la FIL, de Gityoen. Sans eux, l'APINC aurait peut-être arrêté ses activités depuis très longtemps. Laurent Chemla et Valentin Lacambre démontre par leurs actes qu'il est possible de changer les choses, qu'il est possible d'agir. C'est pour ça que je suis client de Gandi. Parce que l'engagement de Laurent Chemla est on ne peut plus claire concernant les données personnelles, je n'ai jamais eu aucune crainte de laisser les miennes à Gandi. Que deviendront-elles chez une repreneur ? C'est pour ça que je suis client de Gandi. Avant 2001, la société américaine NSI était assise sur un monopole accordé de longue date et pratiquait des tarifs scandaleux, organisant un racket chaque jour renouvelé. Gandi a été un des premiers à apporter une réponse à NSI. C'est pour ça que je suis client de Gandi. Cette nouvelle m'accable. Laurent, Valentin, vous faites de l'argent sur quelque chose qui ne devrait pas être payant, j'en conviens. Mais ce qui compte plus que tout est ce que vous faites de cet argent. Par pitié, n'arrêtez pas.» Olivier Meunier, sur Neokraft
2005-06-24 18:39:30
Pétition contre la vente de Gandi
http://www.neokraft.net/petition-gandi.php
«Monsieur le Ministre, Mesdames, Messieurs, La Présidence luxembourgeoise a choisi le moment opportun pour organiser cette conférence internationale sur la numérisation des contenus culturels en Europe. Il y a en effet une volonté de la part des Etats membres et des institutions culturelles de renforcer les politiques et les actions dans ce domaine. La lettre de six Chefs d’Etats adressée au Président Barroso en avril dernier, ainsi que la lettre de 19 bibliothèques nationales, ont démontré clairement l’intérêt politique majeur de rendre le contenu culturel européen plus visible et mieux accessible à travers sa numérisation. Les travaux qui auront lieu durant ces deux jours permettront de discuter des actions des Etats membres, des institutions culturelles et de la Commission européenne pour numériser le patrimoine culturel et de dégager des pistes pour la collaboration future. Ils permettront d’analyser les défis que nous devons relever pour que cette vaste entreprise de numérisation des contenus culturels aboutisse à des résultats qui soient à la hauteur des enjeux culturels et économiques en présence. Une telle analyse, impliquant tout les pays de l’Union n’aurait pas été possible sans la mise en place en 2001 du groupe des représentants des Etats membres – le NRG, qui est présent à cette conférence. Crée en 2002 avec le soutien de fonds communautaires, le réseau MINERVA, a permis de rassembler les informations et de faire démarrer la coopération entre les Etats membres. Il a également permis une collaboration avec d’autres pays tels que la Russie et Israël qui participent au projet MINERVA et aux travaux du NRG en qualité d’observateur....» Viviane Reding, Membre de la Commission européenne responsable pour la Société d’Information et Médias, à l'International Conference on future coordination of digitisation, Luxembourg, le 21 Juin 2005
2005-06-24 23:59:47
Lire la suite (pdf)
http://europa.eu.int/comm/commission_barroso/reding/docs/speeches/minerva_20050621.pdf
«SOSIG is running a virtual event as part of the ESRC Social Science Week (20th-24th June 2005) to look at how the Internet is changing the face of social science research. We have invited a number of specialists to consider how the Internet has altered their working practices and the impacts this has had on their research and/or teaching. -* Mon 20th June: Learning and Teaching -** The Net and Higher Education - David Dolowitz -** What are the potential uses of Blogs in Teaching and Learning? - Andy Ramsden -** Using online learning resources in business and economics education - Kieren Pitts and Andrew Ashwin -* Tues 21st June: Research Methods -** Social science research and the Internet: intriguing tangent, or core business? - Christine Hine -** The Internet: a World Wide Social Science Laboratory? - Jacqui Taylor -* Wed 22nd June: Access to Data -** e-Government Information: the same old problem ... newly digitized! - Alastair Allan -** The Internet and democratisation of access to data - Robin Rice -** How has the internet changed the way we access data? - Melanie Wright -* Thurs 23rd June: e-Social Science -** e-Social Science - Rob Procter -** Distributed Real-time Research in e-Social Science - Mike Fraser -** Disciplinary Differences in e-Research: An Information Perspective - Christine Borgman -* Fri 1st July: Round up »
2005-06-25 00:13:46
Social Sciences Online: Past, Present and Future
http://www.sosig.ac.uk/socsciweek/
« Ever since blog became popular in China, there have been a number of occasions where some blogs were shut down by telecommunications company or internet service providers due to their political speech. These incidents not only brought risks to bloggers themselves but also to blog service providers in China. Many blog service providers had to increase their effort in content filtering. All these brought pressure and helplessness to people who dare to make truthful expressions. Especially since April 2005, when the law on non-profit website registration became effective, website owners are required to submit their real personal information when they register their websites. The annual registration process as well as hefty penalty for failure in compliance have angered many website owners that use an independent virtual server and domain names. Therefore, many bloggers in mainland China began to consider moving their blogs outside of China. But because of language barrier, financial, payment and other issues, the cost of moving is rather high and the situation is not optimistic. It is based on the belief of free speech that we started the Adopt a Chinese blog project. We hope that we and others on the internet who shared the same belief, can share resources and help bloggers who want to freely express themselves and find a safer space for blogging, so that they can continue to blog without retribution. As a matter of fact, the goal of the program is to help bloggers. The support is not limited to any specific country. It is borderless and global. At least this is what we wish: let people freely express themselves, without the worries that their blog may one day be shutdown.»
2005-06-25 11:38:27
Adopt a chinese blog
http://projab.jot.com/WikiHome
J'ai déjà évoqué, dans ces lignes, le problème de lecture des fichiers MP3 (réglé en ajoutant le paquet gstreamer). Je dois également signaler que, par défaut, plusieurs formats vidéos dédiés à Windows sont mal lus (lecture par saccades) ou totalement inconnus par Totem. Un gentil blogueur a eu la bonne idée de signaler tous les paquets utiles à la lecture d'un DVD et d'un grand nombre de formats qui ne sont pas supportés par défaut par Ubuntu pour des raisons de licence. Pour cela, il faut ajouter des sources non libres à Synaptic. Tout ceci est très bien expliqué par le [gentil blogueur->http://gfabio.blog.free.fr/index.php?2005/06/23/4-ubuntu-hoary-et-le-multimedia] [[Je n'explique pas ici comment procéder. Je conserver seulement le code permettant de les appeler : deb http://ubuntu-backports.mirrormax.net/ hoary-backports main universe multiverse restricted deb http://ubuntu-backports.mirrormax.net/ hoary-extras main universe multiverse restricted ]]. Voici la liste des paquets qu'il faut ajouter : * libdvdcss2 * w32codecs * gstreamer0.8-lame * gstreamer0.8-mad * gstreamer0.8-a52dec * gstreamer0.8-ffmpeg * gstreamer0.8-plugins * totem-xine * lame * lame-extra * xvid4conf * libxvidcore4 * libdivx4linux * libmad0 * xmms * xmms-mad * xmms-mp4 * xmms-flac * xmms-fmradio * xmms-cdread * xmms-skins * flashplayer-mozilla * mplayer-686 * mplayer-fonts * xmms-xmmplayer * mozilla-mplayer * realplayer * libquicktime1 * sox * ffmpeg * mjpegtools * vorbis-tools * sun-j2re1.5 Ca prend un peu de temps, mais ça s'installe facilement. Je n'ai pas encore tout testé, mais j'ai enfin pu lire certaines vidéos qui étaient récalcitrantes. Je vous tiendrai au courant pour les formats Real, Quicktime et tous les autres.
2005-06-26 12:03:13
http://
«In sum, this case is significantly different from Sony and reliance on that case to rule in favor of StreamCast and Grokster was error. Sony dealt with a claim of liability based solely on distributing a product with alternative lawful and unlawful uses, with knowledge that some users would follow the unlawful course. The case struck a balholding that the product’s capability of substantial lawful employment should bar the imputation of fault and consequent secondary liability for the unlawful acts of others. MGM’s evidence in this case most obviously addresses a different basis of liability for distributing a product open to alternative uses. Here, evidence of the distributors’ words and deeds going beyond distribution as such shows a purpose to cause and profit from third-party acts of copyright infringement. If liability for inducing infringement is ultimately found, it will not be on the basis of presuming or imputing fault, but from inferring a patently illegal objective from statements and actions showing what that objective was. There is substantial evidence in MGM’s favor on all elements of inducement, and summary judgment in favor of Grokster and StreamCast was error. On remand, reconsideration of MGM’s motion for summary judgment will be in order. The judgment of the Court of Appeals is vacated, and the case is remanded for further proceedings consistent with this opinion. » SUPREME COURT OF THE UNITED STATES, No. 04–480 _ METRO-GOLDWYN-MAYER STUDIOS INC., ET AL., PETITIONERS v. GROKSTER, LTD., ET AL. _ ON WRIT OF CERTIORARI TO THE UNITED STATES COURT OF APPEALS FOR THE NINTH CIRCUIT _ [June 27, 2005] -------------- Revue de presse - [Supreme Court Ruling Will Chill Technology Innovation (EFF)->http://www.eff.org/news/archives/2005_06.php#003748] - [Grokster Loss Sucks for Tech (Wired news)->http://www.wired.com/news/digiwood/0,1412,68018,00.html?tw=wn_tophead_1] - [Not a Good Day for Innovation, Customer Rights and Free Speech (Dan Gillmor's blog)->http://bayosphere.com/blog/dangillmor/062705/not_a_good_day ]
2005-06-28 07:43:57
Le texte de la décision
http://wid.ap.org/scotus/pdf/04-480P.ZO.pdf
iii-forum des images numériques est un programme culturel organisé pour faire découvrir à tous les publics de la Communauté d'Agglomération d'Annecy et sa région, les nouveaux systèmes de communication que nous utilisons aujourd'hui. Internet, téléphones portables, jeux vidéos, art contemporain, télévision numérique... bouleversent nos certitudes acquises, interrogent notre quotidien. L'interactivité, les réseaux d'informations, l'utilisation croissante des images numériques nous font découvrir de nouveaux mondes. A cet effet nous invitons des intervenants à partager avec nous, en direct, leurs réflexions et leurs recherches sur ces sujets sensibles lors de visioconférences. Toutes ces visio-conférences sont présentées à la MJC des Carrés / Annecy-le-vieux - e n t r é e l i b r e - iii-Forum des Images Numériques est organisé par - l'Université de Savoie avec le concours de sa Mission Culturelle et la filière Arts-Information/Communication de l'UFR/ATE, - G-SICA (IREGE), Groupe de travail en Sciences de l'Information, Communication et Arts numériques - la M.J.C. des Carrés dans le cadre des actions de son "Espace Culture Multimédia" ECM labellisé par le Ministère de la Culture, - PUMMA dans le cadre du soutien logistique et technique - Gobelins Ecole de l¹Image - Annecy - CITIA, Cité Internationale des Techniques de l'Image et l'Animation Ces six partenaires forment le groupe de pilotage. iii-Forum des Images Numériques bénéficie du soutien de France Télécom et Ephésus. Ces visio-conférences qui vont reprendre dès octobre 2005 à la MJC des Carrés (un lieu unique pour faciliter nos rendez-vous !), sont présentées par les étudiants (L2) de la filière Arts - Info / Com (UFR / ATE) de l'Université de Savoie. Chaque groupe d'étudiants de la filière imagine avec l'intervenant une interface pour rencontrer le public, prépare les débats, organise la communication. L'ensemble de ce travail est enregistré et donne lieu à l'élaboration d'un CD-Rom qui est conservé, pour mémoire, à l'Université de Savoie. Les enjeux théoriques, esthétiques, pédagogiques et informationnels de cette "mission" intégrée dans le cursus de la formation seront étudiés et feront l'objet de débats. Cette recherche universitaire désormais mise en place, est coordonnée par le Groupe de travail inter-laboratoire en Sciences de l'Information, de la Communication et des Arts numériques G-SICA (IREGE). La saison [2003-2004] _ première édition des forums-iii, avait été organisée autour des rencontres avec : Grégory Chatonsky (art), Farid Baleh (entreprise France Télécom), Jean-Luc Soret (critique), Valéry Grancher (art), 3D Vision (entreprise). La saison [2004-2005] est maintenant terminée. _ Cette 2ème édition nous a permis de réaliser huit visioconférences avec les interventions successives de : Olga Kisseleva (art), Pierre Mounier (net édition), Annick Bureaud (critique), Nicolas Thély (critique), Maurice Benayoun (art), Corinne Welger-Barboza (critique), panoplie.org (structure laboratoire), Miguel Chevalier (art). La saison [2005-2006] est encore en préparation. _ Toutefois nous espérons pouvoir découvrir en direct avec vous lors de sept nouvelles visioconférences : - jeudi 13 octobre 2005 - 18h30 : Monique Maza "Usimages" art & mémoire intéractive : épisodes 1 : passage piétons - épisode 2 : La dalle rouge _ Monique Maza est maître de conférence à l'Université Jean Monnet de Saint-Etienne où elle enseigne les arts numériques et le multimédia. Usimages, qui a déjà fait l'objet d'une présentation à E-Formes (CIEREC) fait partie du projet ©box, actuellement exposé à CITIA. _ [->http://carol.brandon.free.fr] _ [->http://www.20six.fr/E-Formes] - jeudi 17 novembre 2005 - 18h30 : Éléonore Schöffer "Schöffer show" _ Pour reprendre un titre de Beaux Arts Magazine : "Né en 1912 en Hongrie, Nicolas Schöffer se consacre tout d'abord à la peinture. En 1948, il est marqué par Cybernétic and society de Norbert Wiener, texte fondateur de la science cybernétique. Nicolas Schöffer s'ouvre désormais aux recherches scientifiques et technologiques. Il intègre à son travail la musique, la danse, l'urbanisme. Ses projets, toujours plus ambitieux, prennent en compte les notions de feed back et d'interactivité". (Françoise-Aline Blain). Éléonore Schöffer, veuve de l'artiste, diffuse et médiatise ce travail. Le 17 novembre, elle aura 79 ans... - jeudi 8 décembre 2005 - 18h30 : Anne-Sarah Le Meur "Au creux de l'obscur" Dans l'obscurité de l'écran : vers une programmation artistique et informatique ? _ Après avoir suivi le cursus universitaire Arts et Technologies de l'Image de l'Université Paris 8 et enseigné deux ans au Bauhaus Universitaet à Weimar, Anne-Sarah Le Meur est actuellement maître de conférence à l'Université Paris 1 Panthéon-Sorbonne. Anne-Sarah Le Meur développe aujourd'hui avec Le Cube à Issy-les-Moulineaux et interface-Z un travail sur la lumière directement générée par programmation. Ses images de synthèse bien qu'abstraites, sont toutefois liées à une "narration" subjective. _ [->http://aslemeur.free.fr] - jeudi 12 janvier 2005 - 18h30 : Anne-Marie Morice "synesthesie.com" _ "Journaliste depuis 1981, Anne-Marie Morice a collaboré à Libération, Création, Télérama, La Croix...etc... en développant de nombreux sujets traitant des relations entre la création des systèmes de représentation et leur diffusion, qu'il s'agisse de la publicité, de la photographie, de la vidéo, des arts électroniques ou des arts plastiques. Elle crée le site Synesthésie en 1995, qui produit entre autres une revue électronique, qui ouvre un espace aux artistes, aux critiques et les confronte aux potentialités du numérique". (communiqué de presse du Magasin, CNAC Centre National d'Art Contemporain, Grenoble) _ [->http://www.synesthesie.com] - jeudi 9 février 2005 - 18h30 : Espace EDF Electra - jeudi 9 mars 2005 - 18h30 : Anne-Marie Duguet (sous réserve) - jeudi 13 avril 2005 - 18h30 : à définir... «La critique ne retranche pas, elle ne supprime pas, elle ajoute». Roland Barthes : «Le bruissement de la langue» (Répéter doucement) @ bientôt, Marc Veyrat, responsable pour l'Université de Savoie des Forums des Images Numériques iii <marc.veyrat@univ-savoie.fr>
2005-06-28 08:46:17
http://
Dimanche, 3 juillet 2005, Université du Québec à Montréal 320, rue Sainte-Catherine est, local DSR 510 FACIL, pour l'appropriation collective de l'informatique libre, le réseau Koumbit ainsi que le Laboratoire de communication médiatisée par ordinateur (LabCMO) vous invitent à la journée « Copyright 2005, le droit d'auteur et vous », le dimanche 3 juillet 2005 afin de discuter des enjeux liés aux réformes du droit d'auteur. M. Richard Stallman, président de la Free Software Foundation sera présent pour l'occasion. La facilité de reproduction permise par les technologies numériques entraîne la nécessité d'importantes réformes aux modèles de protection du droit d'auteur, initialement développés dans un contexte de production papier. Alors que d'importants groupes cherchent par des techniques et des moyens légaux à réduire artificiellement ces nouvelles possibilités de reproduction, d'autres groupes, comme le mouvement du Logiciel libre et le mouvement Culture libre proposent plutôt d'axer la production culturelle et l'innovation sur une plus grande possibilité de reproduction. La journée Copyright 2005 permettra aux participants de mieux comprendre ces enjeux et de connaître les acteurs impliqués dans ces initiatives de libre reproduction de l'information. En plus d'une douzaine d'organisations qui tiendront des kiosques sur place, les conférenciers suivants seront présents: Richard Stallman (Free Software Foundation), Russell McOrmond (Flora), Marcus Bornfreund (Creative Commons Canada), Daniel Pascot (responsable d'un projet de recherche sur les logiciels libres pour le Conseil du Trésor du Québec), Cyrille Béraud (Savoir-faire Linux) ainsi que Robin Millette (FACIL). Cette activité contribuera à élargir le débat entourant le projet de loi C-60, présenté le 20 juin dernier par le parlement canadien. Ce projet de loi propose une réforme en profondeur de la loi sur le droit d'auteur qui vise à mettre en oeuvre les dispositions des traités de 1996 de l'Organisation mondiale de la propriété intellectuelle (OMPI). Près de deux mille personnes se sont déjà opposées à cette loi en signant une pétition demandant au parlement canadien de reconnaître non seulement l'intérêt des créateurs et des éditeurs, mais également celui du public. Cet événement sera également l'occasion d'annoncer la seconde Semaine québécoise de l'informatique libre qui se tiendra du 12 au 20 novembre 2005. Les médias sont conviés à 18h à une conférence de presse présentée par le comité organisateur de la Semaine québécoise de l'informatique libre (SQIL). La journée Culture Libre se tiendra le dimanche 3 juillet de 13h à 22h, au local DSR 510 de l'Université du Québec à Montréal (métro Berri-UQAM) débutera à 13h par l'ouverture des kiosques. La présentation de Richard Stallman débutera à 18h30. Le panel débutera à 20h pour se terminer vers 22h avec les questions du public. Pour plus d'information, veuillez visiter le site de l'événement au http://copyright2005.koumbit.org/ ou communiquez avec Robin Millette au 514-521-3942. Pour en savoir plus sur la Semaine québécoise de l'informatique libre, visitez [http://sqil.info/->http://sqil.info/]. Une présentation de [http://facil.qc.ca/->http://facil.qc.ca/] - [http://koumbit.org/->http://koumbit.org/] - [http://cmo.uqam.ca/->http://cmo.uqam.ca/]
2005-06-28 20:48:44
Journée Copyright 2005
http://copyright2005.koumbit.org/
«Aprés l'adoption de la Loi de Confiance sur l'Economie Numérique (LCEN) et la réforme de la Commission Nationale Informatique et Libertés (CNIL) en 2004, l'été 2005 sera-t-il fatal aux libertés numériques en France et en Europe ? Quelques faits - Juin 2005 : un chercheur, Guillermito, est reconnu coupable de contrefaçon de logiciels et de violation de propriété intellectuelle pour avoir, en partie, rendu public le code du logiciel antivirus Viguard de l'éditeur Tegam démontrant les faiblesses de sécurité du programme. [->http://www.guillermito2.net/archives/2004_12_28.html] - Juin 2005 : un bloggeur est attaqué par une municipalité UMP pour diffamation et risque la fermeture de son site perso simplement pour s'être exprimé. [->http://www.monputeaux.com/] - Juin 2005 : la commission des Lois de l'Assemblée nationale française a adopté le projet de loi DADVSI (droits d'auteur et droits voisins dans la société de l'information) dont le rapporteur est le député UMP homophobe Christian Vanneste. Cette loi doit transposer la directive européenne EUCD qui, allant à l'encontre du droit français actuel autorisant la copie privée, justifie légalement les dispostifs anti-copie et pénalise leur contournement (peine maximum prévue : une amende de 300.000 euros et trois ans de prison). Logiquement, cette loi permettra aux industries culturelles monopolistiques de s'attaquer de front aux systèmes d'échanges P2P. - 6 Juillet 2005 : les députés européens seront une dernière fois appelés à s'exprimer sur la directive approuvant la brevetabilité des logiciels dans l'Union Européenne. Les brevets logiciels condamnent à terme la dynamique communautaire du logiciel libre au profit d'une confiscation, d'une privatisation absurde du savoir. Une fois encore, la lâcheté des politiques pourrait permettre de favoriser le profit et le techno-totalitarisme sur l'intelligence collective et la liberté d'expression. Des images à voir, à télécharger, à diffuser Un mur du son contre les lois liberticides : face à la LCEN en cours d'adoption, les acteurs français de l'informatique, de la création, de la diffusion, de l'information libres se mobilisent contre cette loi liberticide. Une conférence de presse réunissant des représentants de la Fédération Informatique et Libertés, de propagande.org/no-log.org, la ligue ODEBI, l'APRIL et eucd.info présente les enjeux et les risques d'un tel tournant techno-juridique. Paris – mai 2004 -[->http://regardeavue.com/videos/antiLen_conf.mpg] Absurdité des brevets logiciels. Action de démonstration lors du dernier salon Linux Expo. Paris – 2005 - [->http://regardeavue.com/videos/SL2005-brevets-hq.avi] Wikipedia : une encyclopédie collaborative libre et universelle reposant sur l'usage de programmes open source. Un tel projet sera-t-il encore possible dans la société techno-totalitaire privée en devenir ? Rencontre publique avec Jimmy Wales, initiateur du projet. Paris – Juillet 2004 - [->http://regardeavue.com/videos/wikipedia.jimmy.wales.paris.07.2004.mkv] Creative Commons : quand les droits d'auteurs ne sont pas qu'un piège juridique destiné à enrichir les ayants droits d'artistes ou à réprimer leurs contrevenants Présentation publique des outils creative commons Strasbourg – Juin 2005 - [->http://regardeavue.com/videos/creative.commons.presentation.fr.mpg] Cryptographie : un outil encore légal en France pour s'assurer de la confidentialité des ses échanges par courrier électronique et ainsi se garantir encore, un peu, de vie privée. Présentation de la pratique et des enjeux du cryptage dans les usages de l'internet. Paris – Septembre 2004 - [->http://videobaseproject.net/video54.html] Ouvaton vs Metrobus : prémices de la LCEN et de ses conséquences sur la liberté d'expression. En 2003, une ordonnance de référé a contraint l'hébergeur coopératif Ouvaton à communiquer à la régie publicitaire Metrobus les éléments d'information permettant d'identifier les éditeurs du site'stopub'hébergé par la coopérative. Ce jugement met à la charge de la coopérative les frais de procédures, malgré son strict respect de la loi, décision qui a pesé gravement sur l'existence cet hébergeur. Conférence de presse de Alexis Braud, président de la coopérative Ouvaton. Paris – Décembre 2003 - [->http://regardeavue.com/videos/ouvaton.mpg] Le pacte des gnous : introduction générale et im/pertinente sur le logiciel libre. - [->ftp://samizdat.net/medias/videos/autres/pacte_des_gnous.avi] Quelques textes et sites de référence Textes - Appel aux députés européens pour sauver l'Europe de la menace des brevets logiciels http://infoblog.samizdat.net/page-2378.html – Liberté et confidentialité : prenons le maquis ! [->http://infos.samizdat.net/article122.html] - LEN : la liberté, le crime qui contient tous les crimes [->http://infoblog.samizdat.net/page.php?p=193] - Quand la loi est injuste, la désobéissance est un droit ! [->http://infoblog.samizdat.net/page.php?p=846] Sites de reference - BugBrother : [->http://www.bugbrother.com/] - Fédération Informatique et Libertés : [->http://www.vie-privee.org/] - OpenPGP en français : [->http://openpgp.vie-privee.org/] - Pas de brevets : [->http://noepatents.eu.org/] - EUCD : [->http://eucd.info/] Plus d'infos : [->http://videobaseproject.net/article63.html] ## samizdat.net | infosblog - Fil d'information alternative ##http://infoblog.samizdat.net/page-2383.html ## Mis en ligne par Pedro le 30 juin 2005 @ 08:00:39 »
2005-06-30 16:28:07
Videobaseproject
http://videobaseproject.net/article63.html
Petites nouvelles du front en rafales. Je parviens à lire des vidéos au formats windows, mais pas toujours avec le son. D'autre part, j'ai loué un DVD, mais sa lecture était saccadée. Sans doute mon pilote de lecteur de DVD pose-t-il problème? Toujours est-il que j'ai dû rebooter sur Windows pour le voir correctement. C'est frustrant ! En revanche, ce qui marche très bien, c'est la lecture massive de MP3, avec Rhythmbox. Les radios fonctionnent bien également. En naviguant sur le web, je ne ressens pas de frustration. Les sites truffés de Flash fonctionnent très bien. Par exemple, Google maps et Mappy marchent sans problème. Comme je suis en train de chercher un appartement, j'utilise beaucoup ce type de service très pratique. Sur les sites d'annonces immobilières, en général, tout va bien. C'est essentiel, notamment pour la mémorisation de mes passages et des annonces archivées, l'abonnement à des alertes spécialisées, etc. Pour mon fils, j'ai trouvé un Boulder Dash ("Gnome stones") du plus bel effet. Ca parlera aux nostalgiques des années 1980 sur C64, CPC et Amiga. Mais, comme dans la plupart des jeux, je n'ai pas encore de sons. J'avoue que je ne m'en suis pas occupé, mais ça ne marche pas pour l'instant. Mon système, lui, est particulièrement sonore. J'aime bien le son de démarrage d'Ubuntu. Mais hier, dans le TGV, j'ai regretté que la touche "silence" de mon DELL ne soit pas active sur Linux. Du coup, le wagon entier a subi l'introduction sonore d'Ubuntu, à volume élevé. Les deux touches permettant de monter et baisser le volume ne sont pas non plus reconnues. Je mets facilement la machine en veille. Gnome parle de mode "hibernation" et il est vrai que la mise en veille est assez longue. Le retour de veille est également long. La machine écrit une image de la mémoire sur le disque dur. C'est donc une véritable hibernation, sans consommation d'énergie. Le petit outil de configuration du réseau de Gnome m'énerve beaucoup. Il n'est pas fiable et je sens que je vais chercher à configurer mon réseau avec un script. Ma machine se connectant à plusieurs réseaux différents, je dois disposer de plusieurs configurations différentes. Certains jours, je dois modifier ces informations trois fois. Voilà, le bilan est lapidaire et décousu, mais vous étiez prévenus !
2005-07-13 00:00:00
http://
«Vox Internet est un programme scientifique de la Fondation Maison des Sciences de l’Homme de Paris (MSH), soutenu par le ministère de la Recherche. Il fait partie d’un ensemble de travaux consacrés aux relations entre technologies et société, regroupés au sein de TEMATIC, l’un des programmes de MSH-DEVAR (Diffusion, Expérimentation, Valorisation de la recherche). OBJECTIF Soutenir et rendre plus visible la recherche française, francophone et européenne sur le rôle de l’internet dans la construction des sociétés de la connaissance. Un premier séminaire a été consacré en 2004-2005 à la gouvernance de l’internet, thématique mise en lumière par l’actualité du Sommet Mondial sur la Société de l’Information. DEMARCHE Interdisciplinaire - Inter-acteurs - International Dès sa première année de fonctionnement, le programme Vox Internet a privilégié - une logique de réseau actif autour d’une communauté de savoir pluridisciplinaire librement réunie (sociologues, politistes, juristes, économistes, informaticiens, etc.). - un recours à des participants très divers de par leurs origines (France, Belgique, Royaume-Uni, Suisse, etc.) et leurs statuts (chercheurs, doctorants, cadres d’entreprises, administratifs, indépendants, associatifs, etc). - une méthode de travail collaborative (une place équivalente accordée dans chaque session aux présentations et à leur discussion, des synthèses des débats mises à disposition sur une liste de diffusion, un aller-retour entre présentations, débats et commentaires pour élaborer chaque chapitre, une conclusion commune). - la conception, en parallèle au déroulement du premier séminaire, d’un portail web qui puisse à la fois mettre à disposition les premiers résultats de la recherche et structurer ses avancées. LE RAPPORT 2005 « Gouvernance de l’internet : l’état de fait et l’état de droit » Le programme de recherche Vox Internet a choisi de partir des usages pour remonter vers les outils et les institutions. Trois grands domaines ont fourni un premier terrain d’observation des mutations induites ou portées par l’internet : la technique, l’économique, le juridique. L’« état des savoirs » ici présenté assume son caractère provisoire et arbitraire, qui a vocation à être complété. Face à des enjeux très contemporains, la « dispute » pluridisciplinaire et multisectorielle a permis de faire naître une dynamique réflexive entre recherche, d’une part, problématisation socio-politique, d’autre part, qui assume de ne rien sacrifier de la connaissance et de son effet sur le champ des pratiques. Loin de vouloir aboutir à un consensus, il s’agissait plutôt de voir apparaître une mosaoeque de commentaires et de documents ou références complémentaires, au regard des thèses ou hypothèses avancées. LE PORTAIL VOX INTERNET Un réseau de recherche ouvert Ce site portail conçu sous SPIP, système de gestion de contenus sous logiciel libre (en partenariat avec le CERIMES-SFRS), accompagne la publication du premier rapport scientifique Vox Internet. Il correspond à la première étape d’un travail d’identification, d’approfondissement et de communication de la problématique Vox Internet : le rôle de l’internet dans la construction des sociétés de la connaissance. Il vise à stimuler la suite des travaux par la création d’un réseau de recherche ouvert, articulé selon différentes rubriques animées par des « têtes de réseau », tant en France qu’à l’étranger. Il sera progressivement multilingue et enrichi de diverses fonctions : - suivi des prochains séminaires (articles, discussions, compléments d’informations) - bibliothèque virtuelle (liens commentés vers des ressources documentaires indexées) - annuaires de liens avec moteur de recherche - agenda de manifestations scientifiques - actualité politique de l’internet - chaînes de syndication avec des partenaires - lettre de diffusion mensuelle - forums N’hésitez pas à nous faire part de vos réactions, propositions et informations. Pour le Comité de Pilotage du programme Vox Internet, Françoise Massit-Folléa Responsable scientifique Ecole Normale Supérieure de Lettres et Sciences Humaines - Laboratoire C2SO / Fondation Maison des Sciences de l’Homme 54 boulevard Raspail F - 75006 Paris»
2005-07-05 17:03:53
http://www.voxinternet.org/
http://www.voxinternet.org/
« Les participants aux 6èmes Rencontres Mondiales du Logiciel Libre réunis du 5 au 9 juillet à Dijon appellent solennellement les députés européens à refuser la brevetabilité des programmes d'ordinateurs. Mercredi 6 juillet, en session plénière à Strasbourg, les députés européens seront devant un choix historique pour l'avenir de l'indépendance européenne en matière informationnelle, pour l'avenir des PME du secteur informatique (représentant l'essentiel des emplois et dans ce secteur stratégique), pour l'innovation en informatique et pour la liberté de sélectionner en parfaite connaissance l'offre du marché la plus adéquate. Bien que les débats aient démontré amplement, depuis plusieurs années, que les brevets logiciels n'ont aucune justification économique et freinent l'innovation qu'ils prétendent encourager, la Commission Européenne et le Conseil des Ministres européens poussent une directive européenne extrémiste sur le modèle américain. Seule une société en situation de monopole qui veut étouffer dans l'oeuf toute concurrence, peut trouver une « utilité » aux brevets logiciels. Il n'est donc pas étonnant de retrouver la société Microsoft à travers son bras armé la BSA (Business Software Alliance) comme principal promoteur de la directive. Les brevets logiciels permettraient en effet à ce type de société monopolistique de bloquer les logiciels libres, désignés à plusieurs reprises comme principaux concurrents. Machine de guerre contre le logiciel libre, les brevets logiciels mettront en péril l'indépendance technologique de l'Europe, la construction de l'administration électronique européenne et empêcheront l'Union européenne d'atteindre les buts fixés dans la « stratégie de Lisbonne ». Cette stratégie porte l'ambition de faire de l'Union européenne la région la plus compétitive du monde d'ici à 2010, en fondant son développement économique sur le développement d'une société de la connaissance et des savoirs. Le choix de la brevetabilité illimitée aujourd'hui du logiciel, demain des méthodes intellectuelles et d'affaires serait une aberration. Les développeurs, utilisateurs et professionnels de l'informatique libre appellent en conséquence les députés européens à repousser la directive « brevets logiciels » en votant les amendements Rocard-Buzek-Duff, déposés par des membres de tous les bords de l'échiquier politique. Les députés européen ont le devoir de repousser une directive qui laisserait l'Europe sous la menace immédiate d'une colonisation par Microsoft et quelques autres géants des technologies de l'information, au risque de transformer la « stratégie de Lisbonne » en « stratégie de Redmond ». Les participants aux RMLL se réuniront mercredi soir à Dijon pour informer les citoyens sur les enjeux de la directive.»
2005-07-05 17:21:33
http://swpat.ffii.org/
http://swpat.ffii.org/
Les 3, 4 et 5 octobre 2005, à Montpellier Le [réseau Ecole et Nature->http://www.ecole-et-nature.org], réseau national d'Education à l'Environnement, en partenariat avec le réseau [Tela Botanica de la botanique francophone->http://www.tela-botanica.org], proposent une session de formation aux outils informatiques pour le fonctionnement en réseau coopératif. Cette formation entre dans le cadre d'un projet de [« ressources pour les réseaux »->http://www.outils-reseaux.org] animé par ces deux associations. Une première session s'est déroulée au mois de mai 2005 : voir [le site de la Formation "Outils informatiques pour fonctionner en réseau"->http://www.outils-reseaux.org/formation] Nous souhaitons amener les associations à choisir les outils les plus adaptés à leurs besoins et impulser des logiques de travail coopératif au sein de leurs structures. Il s'agit d'offrir aux participants tous les éléments méthodologiques et un panorama des solutions techniques existantes, pour concevoir un dispositif collaboratif performant et adapté à leurs besoins, en coordonner la réalisation et animer son fonctionnement. Un des enjeux de cette formation résidera dans la mise en réseau de nos expériences et l'exploitation des TIC comme support, outil pédagogique pour accroître son efficacité. Dates et lieu de la formation : - les lundi 3, mardi 4 et mercredi 5 octobre 2005, à Montpellier (lieu à préciser) Publics concernés : - Des animateurs de réseaux - Des responsables d'animations de groupes associatifs - Des responsables de projets - Des responsables TIC Objectif de la formation : - Découvrir les outils collaboratifs et leurs usages - Analyser les besoins d'un réseau, d'une structure, d'un groupe de travail en matière d'équipements TIC - Concevoir un dispositif collaboratif adapté aux besoins d'un groupe ou réseau - Animer un forum, une liste de discussion ou un logiciel d'écriture collaborative (Wikini par exemple) : synthèse, reformulation... - Gérer et exploiter les fonctionnalités d'écriture partagée - Utiliser un CMS (Content Management System, SPIP par exemple) pour mettre en ligne du contenu [Voir le programme détaillé de la formation->http://outils-reseaux.org/wikini/wakka.php?wiki=SessioN1] Inscription et conditions tarifaires Formation prise en charge groupée par UNIFORMATION (pour les cotisants à UNIFORMATION et en priorité pour les adhérents à Ecole et Nature) Si vous êtes intéressés, contactez Ecole et Nature : Réseau Ecole et Nature Espace République - 20 rue de la République 34 000 Montpellier Tel : 04 67 06 18 70 - Fax : 04 67 92 02 58 Email :info@ecole-et-nature.org
2005-07-24 13:07:53
http://outils-reseaux.org/wikini/wakka.php?wiki=SessioN1
http://outils-reseaux.org/wikini/wakka.php?wiki=SessioN1
"[Vaincre la peur du libre->http://www.framasoft.net/article3997.html]", un billet qui confirme que la dimension psychologique ne doit pas être négligée dans le processus de migration vers les logiciels libres. D'ailleurs, si les logiciels libres n'étaient qu'affaire de technologie, ça se saurait.
2005-07-17 22:48:35
Vaincre la peur du libre
http://www.framasoft.net/article3997.html
« Copyright, a new open-access, peer-reviewed journal led by a renowned editorial team, seeks papers on all aspects of copyright in the Internet age. The journal features an extremely rapid review and publication time while maintaining rigorous standards on the quality of work. Every effort will be made to have the initial reviewers' decision within two weeks of submission. The journal focuses on detailed research and case studies vetted by peer-review; opinion pieces and shorter communications are also invited and will be accepted at the editors' discression. Because the journal is open-access, the author retains the copyright to his or her works. Copyright is structured to be a new type of journal, not just a place to publish ideas but a locus to generate them--vital in an area of academic interest largely composed of subdisciplines of other fields. For instance, while the majority of articles will still be published in the traditional fashion, a novel, collaborative approach has been implemented as well. Potential authors can simply begin contributing to such an article while the system tracks the individuals' contributions. The article is then submitted through the normal review process and, if accepted, authorship is assigned based on the tracked contributions as the last step of the review process. Copyright is particularly interested in publishing interdisciplinary works and works not normally considered within the purview of such a journal, such as those covering social and political impact of copyright. The journal also encourages lay participation through community projects. Copyright seeks articles on all topics related to copyright, including: * Digital Rights Management * Quantitative studies of the effects of legislation * Scholarly communication and Open Access * Peer-to-peer networks * International copyright * Collaborative authorship * Blogs and other new media * Collaborative filtering * Copyright in developing nations * Social implications of copyright This list is not intended to be exhaustive. Indeed, high-quality papers relating to any aspect of copyright are welcome. For guidelines on submissions, or to submit a paper, see the submissions page. The editors of Copyright invite you to submit papers, case studies, and opinion pieces. Registration to be notified of new issues is also available, as is guidance in using the collaborative systems in place.» Editors : Michael Geist and Lawrence Lessig
2005-07-24 13:17:14
Copyright
http://www.copyrightjournal.org
Homo Numericus clôt son année par la publication d'une nouvelle édition de son OPML. Les fichier OPML contiennent les références et descriptions d'un ensemble de fils RSS qui peuvent être distribués selon n'importe quel type de classement. Ce type de fichiers permet de s'abonner en une seule opération à plusieurs fils sans devoir les ajouter manuellement dans son agrégateur. En l'occurrence, il s'agit de 170 sources d'informations, classées suivant l'ordre des rubriques du site : Cybercratie pour tout ce qui touche au(x) droit(s), Kap-IT-al pour la nouvelle économie, E-maginer pour les usages, et Numerica pour les objets, services et gadgets. S'y ajoute une rubrique "personnelle" de l'éditeur du site. On peut aussi accéder à ce répertoire de sources via [Bloglines->http://www.bloglines.com/public/homonumericus/], dont l'ergonomie est finalement très convaincante (merci à Jean-Christophe et Véronique). L'ensemble de ces sources est toujours syndiqué sur [Homo Numericus->http://www.homo-numericus.net/source.php3]
2005-07-24 13:37:01
http://www.homo-numericus.net/hn_sources.opml
http://www.homo-numericus.net/hn_sources.opml
«Le poste de directeur de l'Unité mixte de service 2894, "Centre d'édition numérique scientifique" (CENS) dont la localisation principale est à Lyon est à pourvoir à compter du 1er octobre 2005. PROFIL DU POSTE _ Les candidats doivent être des scientifiques reconnus dans leurs domaines, détenir une bonne expérience de l'édition de revues dans le domaine des sciences humaines et sociales et avoir une perception claire des enjeux de l'édition électronique. ACTIVITES _ L'UMS CENS a pour fonction d'assurer la mise en ligne des revues qui en font la demande. Son responsable devra, en étroite concertation avec le conseil scientifique mis en place, d'une part, et avec les directeurs de revues, d'autre part, : - assurer l'encadrement de l'équipe existante; - assumer la gestion administrative et financière de l'unité; - veiller au respect du cahier des charges. Les candidatures devront être adressées au département SHS du CNRS, 3, rue Michel-Ange 75016 Paris»
2005-07-25 21:20:05
CNRS
http://www.cnrs.fr/SHS/appelsoffres/appels_offres.php?id_appel_offres=148
«The July/August 2005 issue of D-Lib Magazine is now available. This tenth anniversary issue contains nine articles, reports from the ACM/IEEE Joint Conference on Digital Libraries 2005, the 'In Brief' column, excerpts from recent press releases, and news of upcoming conferences and other items of interest in 'Clips and Pointers'. The Featured Collection for the July/August issue is Kinematic Models for Design Digital Library (KMODDL) contributed by Kizer Walker and John M. Saylor, Cornell University. The articles include: - A Tenth Anniversary for D-Lib Magazine Bonita Wilson and Allison L. Powell, Corporation for National Research Initiatives - Really 10 Years Old? Amy Friedlander, Shinkuro, Inc. Whence Leadership? Ronald L. Larsen, University of Pittsburgh - Funding for Digital Libraries Research: Past and Present Stephen M. Griffin, National Science Foundation - Digital Libraries: Challenges and Influential Work William H. Mischo, University of Illinois, Urbana-Champaign - Where Do We Go From Here? The Next Decade for Digital Libraries Clifford Lynch, Coalition for Networked Information - A Viewpoint Analysis of the Digital Library William A. Arms, Cornell University - Dewey Meets Turing: Librarians, Computer Scientists, and the Digital Libraries Initiative Andreas Paepcke, Hector Garcia-Molina, and Rebecca Wesley, Stanford University - Border Crossings: Reflections on a Decade of Metadata Consensus Building Stuart L. Weibel, OCLC Research The reports from JCDL 2005 include: - Report on the Fifth ACM/IEEE Joint Conference on Digital Libraries - Cyberinfrastructure for Research and Education: June 11, 2005, Denver, Colorado Tamara Sumner, University of Colorado at Boulder - JCDL Workshop Report: Studying Digital Library Users in the Wild Michael Khoo, University Corporation for Atmospheric Research and David Ribes, University of California - San Diego - Developing a Digital Libraries Education Program: JCDL Workshop Summary Molly Dolan, University of Illinois, Urbana-Champaign - NSF/NSDL & CODATA Workshop on International Scientific Data, Standards, and Digital Libraries Laura M. Bartolo, Kent State University and John Rumble, Information International Associates - Next Generation Knowledge Organization Systems: Integration Challenges and Strategies Deanne DiPietro, Sonoma Ecology Center»
2005-07-26 18:56:57
D-lib
http://www.dlib.org/
«Le colloque intitulé « Internet, nouvel espace public mondialisé ? » s’est inscrit dans le cadre des travaux d’un programme universitaire de coopération franco-québécois intitulé « Internet comme bien commun » (COMMINT)1. Ce programme de recherche interroge le rôle des technologies de l'information et de la communication dans la gestion politique des sociétés. Il met l'accent sur les finalités autant que sur les formes nouvelles de l'action collective suscitées par la présence des technologies récentes de l’information et de la communication. Nous tentons ainsi de repérer les appels au « bien commun » exprimés par différents mouvements sociaux qui identifient la meilleure diffusion de l'information et des savoirs et le droit à la communication à un « mieux être» pour les citoyens. Ce colloque s’est tenu à la Maison de la Recherche à Paris le 28 novembre 2003. Il a représenté un précieux moment de rencontre entre un réseau de chercheurs, des représentants d’organismes publics et des milieux associatifs, et des décideurs politiques. Ce colloque s'est déroulé quelques jours seulement avant la tenue à Genève, sous l'égide de l'Organisation des Nations -Unies, du premier Sommet mondial sur la société de l'information (SMSI). Cette rencontre franco-canadienne entre personnalités provenant à la fois d’Europe et d’Amérique du Nord s'est ainsi placée délibérément dans la perspective d'une contribution du milieu de la recherche francophone, européenne et canadienne aux enjeux du Sommet mondial sur la société de l'information. Selon les textes officiels, l'objectif du SMSI est rien moins que de « bâtir une vision commune du monde à venir », à partir du postulat qu'il sera très largement déterminé par l'infrastructure technologique des réseaux de communication»
2005-07-27 00:13:28
Actes en ligne
http://c2so.ens-lsh.fr/article.php3?id_article=79
A partir d'aujourd'hui, je tente de passer de Gnome à KDE. Gnome me semble plus élégant, mais j'ai l'impression que KDE est plus mûr. Je vous en dirai plus bientôt.
2005-08-05 13:20:22
http://
«Ces derniers jours, j'ai travaillé sur une adaptation de Scuttle, un système libre de social bookmarking, de sorte qu'il soit plus facilement utilisable par les enseignants. [...] En quoi est-il différent de Scuttle ? S'enregistrer sur Scuttledu est différent en ceci que le système rend le marquage plus facile pour les enseignants. Quand vous vous enregistrez, on vous demande d'indiquer votre niveau et votre discipline. Lorsque vous créez un nouveau signet, ces deux informations deviennent des tags , que vous avez toujours la possibilité de ne pas utiliser. » Todd Slater sur Big Idea (trad. par hn)
2005-08-06 23:14:52
Announcing Scuttledu
http://idea.zanestate.edu/archives/2005/08/announcing-scuttledu/
<img59|left>«Jamendo.com, la plateforme de téléchargement libre et légal, organise le vendredi 16 septembre 2005 un concert exclusif à la Maroquinerie, 23 rue boyer, 75020 Paris (Métro Ménilmontant). Dans le cadre du jamendo live tour, qui comprend plusieurs dates aux quatre coins de la France, les groupes diffusés sur jamendo ...anabase*, Myassa et Both vont inaugurer la première date de cette tournée. L'évènement aura lieu de 19h à 23h, laissant ainsi à chaque groupe un set d'une durée d'une heure. L'originalité de ce concert peut se résumer en deux phrases clés : – Repartir à chaud avec le live gratuitement sur sa clé usb ! La session de chaque groupe sera enregistrée en direct à l'aide du jamcorder, logiciel libre développé par jamendo, et distribuée gratuitement au format mp3 (sous licence Creative Commons), à toute personne qui présentera une clé usb ou son lecteur mp3 au stand jamendo. – Ne pas venir les oreilles vides ! Les artistes qui assureront le spectacle proposent leurs albums complets en libre-téléchargement sur jamendo. L'occasion de se faire une idée précise sur le style de ces groupes avant de venir les venir les voir sur scène.»
2005-08-07 15:25:18
Le site du concert sur Jamendo
http://www.jamendo.com/?s=jamendolive
EclècticaDV en collaboration avec d-i-n-a, samizdat.net, penelopes & amisnet présente: *DATAFIGHTERS* Fracture numérique, culture du copyleft, media hacktivisme et logiciels libres Un projet DVD sur la culture du copyleft, le partage de connaissances et les pratiques de la communication alternative. Une collecte de vidéos produites par des activistes de l’information et par des structures de communication de la société civile du monde entier, pour présenter un point de vue alternatif sur la “société de l’information". * Appel à la contribution de vidéos indépendantes* Une équipe internationale de rédaction, composée par des activistes et chercheurs/euses de la communication, produira Datafighters comme une vidéo-narration d’environ 150 minutes, intercalée par une série de contributions multimédia, réalisée en français, arabe, anglais, espagnol, italien et portugais. On cherche à repérer du matériel vidéo qui focalise son attention sur quatre aspects: * contextes ou la technologie n’est pas accessible (fracture numérique, fracture numérique nord-sud et hommes-femmes, biotechnologies, brevets sur le génome humain etc….). * communautés de base et groupes indépendants qui créent leurs propres médias (media hacktivisme, logiciels libres, réseaux peer-to-peer, licences Creative Commons, communautés wifi, serveurs indépendants aux ordinateurs, radios et TV pirates et communautaires, observatoires médias, …) * précaires de l’industrie de l’information (centres d’appels, télétravail, ouvriers dans les usines de traitement du secteur électronique, intermittents du marché de la communication et de la recherche…) * citoyens soumis aux tactiques de l’information de guerre (armes ‘intelligentes’, contrôle aux frontières, systèmes biométriques, sourveillance dans les espaces publics, dans les manifs, sur les lieux de travail, sur l’internet…) Votre film peut avoir une durée de 5-10 min ou celle d’un long-métrage. Dans ce cas, avec votre coopération, un extrait du film sera sélectionné (une introduction, une partie significative). On accepte aussi du matériel vidéo non monté qu’on pourrait utiliser pour contextualiser les contenus. - premier délai , 15 août 2005 (les contributions envoyées au plus tard à cette date auront des bonnes possibilités d’être traduites, etc. donc sélectionnées) - deuxième délai, 1 septembre 2005 - dernier délai, 15 septembre 2005 Datafighters veut devenir un DVD-magazine qui offre aux vidéastes, traducteurs/euses, techniciens du DVD-authoring et chercheurs/euses un réseau de distribution et de redistribution de revenus issus de la production vidéo indépendante. Actuellement on n’a pas encore obtenu de financements, mais on cherche à financier notre projet à travers un système de financement “p2p” (voir le formulaire P2PFundraisingForm sur notre site). Visitez aussi le VideocontributionCall sur notre site pour les tarifs que nous avons budgeté si votre film est selectionné.
2005-08-07 16:20:56
Site
http://www.eclecticadv.net
Je suis à la campagne. L'ADSL est ici un simple présage, une annonce, une prédiction, un espoir. J'essaie de me connecter via un modem basique, celui qui est inséré au coeur de mon Dell. Mais.. mais... mais... où est-il? Comment le configurer? Comment le faire détecter par Linux? On dirait qu'il en répond pas? J'ai essayé autant sur KDE que sur Gnome et il semble bien caché, ce damné modem...
2005-08-07 16:49:32
http://
«23-24 September, 2005 Atelier Nord, Oslo, Norway Le colloque Generator.x explore les recherches actuelles dans l'art et le design qui emploient des systèmes génératifs comme outils ou fins en soi. Les intervenants sont des acteurs ou des observateurs reconnus du domaine. Intervenants - Erich Berger (NO / AT) - Pablo Miranda Carranza (SE / SP) - Gisle Frøysland (NO) - Hans Christian Gilje (NO) - Susanne Jaschko (DE) - Golan Levin (US) - Sebastian Oschatz (DE) - C.E.B.Reas (US) - Amanda Steggell (NO) - Marius Watz (NO)» «23 September - 16 October, 2005 National Museum of Art, Architecture & Design, Oslo, Norway L'exposition Generator.x ouvrira à Oslo en même temps que le colloque, puis sera itinérante jusqu'en 2008. L'exposition est divisée en deux parties : 1. Le code comme matériau Artistes: - Lia (AT) - Trond Lossius (NO) - Sebastian Oschatz (DE) - C.E.B.Reas (US) 2. Le code comme méthode Artistes: - Pablo Miranda Carranza (SE / SP) - Theodore Lionel Dean (UK) - Ben Fry (US) - Jürg Lehni (CH) - Golan Levin (US) - Martin Wattenberg (US) »
2005-08-10 02:55:12
generator.x
http://www.generatorx.no/
«J'ai découvert quelque chose d'autre sur le Web : la créativité est de retour. L'idée que le Web n'est qu'un moyen de faire fortune rapidement n'est plus de mise. A la place, se souvenant du milieu des années 90, une poignée d'entrepreneurs talentueux utilisent le Web comme un canvas où s'exprime leur créativité. Il y a une petite entreprise qui est emblématique de ces efforts pour créer de meilleures applications, qui définit les contours d'un nouvel esprit d'entreprise cherchant à rendre le web meilleur. Cette société s'appelle 37 Signals ; si vous n'en avez jamais entendu parler, ne vous inquiétez pas. Un jour ou l'autre, il est probable que vous utiliserez les logiciels qu'ils conçoivent.» (Farhad Manjoo dans Salon)
2005-08-10 14:50:36
The next Web revolution
http://www.salon.com/tech/feature/2005/08/10/37signals/index.html
J'écris à nouveau depuis Windows. Dans mon nouvel appartement, délai de dégroupage oblige, je n'ai aucun moyen pour me connecter, sauf le GPRS. Je n'ai même pas tenté d'y penser via Linux. J'ai sans doute tort, mais pour concocter une configuration, lire des forums, trouver des astuces, télécharger un trucmachin, il me faudrait... une connexion, non? Bref, j'ai rebooté sur Windows et je me connecte sur mon Siemens S55 via le kit de connexion livré en standard. Ce n'est pas si triste que cela. Notons que, en arrivant sur Windows, je n'ai même pas songé à lancer Thunderbird et à récupérer des emails proprement. Je me suis contenté d'un accès par webmail, comme si j'étais de passage dans un cybercafé. C'est un signe, Linux, ça me gagne.
2005-08-10 17:11:16
http://
Jason Scott, éditeur de [textfiles.com->http://www.textfiles.com] et réalisateur de The BBS Documentary, livre sous licence Creative Commons les matériaux qu'il a utilisés pour réaliser son chef-d'oeuvre. Les interviews sont disponibles et téléchargeables sur Internet Archive : "The BBS Documentary Video Collection is a varied and extensive set of video items collected by Jason Scott, curator of TEXTFILES.COM. These are recordings about and from the era of the domination of ASCII and Dial-up Bulletin Board Systems (roughly the 1970s through the 1990s, with examples far before and after that). Over 250 hours of interviews were conducted for a project called "BBS: The Documentary" (website at bbsdocumentary.com). The questions centered around the history of Dial-up BBSes but sometimes drifted into related topics. Most of the full interviews will be made available on this site over the course of a year. In each case, an audio file of the interviews will also be made available along with the videotaped material, as well as photographs taken during the interview. All material will be released Creative Commons Attribute-Sharealike and you are encouraged to download, re-edit, share, and otherwise use this material as the foundation for further research."
2005-08-16 01:22:46
The BBS Documentary Video Collection
http://www.archive.org/details/bbs_documentary
Edward Castronova, pilier de [Terra Nova->http://terranova.blogs.com/] et professeur de communication à l'Université de Bloomington, Indiana, est en train de mettre sur pied un Centre d'études sur les mondes synthétiques (aka les MMORPG). La conférence inaugurale prendra la forme d'un ludium, c'est-à-dire un jeu créatif impliquant pendant quelques jours les participants à la conférence (universitaires, créateurs, acteurs). «OBJECTIVES The purpose of the conference is to develop and publicize five paradigms for research using synthetic world technology. For a broad description of the possibilities, see this overview. METHOD AND STRUCTURE To develop these paradigms, CSSW1 will inaugurate a new form of academic conference, the ludium. A ludium collects experts in a field and embeds them in a dynamic game of information exchange. To launch this new method, CSSW I will be styled as Ludium I throughout the website and in the conference documents. While similar to workshops and charettes in form (for example, by breaking participants into groups), a ludium differs in that it actively deploys game design to motivate participant behavior. Most especially, a ludium recognizes no boundary between play and work, but rather mingles the two so thoroughly that productivity and entertainment become equally significant outcomes of the process. Ludium I will bring together selected group of academics, game developers, and representatives from business, foundations, and government engaging in a thematic live-action game. Five teams will develop competing roadmaps, intended to guide the research community toward topics, questions, and methods of greatest value and feasibility. Judges will mingle with the teams and review the paradigms for achievement in areas such as impact, funding prospects, immediacy, profitability, imagination, and social justice. In the process of playing, participants will simultaneously - and by design - address the very real issues now facing the community of MMORPG scholars and builders: how best to integrate the technology of synthetic worlds into the academic research paradigm. Under the ludic structure of the conference, sound deliberations will not only teach us all much that we need to know, but it will also earn renown, treasures, and fun for all involved. OUTPUT The five paradigms will point to applications of value for researchers, of course, but also for entrepreneurs, foundations, and agencies. To see some of the anticipated value creation, see the directives for workshop participants in the process section. The conference output will be summarized in a report that will be provided to all participants. » Calendrier : du 29 septembre au 1er octobre 2005 ; les inscriptions sont encore ouvertes.
2005-08-16 02:29:03
CSSW1
http://cssw1.org/
La procédure de création d'un nom de domaine générique réservé aux sites pornographiques (.xxx) est [sur le point d'aboutir->http://www.icann.org/announcements/announcement-01jun05.htm] à l'ICANN. Tout d'un coup, les Etats se réveillent et manifestent soudain leur opposition. C'est ce qu'il ressort en tout cas d'[une lettre->http://www.icann.org/correspondence/tarmizi-to-board-12aug05.htm] adressée par le secrétaire du Government Advisory Comittee (GAC) au président de l'ICANN. Par ailleurs, le Secrétariat américain du Commerce vient, lui aussi ,de [demander publiquement la suspension de la procédure->http://www.icann.org/correspondence/gallagher-to-cerf-15aug05.pdf]. Milton Mueller, spécialiste de la gouvernance de l'Internet et auteur de [Ruling the Root->http://www.homo-numericus.net/article.php3?id_article=198], un essai remarqué sur la gestion du DNS fustige l'inconsistance et l'hypocrisie des gouvernements, en premier lieu brésilien, français et américain. Cette affaire décrédibilise un peu plus, selon lui, l'ICANN et son système de gestion du DNS.
2005-08-17 01:00:21
Obscenity on the Internet
http://www.icannwatch.org/articles/05/08/16/0327234.shtml
«En traversant la blogosphère bédéphile, j'ai trouvé des trésors de créativité et de diversité. Du blog autobiographique au making-off d’album papier, on trouve de tout dans ce petit univers. Journal intime pour certains, bonus "à la manière du DVD" pour d’autres, une seule chose domine : la liberté offerte par ce fantastique outil d’auto-édition. Alors un jour, quand un ami dessinateur m’a poussé à me mettre au dessin (un truc que j’avais laissé de coté depuis mes années Crayola), je suis tombé dans le blogging comme un gourmand dans un pot de Nutella, un véritable accro... C'est pourquoi, quand les responsables d’Album Bercy m’ont expliqué qu’ils cherchaient à organiser un événement innovant et sympa pour les passionnés de BD, j’ai imaginé ce festival des auteurs de blogs BD autour de quelques concepts-clé. La rencontre réelle d’une communauté virtuelle. _ C’est l’occasion pour les auteurs de blogs qu’ils soient professionnels de la BD ou amateurs de se rencontrer. C’est aussi et surtout pour eux une opportunité de mettre un visage sur ceux qui les accompagnent quotidiennement en leur laissant commentaires et encouragements. Ainsi nous proposons au public de venir rencontrer 40 auteurs dès cette première édition et nous vous attendons nombreux. Un événement non-commercial (ou presque). _ L’entrée du festival est gratuite, les dédicaces sans obligation d’achat. Si certains auteurs seront ravis de vous dessiner un petit (ou un grand) quelquechose sur un album qui leur tient à cœur, certains bloggueurs n’ont pas (encore) été publiés et seront là pour signer vos carnets, livres d’or et autres feuilles de papier. Un événement off-line et on-line _ Tout au long du mois précédent l’événement, et ce à partir du 10 aout, vous trouverez de très nombreuses notes contenant des interviews de bloggueurs, des dessins et de nombreuses surprises… Le jour même de l’événement, un certain nombre d’animations auront lieu sur ce blog avec les bloggueurs présents mais aussi ceux retenus ailleurs. Bien que le programme de l'événement ne soit pas encore totalement finalisé (on en a des idées...), voici quelques informations sur ce qui vous attend : du 15 aout au 10 septembre : - mise en ligne quotidienne d'une ou plusieurs interviews de bloggueur (avec tous les participants indiqués à gauche) et d'invités surprise. - ouverture des commentaires dans toutes les notes de ce blog. Participez à l'avant-festival en réagissant à chaud aux propos des auteurs ! fin aout : sortie de Bédéka 18 avec un dossier spécial blog rempli d'illustrations spécialement conçues pour l'occasion. le 11 septembre 2005 : - dédicaces par 40 auteurs. Les horaires de dédicace seront mis en ligne très prochainement. Les dédicaces seront mises en ligne en direct sur ce site. - Sur la base d'un strip réalisé par Melaka, les auteurs se verront proposer la réalisation d'une oeuvre collective mise en ligne au fur et à mesure de sa création. » Yannick Lejeune
2005-08-17 17:30:30
Le site du festival
http://www.festival-blogs-bd.com/
C'est la réflexion que l'on pourrait se faire à la lecture de l'actualité, fournie ces jours-ci, sur les brevets : - Amazon vient de [payer 40 millions de dollars->http://news.zdnet.com/2100-9588_22-5829193.html] à Soverain afin d'empêcher un procès en violation de brevet sur le panier virtuel. Ironie mordante pour le dépositaire du célèbre brevet sur le "1 click shopping". - Apple s'est manifestement fait [doubler sur la ligne par Microsoft->http://www.appleinsider.com/article.php?id=1226] pour le dépôt d'un brevet sur certains éléments d'interface de l'ipod. Il est peu probable que Microsoft se mette à demander des royalties sur chaque ipod vendu car l'interprétation de l'USPTO (l'office américain des brevets) est douteuse. - Apple enfin, en compagnie de 4 autres entreprises vendant de la musique en ligne, est attaqué en justice par un industriel prétendant avoir déposé en brevet en 1998 sur la méthode de protection des contenus qu'ils utilisent.
2005-08-17 18:57:34
Apple, Sony among those named in new DRM lawsuit
http://www.appleinsider.com/article.php?id=1235
Google concentre le feu des critiques : - Intensément controversé, le programme [Google Print est suspendu->http://googleblog.blogspot.com/2005/08/making-books-easier-to-find.html] pour quelques mois ; le temps que la pression redescende. - Mise en cause par un journaliste de Cnet.com pour ses responsabilité en matière de protection de la vie privée, la firme de Mountain views a décrété [un embargo à l'égard de l'ensemble des journalistes du groupe de presse->http://news.com.com/Google+balances+privacy%2C+reach/2100-1032_3-5787483.html?tag=nl], déclenchant une hostilité générale parmi les journalistes. - C'est au tour de Google Earth (Keyhole en fait) de susciter la critique. L'initiative vient du parlement hollandais : «Both politicians and police are concerned that certain locations in the Netherlands, such as the port of Rotterdam, the royal palace in the Hague and Amsterdam Airport, already potential terrorist targets, could be made more vulnerable to terrorists thanks to the detailed images created from satellites and aircrafts within the last three years available via Google Earth.»
2005-08-17 21:51:06
Dutch politicians say Google Earth images help terrorists
http://www.dmeurope.com/default.asp?ArticleID=9618
Je viens de recevoir mon Dell Precision 380 au bureau. J'étais fier de n'avoir commandé -pour la première fois de ma vie- aucun OS sur ce PC, ce qui n'est possible qu'en faisant faire le devis par un commercial de Dell, et pas par le site du constructeur. Non, pas Windows. Même pas Red Hat, car je vais mettre Ubuntu. Rien. Nada. Red Hat aurait été une bien meilleure idée. En effet, les ports USB ne sont pas supportés par Ubuntu, qui plante très tôt dans l'installation. "Very bad!" me dit-il. Assistance téléphonique, démontage, essais. Essais avec une Knoppix. Ca marche. Essais avec une Debian. Erreur de lecteur de CD. Grrrr. Avec un, puis un autre CD. C'est quoi ces périphériques, bon sang? Une Red Hat sinon rien?
2005-08-18 16:52:03
http://
Un wifi picning est un rassemblement en plein air et temporaire d'individu munis d'ordinateurs portables et de cartes wifi. On monte un réseau local ("une bulle wifi") et on tchate en ligne, on échange des fichiers, on partage ses dernières découvertes musicales, parmi bien d'autres choses. Rien n'empêche, bien au contraire, de bavarder en même temps et de faire des rencontres. Le premier du genre eu lieu dans le [jardin du Luxembourg->http://www.memoire-vive.org/archives/000546.php], le second [dans les Alpilles->http://www.memoire-vive.org/archives/000592.php]. Peut-être les suivants se dérouleront-ils du côté de la Bastille puis à Ars-en-Ré. Le wifi picning, trace, selon ses organisateurs, le chemin du Web 3.0 : "nos Wifipicnics proposent une toute nouvelle façon d'appréhender l'idée même du réseau. On sait que le propre de l'Internet est d'avoir pu nous libérer de la géographie physique pour communiquer. Que vous soyez à 10 mètres de moi ou à 10 000 km, le réseau des réseaux nous mettait en contact sans que nous puissions sentir la différence. C'était et ça reste bien sûr une grande révolution. Mais ce que nous initions ici avec nos Wifipicnics relève d'un cheminement inverse : Nous fusionnons le réseau sans fil au monde physique. Nos bulles apparaissent comme des endroits où les liens virtuels qui se nouent par chat, par exemple, se transforment en liens réels et inversement. On pourrait même dire que lorsque nous sommes immergés dans la bulle wifi, nous devenons simultanément interlocuteur virtuel et réel. Et je dois dire que ça, c'est une expérience assez extraordinaire à faire parce qu'alors, contrairement à l'Internet classique, la proximité physique des individus ou même l'idée simple de "chaleur humaine" redeviennent essentielles."
2005-08-19 20:47:05
Mémoire-vive.org
http://www.memoire-vive.org/archives/cat_wifipicning.php
Après les social bookmarks, voici le social calendar. [EVDB->http://evdb.com/] est une entreprise dont l'objectif est d'offrir une base de tous les événements de nature quelconque se déroulant autour de la planète. L'idée est de permettre à chacun de se constituer son propre agenda en ligne (ou sur son ordinateur, via un client icalendar) en puisant dans la base d'EVDB, et de la partager avec d'autres personnes ayant les mêmes centres d'intérêt. Les webmestres et organisateurs d'événements (concerts, conférences et autres) sont incités à enregistrer leurs données dans la base de la société - manuellement ou plus efficacement par un [protocole de syndication->http://evdb.com/pinginfo], afin d'en accroître la visibilité. La communication semble reposer sur la notion de microformat dont Fred Cavazza a [récemment parlé->http://www.fredcavazza.net/index.php?2005/08/19/800-connaissez-vous-les-micro-formats]. Tout ceci fonctionne bien de la même manière que Del.icio.us et autres Flickr. Evidemment chaque évenement est donc taggable. Par ailleurs, un utilisateur vient de lancer un "mashup" d'EVDB et de Google map. Il suffit de chercher un concert en Californie (on peut aussi chercher Paris mais avec moins de succès, à moins qu'il ne s'agisse de Paris, Texas) et la carte apparaît, constellée de points représentant les concerts en cours. Cool.
2005-08-19 21:50:37
EVMapper
http://www.mapbureau.com/evmapper/
« Les neuvièmes rencontres internationales sur la numérisation du patrimoine et l'émergence des cultures numériques se dérouleront à la Bibliothèque nationale de France et à la Cité internationale universitaire de Paris. La France accueille ainsi ICHIM pour la troisième fois, après les éditions de 1997 et 2003 au Louvre. Les problématiques abordées sont au carrefour de la technologie et de la culture. ICHIM 05 comprend notamment un COLLOQUE scientifique, des masterclasses, des déjeuners thématiques (Special Interest Groups), une SELECTION de présentation de projets institutionnels, expérimentaux, ou en recherche de partenaires, ainsi qu'un SALON professionnel . TRANSMISSIONS, exposition ouverte au public les 22 et 23 septembre, présentera des projets en cours de développement dans les meilleurs laboratoires mondiaux en art, science et technologies. 6 FINGERS, nouveau concours de films d'animation numérique, offre une chance aux jeunes talents du monde entier de se faire connaître. Enfin la NUIT DES DOCTORANTS NUMERIQUES permettra à de jeunes chercheurs de présenter leur projet de thèse dans un contexte international et stimulant.» Frais d'inscription à 410/490 euros (140 pour les étudiants)
2005-08-20 02:50:55
ICHIM05
http://ichim05.ichim.org/jahia/Jahia/lang/fr/pid/379
La mairie de San Francisco est en train de lancer un plan pour équiper la ville entière en accès Wifi gratuit : «Marking a significant change from hotspots or hot zones, where WiFi access is available in proscribed areas, San Francisco’s initiative seeks ubiquitous connectivity anywhere, anytime – an especially difficult challenge in a city renowned for its hilly topography. In addition to the seamless connectivity, the San Francisco WiFi initiative seeks to provide portable connectivity via handheld, PDA or cell phone, as well as mobile or nomadic connectivity – at an affordable cost for all residents, including low income San Franciscans.» Selon certaines sources, la mairie chercherait maintenant un partenaire privé. [Google peut-être->http://www.business2.com/b2/web/articles/0,17863,1093558,00.html] ?
2005-08-20 11:03:09
SF TechConnect
http://www.sfgov.org/site/mayor_page.asp?id=33949
Amazon, le libraire en ligne, propose depuis peu des nouvelles et de courts essais au format purement électronique, dont il est l'éditeur. Vendus 50 cents pièce, ces courtes pièces peuvent être reçues par e-mail ou téléchargées au format PDF ou HTML : «Amazon Shorts will help authors find new readers and help readers find and discover authors they'll love," said Steve Kessel, Amazon.com's vice president of Digital Media. "We hope that by making short-form literature widely and easily available, Amazon.com can help to fuel a revival of this kind of work." "Publishers have always had a hard time selling and marketing the single, short-form work -- the novella, for instance, or the novelette, or its even more diminutive cousin, the novelini -- and these days it's even harder. Amazon.com has created a new way for authors to get that kind of work out there, which is incredibly exciting," said author Daniel Wallace. "It's my hope that their Shorts program brings a renewed interest to the genre, as well as the opportunity for us to keep in touch with our readers in a really direct, fun way between books." Beginning today, customers can find Amazon Shorts from accomplished authors in a diverse array of genres and formats, including alternate chapters and scenes to well-known stories, personal memoirs about everything from food poisoning to contact lenses to potty training, one-act plays, and, of course, classic short storie»
2005-08-20 15:22:18
Amazon shorts
www.amazon.com/shorts
«Principales nouveautés : Interface et rendu — De nombreuses améliorations de compatibilité XHTML dans la fonction propre() et au niveau de l’intégration des documents dans le texte. — Meilleure « accessibilité » des tableaux. — Suivi par RSS des forums internes du site, de la messagerie personnelle, et des articles/brèves etc proposés à la publication. — Options supplémentaires pour la syndication de sites : on peut « dépublier » automatiquement les liens qui ne figurent plus dans le fichier de syndication du site syndiqué, et/ou les effacer de la base de données après une certaine période. Par ailleurs la lecture des fichiers de syndication sait lire plus d’éléments, et notamment : - les documents distants (podcasting ou enclosure, voir plus bas) ; - les dates de mise à jour - les changements de titre ou de contenu — La possibilité, dans l’espace privé, de régler de manière plus fine l’heure (et non plus seulement le jour) de publication d’un article. Gestion des documents Documents distants. Dans le bloc qui permet de télécharger un document associé à un article, il est désormais possible de mentionner l’URL d’un document « distant », qui sera alors intégré dans la base de données comme s’il s’agissait d’un document « local », mais sans que le fichier lui-même soit dans le répertoire IMG/ Ces documents distants sont référencés de la même manière que les documents locaux : on peut modifier leur titre, leur descriptif ; SPIP contrôle l’existence de ces fichiers et leur taille, et, dans le cas d’images, en ramène une copie localement pour en fabriquer automatiquement les vignettes réduites. Il est possible de rapatrier systématiquement ces documents distants, à partir d’un filtre à ajouter dans les squelettes : |copie_locale. Ce filtre procède de la manière suivante : après avoir, le cas échéant, fait une copie locale du document (ce qui peut être long, si le document fait plusieurs Mo), il retourne simplement l’adresse locale du document. Enfin, SPIP intègre cette notion de document distant dans la syndication : d’une part, il lit les flux de syndication indiquant des documents joints (podcasting), d’autre part, le squelette dist/backend.html publie au même format les documents associés à l’article et qui ne figurent pas dans le texte de l’article (autrement dit, l’équivalent ce qui apparaît, dans l’espace privé, dans la partie portfolio / documents joints de l’article). — Indexation des documents. Les titres et descriptifs de tous les documents sont indexés, et donc utilisables dans une <BOUCLE(DOCUMENTS)recherchepar pointsinverse> Quand c’est possible, SPIP essaie aussi d’indexer le contenu des documents (notamment pour les documents aux formats HTML, TXT, PDF, RTF et DOC). Cette fonctionnalité est extensible à d’autres formats en développant des scripts « extracteurs » (on peut facilement imaginer de tels scripts pour les formats MP3 ou OpenOffice). — Zip à l’upload. Lorsqu’on télécharge un document « interdit », ou en tous cas pas prévu dans la table spip_types_documents (par exemple un fichier .php), SPIP propose désormais de « zipper » le document. (Auparavant il ignorait silencieusement la demande d’upload.) Calendrier dans l’espace public SPIP 1.8.2 permet de visualiser dans l’espace public les calendriers de l’espace privé, et de construire des agendas bénéficiant des outils de mise en page de ces calendriers. Cette possibilité est fournie par un nouveau critère de boucle et trois nouveaux filtres.» ...et autres améliorations et nouveutés pour la conception des squelettes.
2005-08-21 21:39:22
Spip1.8.2
http://www.spip.net/fr_article3173.html
Depuis le début du mois d'août, le milieu des études bibliques américaines [s'agite autour de la question du copyleft et de l'open access->http://exegetitor.blogspot.com/2005/08/opening-movement.html]. De manière intéressante, [la dimension financière->http://akma.disseminary.org/archives/2005/08/prior_art.html] de la question n'est pas négligée : « Avec le soutien d'une fondation sérieuse (ou d'un bailleur de fonds privé), nous pourrions obtenir ce genre de chose dans le domaine de la théologie, un secteur particulièrement adapté pour la philanthropie éducative. Ce dont nous avons besoin est de temps pour nous consacrer à la production savante open source et d'une aide financière qui incitera les savants à offrir leur recherche.» Du côté musulman aussi, on discute aussi Propriété Intellectuelle : le piratage est-il haram ? oui, ont récemment décidé les ulemas indonésiens qui ont publié récemment une série de fatwas sur le sujet. Un juriste leur répond : «En résumé, la fatwa du MUI qui soutient la propriété intellectuelle pourrait être fallacieuse et est contre- productive pour les raisons suivantes. D'abord, la propriété intellectuelle n'est pas un concept légal islamique sui generis. En second lieu, les valeurs islamiques favorisent la promotion, le transfert et la diffusion de la connaissance, plutôt que la traiter comme une propriété. Troisièmement, il n'est pas dans les meilleurs intérêts de la société islamique de soutenir intensivement la protection de la propriété intellectuelle. Et quatrièmement, l'alignement de la loi religieuse sur la loi positive affaiblit la transcendance des valeurs religieuse, la rendant vulnérable à l'abus politique.» Amen.
2005-08-23 12:21:05
Ulema Edict on IPR Could Be Misleading
httphttp://www.cafezine.com/printtemplate.asp?id=5185
Chris Anderson, le célèbre futur auteur du futur best-seller sur le phénomène de la longue traîne (Long Tail economy), propose sur son blog une très intéressante discussion sur le niveau de piratage que les industries culturelles doivent accepter pour maximiser leurs profits. Difficile d'ignorer aujourd'hui que chercher à éradiquer totalement le piratage sur ses produits est le meilleur moyen de tuer son marché (en compliquant à l'excès l'utilisation "honnête" ; voir l'expérience des CD protégés). Mieux encore, il peut être économiquement avantageux d'être piraté : on connaît l'exemple de la suite Microsoft Office, devenue un standard de fait pour cette raison. Mais aussi, parce que laisser une partie du marché pirater son produit permet d'en augmenter le prix et de se concentrer sur la partie la plus solvable de celui-ci. Et dans ce raisonnement purement économique, ce sont les technologies de protection qui jouent le rôle de variable d'ajustement.
2005-08-23 18:37:11
"Just enough piracy"
http://longtail.typepad.com/the_long_tail/2005/08/just_enough_pir.html
« Si depuis plusieurs années avoir un site web est devenue une évidence pour la plupart des hommes et femmes politiques, l’évolution va maintenant vers le site qui donne sa place au dialogue et à l’échange - publics - avec les internautes, le blog. A gauche comme à droite, de l’ancien Premier ministre Alain Juppé, qui sur son blog se disait « abasourdi » en février 2005 des critiques au Québec à son encontre à l’eurodéputé Vert Alain Lipietz qui après l’avoir utilisé pour les élections européennes a ajouté un blog permanent à son site "classique", chez les patrons, les journalistes et bien d’autres, la souplesse d’utilisation du blog séduit. En juin, le harcèlement judiciaire de la mairie UMP de Puteaux contre le blogueur Christophe Grébert a été abondamment rapporté (lire : TIC et libertés - http://temps-reels.net/article1670.html ). Au Parti socialiste - où le pionnier fut, en février 2004, Alain Rousset pendant la campagne régionale en Aquitaine, suivi de peu par Dominique Strauss-Kahn (cf. Blog politique : Alain Rousset et Dominique Strauss-Kahn franchissent le pas) -, élus et militants ont également commencé à utiliser des blogs, qu’ils aient eu des sites auparavant ou qu’ils aient franchi le pas du Net à cette occasion. Conseiller régional d’Ile-de-France et député élu, Julien Dray a choisi de publier sur le site de Skyrock pour mieux "cibler" les jeunes - son mandat au conseil régional. Des eurodéputés comme Benoît Hamon ou Marie-Noëlle Lienemann, des députés tels que Jack Lang ou Jean-Christophe Cambadélis ont choisi le format blog ; une bande dessinée met en fiction la vie d’un porte-parole du PS, tandis qu’un anonyme raconte avec une drôlerie acide sa vie quotidienne de militant. temPS réels a adressé à une vingtaine de blogueurs socialistes un questionnaire. Dix nous ont répondu»
2005-08-24 12:33:47
Temps Réel
http://www.temps-reels.net/article1682.html
«L’information et ses technologies refaçonnent notre univers technique, social et éthique, mais ces bouleversements se font dans deux directions opposées selon que l’on choisit d’en encourager l’appropriation privée ou d’en faire des biens communs. D’un côté, l’extension des domaines couverts par les brevets (molécules pharmaceutiques, variétés végétales, séquences génétiques, logiciels) restreint, pour le profit de quelques multinationales, l’accès à des ressources essentielles telles que les médicaments, les semences et l’information. La concentration des médias - notamment audiovisuels - menace la démocratie là où elle existe. De l’autre côté, la production et le partage de l’information et des créations sont plus libres qu’avant, et la multiplication des échanges esquisse une société mondiale, diverse et solidaire. Les médias coopératifs, les logiciels libres, les publications scientifiques ouvertes et les autres biens communs réinventent la démocratie. Comment les acteurs de ces nouveaux domaines peuvent-ils faire cause commune par-delà ce qui sépare les logiciels des ressources biologiques, ou l’art des sciences ? Comment l’information peut-elle servir les biens publics sociaux de la santé, de l’éducation ou de la solidarité au lieu de contribuer à les détruire ? Quelles alliances peut-on envisager entre les sociétés et les États, gardiens irremplaçables des biens communs épuisables que sont l’eau ou l’air ? Dans cet ouvrage, Philippe Aigrain analyse les causes et les origines d’une situation paradoxale et les tensions qu’elle suscite. Il propose une politique qui remette les êtres humains aux commandes de ces transformations.»
2005-08-24 13:07:08
Cause commune, l'information en bien commun et propriété
http://www.causecommune.org/download/
C'est bien connu, les enseignants n'aiment pas que leurs étudiants fassent autre chose en classe que les écouter. Bavarder avec d'autres étudiants, surfer sur le web, relever son courrier est le meillleur moyen de se faire réprimander. Certains professeurs prennent le contre-pied de leurs collègues en expérimentant des pratiques d'enseignement qui encouragent au contraire ces pratiques. On appelle cela du [backchannel->http://en.wikipedia.org/wiki/Backchannel]. Allant de la prise de note collaborative jusqu'au chat public en classe (horreur !), le backchannel peut constituer un moyen, semble-t-il, d'enrichir considérablement le déroulement d'un cours. L'University of Southern California's Interactive Media Division a mené une expérience intensive au début de l'année 2005 et a rendu public les réactions, partagées, des participants. If:book en fait la synthèse.
2005-08-25 11:29:20
Continuous computing: backchannels as impromptu textbooks
http://www.futureofthebook.org/blog/archives/2005/08/continuous_comp.html
Des boîtes noires placées par les autorités de police dans les locaux des fournisseurs d'accès à Internet, activables en dehors de tout contrôle de la part des autorités judiciaires, cela vous rappelle quelque chose ? Carnivore, bien sûr, ce fameux programme mis en place par le FBI aux Etats-Unis, organisant un gigantesque réseau de surveillance et d'écoute systématique à l'échelon national. Il semble bien que le gouvernement fédéral canadien prépare pour cette année quelque chose de semblable, qui fait pour le moins tiquer Michael Geist, un professeur de droit de l'Université d'Ottawa : «Un des aspects les plus préoccupants de cette loi est une série de nouveaux pouvoirs qui ne sont accompagnés d'aucun contrôle de la part de l'autorité judiciaire. Les forces de l'ordre, y compris la police, les agents de la CSIS et même les autorités du Bureau de la Concurrence auront le droit d'obtenir des informations sur un abonné sur simple demande, sans mandat. En fait, il y a des propositions selon lequelles les fournisseurs d'accès devraient répondre dans certaines situations dans les 30 minutes sur simple appel téléphonique». (trad. hn) Effrayant.
2005-08-25 16:09:28
The Lawful Access Questions
http://www.michaelgeist.ca/index.php?option=com_content&task=view&id=936&Itemid=70
Le 11 août dernier, le gouvernement américain a stoppé brutalement le processus de création du domaine .xxx qui était sur le point d'être finalisé par l'ICANN. Ce domaine, réservé aux sites pornographiques, avait en effet fait l'objet d'une intense campagne de lobbying de la part de la droite religieuse, au point de décider le Secrétariat d'Etat au Commerce à intervenir. Au même moment, on apprenait que plusieurs gouvernements étaient sur le point de faire la même démarche. Aujourd'hui, les experts de l'Internet Governance Project viennent de publier une pétition de protestation. Emmenés en particulier par Milton Mueller qui a publié récemment [un billet cinglant->http://www.icannwatch.org/articles/05/08/16/0327234.shtml] sur ICANN Watch, ces universitaires s'élèvent contre l'intervention directe des Etats dans la gestion du système de nom de domaine (DNS). C'est précisément pour éviter ce type de prise en otage -d'un système technique international par des considérations politiciennes domestiques -, que l'ICANN a originellement été créée, argumentent-ils. Selon eux, les récents événements enlèvent encore un peu plus de crédibilité à cet organisme qui avait commencé à en perdre depuis 2002, année au cours de laquelle le "peuple des internautes" fut définitivement écarté de toute représentation en son sein.
2005-08-26 14:39:14
IGP Issues Statement Opposing Political Intervention in the Internet’s Core Technical Functions
http://www.internetgovernance.org/
Megageek 2 y a passé du temps, mais il a fini par installer Ubuntu sur le Dell Precision 380. Problèmes avec l'USB, le lecteur/graveur de DVD et même avec le carte son. N'en jetez plus! Ne me demandez pas comment il a fait. Je n'en sais rien. Peut-être l'écrira-t-il, si je le lui demande gentiment? Nul ne le sait. Ensuite, j'ai eu des problèmes avec Openoffice.org. Figurez-vous que tous les menus s'affichaient en remplaçant les accents par des carrés. Après avoir cherché, on a fini par trouver qu'il lui fallait absolument les [polices Microsoft->http://packages.debian.org/unstable/x11/msttcorefonts] dont j'ai déjà parlé. Que j'ai récupérées. Puis installées en ligne de commande en tant que root. Brrr. J'ai aussi eu du mal à avoir des sites avec du flash. L'installation automatique proposée par Firefox échouait. L'installation du plugin pour Mozilla via Synaptice freezait tous les sites avec du flash... Il a fallu utiliser [l'installateur proposé par Flash->http://www.macromedia.com/shockwave/download/alternates/]. Et maintenant, ça marche. M'enfin, je ne suis pas ravi.
2005-08-26 14:44:04
http://
«UN COLLOQUE POUR RENDRE ACCESSIBLE À TOUS, LE PATRIMOINE ÉCRIT ET GRAPHIQUE LES 22 ET 23 SEPTEMBRE A RENNES La COBB veut contribuer à numériser les documents des archives, bibliothèques et musées. Objectifs : sauvegarder le patrimoine, le rendre accessible à tous et renforcer la présence culturelle européenne. C'est à un grand chantier que veut s'attaquer la COBB (Agence de coopération des bibliothèques et centres de documentation en Bretagne) en incitant les archives, bibliothèques et musées à numériser leurs documents. Cette oeuvre de sauvegarde du patrimoine permettra aussi son accès gratuit à tous via Internet. Un double enjeu auquel il faut ajouter celui de la défense de la diversité culturelle européenne menacée par une domination de la pensée anglo-saxonne. Un colloque aura lieu à Rennes les 22 et 23 septembre pour sensibiliser élus et professionnels. Des milliers de livres, de périodiques, d’estampes et de gravures,… attendent d’être consultés. Pour y accéder, il faut se rendre sur place… ce qui exclut donc de la consultation de nombreuses personnes, coupées des sources de leur identité culturelle, parce qu'elles sont trop éloignées ou éprouvent des difficultés pour se déplacer. Mais cette valorisation des collections a un autre objectif : la conservation des ouvrages les plus anciens. Les spécialistes font des miracles… mais hélas, la nature du papier, de l'encre, les polluants atmosphériques, les nombreuses manipulations etc. font que de nombreux ouvrages ne sont plus consultables et risquent même de tomber en poussière. "Le syndrome du livre cassant" est une menace pour l'ensemble des archives, bibliothèques et des musées et son traitement extrêmement coûteux. Des expérimentations concluantes C'est tout ce patrimoine que la COBB veut contribuer à numériser. L'Agence a déjà lancé plusieurs actions en faveur du livre. Notamment des sites Internet dédiés, hermine.org (financé via le contrat de plan Etat-Région 2000-2006) et britalis.org (interconnexion des catalogues régionaux). Par ailleurs, une convention a été signée avec la BnF (Bibliothèque nationale de France) pour numériser les publications des sociétés savantes de Bretagne. Parallèlement, des expérimentations de numérisation et d'océrisation[[La numérisation d'un document permet d'obtenir un fichier image de celui-ci. L'opération d'océrisation permet de collecter tous les mots contenus dans le fichier image pour permettre par la suite à l'usager de rechercher sur tous les mots présents dans le document.]] des Cahiers de l'Iroise (1954-1999) et des Bulletins et mémoires de la Société polymathique du Morbihan (1920-1997) ont été conduites avec succès. Reste à trouver les budgets pour poursuivre la tâche. Le danger culturel Depuis décembre 2004, il y a un autre motif à l'accélération du processus. C'est à cette date, en effet, que les créateurs de Google ont annoncé leur volonté de numériser et diffuser sur Internet, d'ici six ans, 15 millions d'ouvrages provenant des fonds des cinq plus grandes bibliothèques anglo-saxonnes[[Stanford, Michigan, Harvard avec la New-York Public Library et la bibliothèque britannique d'Oxford]] avec lesquelles ils viennent de signer des accords. Autant dire que cette « invasion » sur Internet de 4,5 milliards de pages pourrait ne laisser guère de place aux autres cultures et qu'il y a urgence à réagir… C'est ce que sont d'ailleurs en train de faire les conservateurs des bibliothèques européennes, notamment, après la vive réaction de Jean-Noël Jeanneney, président de la BnF dans Le Monde (24 janvier 2005) et dans son ouvrage « Quand Google défie l'Europe / Plaidoyer pour un sursaut » (Ed. Mille et une nuits). Le colloque national "Numériser et valoriser en région le patrimoine écrit et graphique" organisé par la COBB et la FFCBmld aura lieu à Rennes à l’École nationale de la santé publique (ENSP) les 22 et 23 septembre 2005. La journée du 23 septembre s’adressera plus spécialement aux élus. La COBB, Agence de coopération des bibliothèques et centres de documentation en Bretagne, est une association régionale qui a pour mission de favoriser l'accès au livre et à la documentation. Elle se développe autour de trois axes prioritaires : - la valorisation du patrimoine et des ressources documentaires - l'optimisation des activités des établissements - la connaissance des publics La FFCBmld, Fédération française pour la coopération des bibliothèques, des métiers du livre et de la documentation (www.ffcb.org) a pour mission de proposer et de conduire des actions communes entre les différents acteurs territoriaux autour de la sauvegarde du patrimoine écrit, du développement de la lecture, de la promotion de la vie littéraire, et la mise en place de réseaux documentaires.»
2005-08-28 18:43:02
Programme en ligne
http://www.britalis.org/britalis/actualites/documents/colloque_programme.pdf
Les univers virtuels ne cessent de prendre de la consistance. Ce week-end, l'un d'eux, Second Life, en a encore pris un peu plus, en organisant [une vente de charité->http://terranova.blogs.com/terra_nova/2005/08/acs_virtual_rel.html#more] au profit d'une association de lutte contre le cancer. Aux dernières nouvelles en provenance de l'excellentissime Terra Nova, l'équivalent de 2000$ auraient été levés par ce biais. Payés en Linden dollars, ils peuvent être échangés contre des dollars US sur la place de marché virtuelle [Gaming Open Market->http://gamingopenmarket.com/]. Mais qu'est-ce que Second life ? Un univers virtuel certainement. Mais quel type d'univers virtuel ? C'est la question que l'on ne manquera de se poser à la lecture d'un autre article publié sur Terra Nova. La théorie des quatre mondes tente d'établir une typologie des univers virtuels basée sur la relation que les joueurs établissent entre leur identité virtuelle et leur identité "géographique", ainsi que sur le degré de liberté qu'ils sont prêts à abandonner pour participer.
2005-08-29 10:49:39
The four worlds theory
http://terranova.blogs.com/terra_nova/2005/08/the_four_worlds.html#more
Au milieu de l'été, les UK Research Founding Councils ont proposé que les recherches financées sur leurs fonds fassent l'objet d'une auto-archivage systématique des publications scientifiques auxquelles elles donnent lieu, au sein d'archives ouvertes librement accessibles sur le web. Cette proposition a déclenché une vive réaction de l'Association of Learned and Professional Society Publishers, sous la forme d'une lettre ouverte, envoyé au président des RCUK. La lettre de l'ALPSP a elle-même déclenché une réponse venant d'un certain nombre de savants, parmi lesquels Tim Berners-Lee, Stevan Harnad, Peter Suber, Charles Oppenheim, parmi d'autres. Au delà de la polémique, ce dialogue par lettres ouvertes est extrêmement intéressant à suivre, car il montre comment les nouvelles conditions techniques de diffusion de l'information scientifique par Internet remettent en cause, dans ce secteur aussi, les modèles économiques existants. A travers ce dialogue, c'est très clairement une redéfinition des modèles économiques de circulation de l'information sicentifique qui est en train de se jouer. A suivre sur le (nouveau ?) blog de Stevan Harnad, "archivangelist"...
2005-08-29 12:13:58
Journal Publishing and Author Self-Archiving: Peaceful Co-Existence and Fruitful Collaboration
http://openaccess.eprints.org/index.php?/archives/20-Journal-Publishing-and-Author-Self-Archiving-Peaceful-Co-Existence-and-Fruitful-Collaboration.html
Dans la course des moteurs de recherche au service universel, Yahoo! n'entend pas se laisser distancer. L'autre ogre californien vient en effet de lancer un [service de recherche sur les mails->http://news.com.com/Yahoo+unveils+new+e-mail+search+functions/2110-1032_3-5844426.html?part=rss&tag=5844426&subj=news] au sein de son système de courrier électronique. Par ailleurs, Yahoo!, qui a récemment acheté le service de partage de photos en ligne Flickr, a récemment annoncé que ce service allait être fusionné avec le compte global MyYahoo!. Fatale erreur, semble-t-il ; car des fans de Flickr protestent fermement contre cette décision, qu'ils interprètent comme une scandaleuse annexion. La société semble avoir oublié que Flickr n'est pas seulement un service, mais aussi une communauté. Pas facile de faire vivre un écosystème.
2005-08-30 11:41:13
Flick off
http://www.flickr.com/groups/flick_off/
Maison des rendez-vous électroniques De 15h à 17h Quels constats pour l'industrie musicale, quelles sont les perspectives de mise en place d'un nouveau modèle économique ? L'augmentation considérable d'échanges de fichiers audios sur les réseaux Peer to Peer depuis plusieurs années ne cesse d'alimenter le débat sur la question de la diffusion d'oeuvres musicales sur internet. Quels sont les enjeux d'une telle bataille législative, économique et sociale ? Que devons-nous penser et surtout comment devons nous agir face à de telles divergences ? Avec (sous réserve): J. Vincent (Adami), G. Champeau (ratiatum.com), S. Marcovich (AFA), J. Lofaro (Weed France), M. Dulong de Rosnay (Creative Commons - Cersa Cnrs), A. Martin (auteur du livre The entertainment industry is cracked, here is the patch!), A. Moreau (Copyleft Attitude / Licence Art Libre), C. Hagelsteen (Tigersushi), JB Souffron (Juriste), T. Krim (Modérateur)... Esplanade du port de l'arsenal, place de la Bastille 75012 Paris - M° Bastille (via [Ratiatum->http://www.ratiatum.com/])
2005-08-30 11:49:24
Technopol
hhttp://technopol.net/index.php?a=agenda&date=20050908
Lorsqu'un logiciel est disponible en téléchargement au format .deb (packages debian), il suffit de le télécharger, puis, en ligne de commande (eh oui...), taper : dpkg -i nom_du_package.deb Ca marche aussi bien que Synaptic et ça permet d'installer des choses plus exotiques. Je viens de profiter de l'offre liée au dixième anniversaire d'Opéra, qui propose actuellement, pendant 24 heures, une licence gratuite, sans publicité. Testé et approuvé. Comme ça, j'ai trois navigateurs sur Linux : Firefox, Konqueror et Opera.
2005-08-30 13:49:27
http://
L'organisation d'un prochain congrès est peut-être l'occasion de le savoir. La section virtuelle du parti, Temps Nouveaux, publie sur son site «Six contributions thématiques technotropes pour un Congrès», sorte de sommaire de textes programmatiques publiés par les uns et les autres sur le sujet. On trouve de tout dans ces contributions : du pragmatique, de l'informé, de l'illuminé. Alors que Jack Lang semble atteint de [blogomanie->http://www.jacklang.net/rubriques/article3.php3?id_article=776] et que Michel Rocard se fait le [hérault des anti-brevets->http://www.parti-socialiste.fr/tic/spip_tic/article.php3?id_article=236] au Parlement Européen, pendant que [Christian Paul fustige->http://www.homo-numericus.net/breve581.html?var_recherche=christian+paul] (vainement semble-t-il) le gouvernement pour son projet de transposition de la directive européenne sur le droit d'auteur, le parti socialiste se positionne très certainement comme un des partis les plus branchés du paysage politique.
2005-08-30 15:02:49
Temps Réels
http://www.temps-reels.net/article1683.html
Un réseau mondial de télévision indépendant, ni subventionné par un gouvernement, ni financé par une entreprise commerciale, n'interrompant pas ses programmes par des écrans publicitaires, proposant des nouvelles différentes et des reportages en profondeur, qui n'en a rêvé ? Un certain nombre de professionnels du journalisme et du reportage américains, canadiens, britanniques et sud-américains sont en train de tenter de le réaliser. Le projet s'appelle Independant World Television, et a pour ambition de reposer financièrement sur le soutien des millions de donateurs-téléspectateurs... A l'heure actuelle, les porteurs du projet en sont à l'organisation et à la levée de fonds via un site Internet. Avec un certain succès semble-t-il.
2005-08-31 11:16:36
Independant World Television
http://www.iwtnews.com/
Le New York Times publie aujourd'hui un article sur les conséquences de l'ouragan Katrina. On y apprend en particulier que les médias locaux, presse imprimée et télévision en particulier se sont rapidement tournés vers Internet pour continuer à diffuser des nouvelles, alors que leurs imprimeries et relais de diffusions sont inondés. Dan Gillmor de son côté, remarque que les habitants de la Nouvelle Orléans [utilisent intensivement les forums en ligne->http://bayosphere.com/blog/dan_gillmor/20050830/using_newspaper_web_forums_in_crisis] pour se passer mutuellement des nouvelles à un niveau très local. C'est un seul groupe de communication que l'on retrouve derrière ces pratiques : Nola.com, un réseau local affilié à Internet Advance qui apparaît aujourd'hui comme une véritable bouée de secours pour continuer à transmettre de l'information.
2005-08-31 15:02:11
Flooding Stops Presses and Broadcasts, So Journalists Turn to the Web
http://www.nytimes.com/2005/08/31/national/nationalspecial/31media.html?ex=1283140800&en=63cda5106eff6af4&ei=5088&partner=rssnyt&emc=rss
La revue Terrain, une des meilleures revues d'ethnologie française vient de mettre en ligne l'intégralité de ses articles jusqu'au numéro 37, publié en septembre 2001, sur le portail de revues scientifiques en ligne [Revues.org->http://www.revues.org]. On y lira avec plaisir de véritables petits bijoux, tels [ce numéro consacré au regard->http://terrain.revues.org/sommaire827.html], mais aussi [des numéros épuisés qui redeviennent facilement accessibles en dehors des->http://terrain.revues.org/sommaire39.html] bibliothèques académiques par le biais d'Internet. Comme beaucoup de revues scientifiques désormais, Terrain adopte le principe de la barrière mobile pour gérer l'accès à ses articles en texte intégral ; moyen efficace, semble-t-il, pour une publication académique, de rendre au public les savoirs dont il a financé la production, tout en préservant l'équilibre économique de la publication. Mention spéciale aussi pour la maquette, particulièrement inventive dans son souci d'articuler la publication web avec le support papier. Et quand on sait que tout cela est sous tutelle du Ministère de la Culture, on ne peut qu'en être tout esbaubi.
2005-08-31 16:19:28
Terrain
http://terrain.revues.org/index.html
En vrac, quelques éléments pour faire le point. KDE est plutôt pas mal, mais ça reste une affaire de goût. On m'a laissé un commentaire indiquant que KDE ressemblait à Windows et Gnome à la liberté, mais je n'en suis pas sûr. Pourtant, du Workbench de l'Amiga au DOS, en passant par le MO6 de Thomson, au CPC 6128 et au C64, au Mac OS 7 puis 8, puis 9, puis X, j'ai croisé pas mal d'OS. Sur KDE, il n'y a pas de logiciel quand je connecte mon Canon Powershot A70, dirait-on. Mais ce n'est pas grave. Ca fonctionne toujours aussi bien quand je récupère mes images avec le logiciel idoine (j'ai oublié son nom et là j'écris à partir d'un Cyberfacé, donc sur un Windows vérolé jusqu'à l'os...). Pour le reste, à part quelque freeze un peu énervants, et un souci quand j'ai déplacé de la gauche à la droite mon deuxième écran, tout va bien. Bizarrement ce grgrgrgr de panneau de configuration oubliait les réglages que je faisais pour déplacer la position de l'écran. Megageek2 m'a montré comment bidouiller ça en mode console, en configurant X. J'ai déjà oublié, mais il ne faudrait pas. J'ai un grand sentiment de sécurité et de liberté, en général. Les logiciels sont rapides à télécharger, installer et tester. Tout semble très robuste et durable. J'ai l'impression d'investir. Je ne comprends pas, par contre, pourquoi Konqueror ne se lance pas quand je demande à Firefox de m'afficher le dossier dans lequel il a télécharger un fichier. J'ai tenté d'installer OpenOffice 2.0 RC2, mais je n'ai pas trouvé d'information de version dans Synaptic. J'ai le sentiment qu'il s'agit d'une version plus ancienne. Or, c'est bien cette version que je veux tester. En ce qui concerne la version proposée en téléchargement par OOo, je crois me souvenir qu'elle est au format RPM. Du coup, je n'ai rien installé, c'est dommage.
2005-09-01 20:05:09
http://
<doc81|left>Je suis parvenu à installer Skype sans difficulté. Mais ça ne marche pas. Je parviens à me connecter, à faire sonner le téléphone, mais dès que ça décroche, psssscccchhhhiiiit. Erreur d'entrées/sorties. Pour sûr, le micro intégré au casque doit poser un problème de pilote. Ou le pilote pose un problème de micro ? Un microproblème de pilote, ou un micropilote ayant un souci avec son problème. Bref, que du plaisir.
2005-09-02 00:00:00
http://
«La FramaKey est une compilation de Logiciels Libres prêts à l’emploi sur clef USB qui facilite la vie des utilisateurs nomades. Son objectif est de vous proposer les meilleurs des Logiciels Libres, préinstallés et prêts à être utilisés directement depuis votre clef USB. Par conséquent, vous n’avez rien à installer, et l’utilisation des logiciels se fait de façon sécurisée et sans laisser d’informations personnelles sur les machines sur lesquelles vous utilisez votre FramaKey. Utilisation L’intérêt principal étant que vous pouvez alors transporter partout avec vous non seulement vos documents et vos fichiers, mais aussi les logiciels que vous connaissez, maîtrisez, et qui vous font vous sentir “chez vous”. Et cela, sans avoir à installer quoi que ce soit sur la machine qui utilisera la FramaKey. Exemples Ainsi, avec la FramaKey, vous pouvez : - emmener votre navigateur internet avec vous, configuré à votre convenance (thème, extensions, favoris, etc.), pour une navigation sécurisée lors de vos déplacements (FireFox), - gérer votre courrier depuis une autre machine, sans avoir à configurer quoi que soit sur cette dernière (ThunderBird) - travailler sur vos documents, traitement de texte, tableur, présentations, avec la suite bureautique phare du monde libre (OpenOffice.org), - lire la quasi-totalité des fichiers multimédia, audio et video, sur d’autres machines que la votre, sans avoir à installer un quelconque lecteur (VideoLAN), - écouter vos fichiers musicaux préférés au format mp3 ou ogg, à l’aide d’un lecteur simple, efficace et particulièrement rapide et performant (CoolPlayer), - éditer rapidement et efficacement des fichiers de toutes tailles à l’aide d’un éditeur disposant de fonctionnalités enrichies (SciTe). Des applications stables, sûres et discrètes Les applications installées sur votre FramaKey sont réputées stables, sûres… et discrètes. Ainsi : - la plupart des logiciels installés sur votre clef sont réputés plus stables que certains logiciels propriétaires couteux; - les logiciels exécutés depuis votre clef, ne perturberont pas le fonctionnement de l’ordinateur sur lequel est branché la clef; - le navigateur web et le client mail protègeront votre intimité et l’ordinateur hôte en laissant un minimum de traces et en vous protégeant du spam (dans le client mail) ou des virus (Firefox n’étant pas sensible aux activeX malicieux). Une clef multifonction La FramaKey est un peu le “couteau Suisse” de l’utilisateur nomade. Elle vous permet d’emmener partout avec vous une trousse à outils de logiciels que vous connaissez et qui vous permettront d’être efficace et performant immédiatement sur d’autres ordinateurs que le votre. Une clef libre Mais le meilleur atout de votre FramaKey est qu’elle est totalement libre ! En effet, l’intégralité de son contenu et de ses logiciels sont libres, c’est à dire que vous avez : 1. la liberté d’exécuter les logiciels, et ce pour n’importe quel usage; 2. la liberté de modifier les logiciels pour les adapter à vos besoins ; 3. la liberté de redistribuer des copies; 4. la liberté de distribuer des versions modifiées afin que la communauté du logiciel libre puisse profiter de vos améliorations. Pour en savoir plus sur les libertés (et les obligations possibles, comme par exemple celle de citer l’auteur) liées à l’utilisation de LogicielsLibres, nous vous invitons à prendre connaissance des licences propres à chaque logiciel. Réalisation La FramaKey est une réalisation de bénévoles du site [->http://www.framasoft.net/]. »
2005-09-04 13:50:02
Framakey
http://www.framakey.org/
C'est ce qu'on peut lire dans un récent article d'Internetweek qui a interrogé plusieurs spécialistes de droit de la propriété intellectuelle américains. Un consensus semble se dégager selon lequel en cas de procès intenté par les éditeurs contre le moteur de recherche, celui-ci a de bonnes chances de voir son droit à scanner les ouvrages sous droit d'auteur reconnu. Plusieurs arguments viennent à l'appui de cette thèse : tout d'abord, les juristes s'accordent à dire que la procédure d'opt out définie par Google, selon laquelle il faut manifester son opposition pour voir ses ouvrages exclus du programme (et non au contraire manifester son accord pour les voir inclus), constitue un effort qui pourra être jugé suffisant. Par ailleurs, rien n'indique que le service mis en place par Google, à partir du moment où il ne permet pas d'accéder à plus qu'un court contexte autour du mot recherché soit néfaste à l'activité des éditeurs. Enfin, il est clair que, même si l'activité de Google ne peut être considérée comme non lucrative, cette entreprise ne tire pas profit de la vente de livres (ce qui empiéterait sur le marché des éditeurs), mais de l'accès à l'information, ce qui est tout différent. Au final, un juriste résume la situation : refuser le fair use à Google sera difficile car il s'agit d'un moteur de recherche. Or, un moteur de recherche a besoin de copier les contenus pour les indexer. Cela dit, la situation ne semble pas suffisamment claire pour empêcher les éditeurs de tenter leurs chances. C'est en tout cas ce que sous-entend l'article d'Internetweek. Rassurons-nous : en France, nous n'avons pas de fair use et le droit d'auteur, prochainement redéfini pour les usages numériques, ne souffrira que des exceptions insignifiantes. Dieu merci, chez nous, les savoirs sont sous bonne garde.
2005-09-04 18:28:32
Courts Unlikely To Stop Google Book Copying
http://www.internetweek.com/170700329
«Colloque de Réseau.raison Les 29 et 30 septembre à l'Université Laval à Québec au Théâtre de Poche (pavillon Desjardins) Programme des conférences Jeudi 29 septembre 14h Introduction 14h30 C. Vandendorpe, Pensée et technologie 15h30 J. Daignault & R. Fountain, Les outils collaboratifs du logiciel libre, une libre collaboration? 16h30 Pause, café 17h R. Clot-Goudard & M. Longeart, Hypertexte et initiation à la réflexion philosophique : l'expérience du LOG 18h P. Lévy, Un métalangage pour l’économie de l’information Vendredi 30 septembre 14h30 A. Staquet, Internet et la formation de réseaux libertins 15h30 G. Boss, La dimension de la profondeur dans l’écriture sur ordinateur 16h30 Pause, café 17h S. Sinclair, Poétique de la visualisation textuelle Le colloque sera suivi d'une table ronde de la Société Philosophique de Québec sur Internet et l'enjeu de la gratuité dans l'économie du savoir Avec les interventions de H. Fischer, P. Lévy et C. Vandendorpe Entrée libre »
2005-09-04 18:53:42
Programme
http://www.fp.ulaval.ca/rr/colloque2005.htm
«Placé sous le haut patronage du Président de la République et à l’initiative d’André Santini, député-maire de la ville d’Issy-les-Moulineaux, le 6ème Forum Mondial de la Démocratie Electronique aura comme invité d’honneur le Brésil, à l’occasion de « l’année du Brésil en France », pays dont les efforts en terme d’e-démocratie et d’e-administration méritent d’être soulignés. 8 tables rondes et 5 sessions plénières permettront d’aborder tous les sujets qui contribuent au développement de la société de l’information et de mesurer l’impact de l’Internet, du téléphone mobile ou des cartes à puce sur les pratiques démocratiques et administratives. Plusieurs dizaines d’intervenants internationaux et français viendront présenter l’état d’avancement des projets de développement dans leur pays notamment dans le domaine de l’administration électronique, devenue une priorité pour la majorité des pays, et débattront de leurs conséquences sur l’amélioration des services apportés aux citoyens. Parmi les sujets traités, la mise en œuvre des cartes d’identité électroniques, la lutte contre la fracture numérique, ou la défense de la diversité linguistique sur les réseaux, seront au cœur des discussions. Le Forum Mondial de la Démocratie Electronique sera également l’occasion d’aborder les bouleversements qui s’opèrent dans les relations entre les médias, les citoyens et les responsables politiques confrontés à l’explosion des blogs et du « journalisme citoyen ». Des bouleversements qui ont déjà modifié le paysage politique de la Corée du Sud et qui constituent un défi important pour les démocraties du 21ème siècle, appelées à se prononcer sur la croissance de l’e-participation et l’e-voting dans le monde. Invité d’honneur, le Brésil, premier pays latino-américain en termes de développement de la société numérique, permettra au public présent de confronter les expériences des deux côtés de l’Atlantique sur ces sujets. L’édition 2005 du Forum Mondial de l’e-démocratie sera également un rendez-vous préparatoire au 2ème Sommet Mondial des Villes et des Autorités Locales sur la société de l’information, qui se déroulera du 9 au 11 novembre 2005 à Bilbao (Espagne), une semaine avant le Sommet des Chefs d’Etat et de Gouvernement de Tunis sur la société de l’information. A propos du Forum Mondial iDémocratie : Le Forum Mondial eDémocratie est devenu, en cinq ans, un véritable carrefour d’échanges internationaux sur l’impact des Technologies de l’Information et de la Communication sur la vie démocratique. Alors que les T.I.C. pénètrent de plus en plus largement la sphère publique, les gouvernements en France, en Europe et dans le monde, ont engagé depuis plusieurs années une réflexion sur l’utilisation de ces outils pour rénover les pratiques démocratiques et transformer les relations entre citoyens et services publics. Près de 1.500 congressistes, représentant 39 nationalités, étaient venus assister aux débats du 5ème Forum en septembre dernier.»
2005-09-06 08:16:57
Programme en ligne
http://www.forum-edemo.org/rubrique.php3?id_rubrique=3
Le 13 juillet dernier, le député Alain Suguenau déposait une proposition de loi «visant à légaliser les échanges de fichiers protégés sur des services de communication en ligne par des particuliers à des fins non commerciales et à la rémunération des ayants-droit», très discutée pour l'exposé des motifs sur lequel elle s'appuie, parce qu'elle repose sur une double taxation du débit montant et du débit descendant (ce qui semble aller au delà du principe de la licence légale), et enfin parce que cette proposition est en contradiction avec le projet de loi en cours sur l'adaptation du droit d'auteur dans la société de l'information (DADVSI). Aujourd'hui, la ligue Odebi prend position contre cette proposition de loi, qu'elle condamne dans les termes les plus virulents : «La Ligue apprécie que dans l'exposé des motifs de sa proposition de loi du 13 juillet dernier le député Suguenot condamne la propagande des industries culturelles que les ministres Fillon et Donnedieu de Vabres ont voulu diffuser dans les établissements scolaires à travers un guide pseudo-pédagogique "net attitude" tellement scandaleux qu'il pourrit aujourd'hui secrètement dans des containers. La Ligue demande au député Suguenot qu'il intervienne auprès de Gilles de Robien afin que ce "guide" soit définitivement détruit et que des mesures soient prises pour interdire la propagande hollywoodienne des lobbies au sein des établissements scolaires. Le député Suguenot propose habilement deux mesures: 1) la taxation générale et obligatoire de l'accès internet au profit des industries dites culturelles en fonction du débit : mesure qui a des chances de passer. 2) une taxe optionnelle permettant la mise à disposition de contenus : mesure dont tout le monde sait qu'elle ne passera pas. La Ligue Odebi s'oppose avec la plus grande fermeté à la taxation générale des débits : les industries culturelles ne sont pas propriétaires de l'internet. Rien ne justifie de légaliser un tel racket, au demeurant générateur d'exclusion numérique, voire d'un internet à trois vitesses : - haut-débit pour les riches, bas débit pour les moins riches, ... et pas d'internet pour les pauvres. Par ailleurs, contrairement au bourrage de crâne sur le thème du "tout gratuit" ou de prétendus "préjudices", il se trouve que les français paient déjà une redevance pour copie privée établie par une commission opaque, douteuse, et illégitime qui ne cesse d'étendre les taxes au maximum de types de supports sans se gêner pour les empiler les unes sur les autres, et avec l'aide contre nature de soi-disant défenseurs des consommateurs qui demandent l'extension de cette taxe aux disques durs d'ordinateurs sans assumer publiquement ce type de lobbying. Enfin vouloir étendre la taxe copie privée au moment même où la France devrait transposer une directive européenne (eucd) légalisant des dispositifs anti-copie (et en pratique anti-usage) est un véritable affront à l'intelligence des français : leur demander de payer pour un droit qu'on leur interdirait reviendrait à légaliser un racket mafieux. L'honnêteté la plus élémentaire pour les rédacteurs de cette proposition de loi, parfaitement conscients de l'incompatibilité de ladite proposition avec les dispositifs anti- copie, aurait été de demander explicitement l'interdiction de ces dispositifs : on ne peut avoir le beurre et l'argent du beurre."»
2005-09-06 08:28:14
Communiqué de la ligue
http://www.odebi.org/new/theme/accueil.php?a=270&session=&var_page=1
A lire [sur le blog de Martin Lessard->http://zeroseconde.blogspot.com/2005/09/charte-du-knowledge-management.html], une excellente analyse de la charte du knowledge management récemment concoctée par plusieurs spécialistes du domaine. Si un certain nombre de points sont incontestables (respect des législations en vigueur, notamment sur le droit de propriété intellectuelle, efficacité technique du système), d'autres font un peu frémir : «3.2.1 Traçabilité des activités Chaque utilisateur employé de l'entreprise est tenu de conserver une trace numérique (écrits, enregistrements audio ou vidéo) de l’ensemble de ses activités professionnelles au sein de l’entreprise au moyen des ressources prévues à cet effet par l’entreprise. Cette trace numérique doit être accessible par le système de bases de connaissances de l’entreprise. Toute innovation développée dans le cadre de l’activité professionnelle doit obligatoirement donner lieu à une publication accessible par le système de bases de connaissances. 3.2.2 Identification du contenu Tout contenu sous forme digitale (écrits, enregistrements audio ou vidéo) diffusé dans le système de bases de connaissances doit être assorti de métadonnées qui précisent notamment son réalisateur, son origine et les droits d’usage. Le réalisateur est responsable du contenu de ces métadonnées et accepte de les renseigner au mieux. 3.2.3 Coopération Le réalisateur du contenu accessible par le système de bases de connaissances de l’entreprise peut être amené à répondre aux questions des utilisateurs portant sur ce contenu. Dans ce cadre, il est tenu d’apporter toutes les précisions requises.» Le cerveau du Major Kusanagi et les données qu'il contient lui appartiennent-ils ? Et son ghost ? existe-t-il ou n'est-il qu'une illusion générée par le «système de bases de connaissances» ?
2005-09-07 09:09:08
La charte du knowledge management
http://perso.wanadoo.fr/michel.grundstein/References/AFAI/2005%2005%2009%20CHARTE%20GESTION%20DES%20CONNAISSANCE%20VERSION%20DEFINITIVE.pdf
Un grand nombre de discours sur la «fracture numérique», africaine en particulier, insistent sur les problèmes d'infrastructure et d'équipement des pays concernés. La question de l'appropriation des technologies par les africains n'en doit pas moins être délaissée. Et cette appropriation passe par l'utilisation des langues vernaculaires dans les systèmes informatiques. C'est pour cela qu'un projet est en train d'être lancé, d'une part sur la codification unicode d'un certain nombre de langues africaines, et d'autre part sur l'internationalisation des noms de domaine pour ces mêmes langues. Démarré à l'initiative de Pierre Ouedraogo, Pierre Dandjinou et Mouhamet Diop, le projet Unicode & IDN in Africa se réunit ce jour-même à Dakar.
2005-09-07 09:43:53
Cyberespace et langues africaines : Et si, on parlait ... africain sur le Net (Le Soleil)
http://www.lesoleil.sn/article.php3?id_article=2882
Le Web 2.0 on en parle, on en parle, mais qu'est-ce que c'est finalement ? Pas difficile de se rendre compte que chacun en a une définition particulière. Une flopée d'articles viennent tenter de cerner les contours de ce qu'on considère unanimement comme la prochaine révolution (déjà en cours) d'Internet. Côté francophone, il faut lire un billet de Fred Cavazza qui tente de donner [une première définition->http://www.fredcavazza.net/index.php?2005/08/24/808-web-20-une-premiere-definition] d'une notion aux contours mal définis. Côté anglophone, Richard MacManus, auteur d'un blog déjà connu sur le [Read/Write Web->http://www.readwriteweb.com/] (qui serait l'autre nom du Web 2.0 aux dires de certains), en ouvre un second sur la plate-forme d'hébergement de Zdnet, dans la cadre de la préparation d'un livre sur le sujet, à paraître aux éditions O'Reilly. A vos agrégateurs ! Pour finir, impossible de passer à côté de cette nouvelle approche du Web2.0 comme [un des nouveaux avatars de la glocalisation->http://www.zephoria.org/thoughts/archives/2005/09/05/why_web20_matte.html], proposée par Danah Boyd.
2005-09-08 07:56:02
What is Web 2.0
http://blogs.zdnet.com/web2explorer/?p=5
La publication de la correspondance d'écrivains célèbres est-il un genre menacé ? C'est la question que pose cet article du ny times, sachant que l'essentiel de cette correspondance passe par l'e-mail, support dont la fragilité est légendaire (que ceux qui n'ont jamais perdu leur inbox avec les 1398 messages qu'elle contenait lèvent le doigt). Au point que des éditeurs comme Random House, apprend-on, songent sérieusement à établir une archive centralisée des correspondances avec leurs meilleurs auteurs (les raisons ne doivent pas seulement être littéraires). Rien de nouveau sous le soleil d'une certaine manière, car papier ou e-mail, on sait bien que certains auteurs ont des stratégies conscientes d'archivage en vue d'une publication future, tandis que d'autres détruisent tout. Ce qui est nouveau en revanche, ce sont les questions de pérennité des formats et supports auxquels sont confrontés les auteurs eux-mêmes (de vrais geeks parfois, qui jonglent avec les systèmes, les gigabytes et les disques externes). Tous attendent de l'aide de la part des archives nationales de leur pays respectif.
2005-09-08 09:51:21
Literary Letters, Lost in Cyberspace
http://www.nytimes.com/2005/09/04/books/review/04DONADIO.html
«À l'approche de l'examen du projet de loi sur le droit d'auteur et les droits voisins dans la société de l'information (DADVSI), la Fondation pour le Logiciel Libre (FSF France) organise un cycle de réunions de travail avec des élus, des avocats et des professeurs de droit. L'objectif est d'étudier comment pourrait être pris en compte les droits des auteurs et des utilisateurs de logiciels libres qui actuellement ne le sont pas. Ayant constaté que Jean Dionis du Séjour (rapporteur du groupe UDF sur le projet de loi) et Pierre Sirinelli (président d'une commission spécialisée du CSPLA) participent mi-septembre à une réunion [chez Microsoft->http://dinersroom.free.fr/index.php?2005/09/03/36-l-udf-chez-microsoft-de-la-fabrique-legislative] (voir la [copie cache Google du site de Jean Dionis->http://www.fsffrance.org/news/copie-cache-dionis.html]), la FSF France convie le député et le professeur agrégé à une réunion de travail.»
2005-09-08 16:09:24
Le carton
http://www.fsffrance.org/news/lettre-dionis-20050908.pdf
Gautier Poupeau, webmaster et éditeur électronique de l'Ecole des Chartes, auteur d'un [excellent article->http://lemo.irht.cnrs.fr/43/43-03.htm] sur le sujet et grand amateur de XML TEI vient d'ouvrir [son blog->http://lespetitescases.net/]. Les geeks qui tiennent des blogs travaillent généralement dans les web agencies, les boîtes de com' et autres SSII. Du coup, leur vision du Web est fortement influencée par les campagnes publicitaires pour les voitures, la conception de formulaires d'achats en ligne de brosses à dents, ou, pire, les gestionnaires de projets à pointeuses intégrées. Un geek qui s'intéresse aux [cartulaires d'île-de-France->http://elec.enc.sorbonne.fr/cartulaires/] ou aux [édits de pacification->http://elec.enc.sorbonne.fr/editsdepacification/], c'est déjà plus rare. Nul doute que son point de vue n'apporte très rapidement un angle d'approche inédit sur les débats qui agitent la blogosphère. Tout récent et développé sous Lodel, le blog de 'Got' donc, ne dispose pas encore d'interface de commentaire ; mais cela ne saurait tarder paraît-il...
2005-09-08 21:06:32
Les petites cases
http://lespetitescases.net/
Au moment où la Fondation Internet Nouvelle Génération met en ligne une nouvelle version de son site (sous K-portal et jsp, faut aimer), on pourra consulter le tout nouveau blog lancé en partenariat avec Le Café pédagogique et Education & Territoires sur les environnements numériques de travail. Que ce soit dans le primaire, le secondaire ou le supérieur, on peut y suivre l'actualité des ENT et les retours d'expérience sur le sujet. A noter les partenaires : Encyclopédie Universalis, Microsoft, Kosmos, Hatier, Bordas, Nathan, Unilog...parmi d'autres.
2005-09-08 21:17:55
ENT le blog
http://www.ent-leblog.net/ent_le_blog/
C'est confirmé. Le plus célèbre moteur de recherche planétaire vient de finaliser l'embauche de Vinton Cerf, véritable figure mythique du réseau. Vint Cerf est réputé avoir porté sur les fonts baptismaux le réseau Internet en mettant au point, avec Robert Kahn, le protocole TCP/IP sur lequel l'ensemble du réseau repose. Cerf occupait jusqu'à présent des fonctions de direction au sein de MCI, un opérateur Internet américain. Nommé "Chief Internet Evangelist", Cerf est très clairement destiné à jouer un rôle diplomatique auprès de Google. Très décriée ces derniers temps, en particulier dans les milieux spécialisés qui voient en elle un nouvel ogre menaçant, la firme de Mountain View cherche sans doute à regagner une part de légitimité en s'assurant les services de celui qui est considéré comme un des «pères fondateurs de l'Internet»
2005-09-08 21:39:32
Le communiqué de presse
http://www.google.com/press/pressrel/vintcerf.html
<img86|left>J'aime bien ma machine. J'écoute de la musique en permanence avec Kaffeine et c'est agréable. Je suis parvenu à synchroniser mon Palm avec Linux et à consulter le tout sur Kontact. Hum. Sur mon Palm, il a détruit les accents du carnet d'adresses. Sachez donc que si votre nom comporte un accent, il subira, un jour ou l'autre, dans l'histoire de l'informatique, un ratiboisage. On connaissait déjà la manie des systèmes de réduire nos noms à huit caractères, pour commodités de login et autres identifications. Là, on rencontre un petit désagrément bien peu sympathique, qui pourrait s'appeler le syndrôme de l'ogre en proximité des caractères : non seulement les caractères accentués sont remplacés par des carrés, mais en plus ces carrés ont tendance à grignoter les caractères voisins. Voici ce que cela donne sur le mot "téléphone" : il devient tXXphone. Avec deux "é" disparus, a également sombré un "l" malencontreusement placé.
2005-09-09 09:37:13
http://
OAI, Open Access, metadata, harvester, auto-archivage ; le monde de l'accès ouvert aux résultats de la recherche s'est enrichi au fil du temps d'un vocabulaire spécifique mais dont l'usage n'est pas toujours maîtrisé par ceux qui l'emploient. L'INIST propose un glossaire en ligne permettant à chacun de s'y retrouver. «Le glossaire contient les définitions de termes utilisés dans le cadre du Libre Accès et plus particulièrement des archives ouvertes. Elles sont le résultat de la collecte d’informations provenant de différentes ressources - glossaires en langue anglaise et française, articles, rapports techniques. Elles sont accompagnées de synonymes français, d’équivalent(s) anglais, de termes associés et d’un contexte. Le glossaire exploite le travail de terminologie réalisé pour le livre Les Archives ouvertes : enjeux et pratiques. Guide à l’usage des professionnels de l’information, édité par l’ADBS en 2005. L’objectif de cette réflexion était d’obtenir une plus grande cohérence entre les articles écrits par des auteurs différents. En effet, dans le mouvement du Libre Accès, un terme peut désigner des objets différents ou deux termes peuvent renvoyer à un même objet. Ces difficultés terminologiques ont deux origines principales. D’une part, tous les concepts contenus dans le domaine du Libre Accès viennent du monde anglo-saxon. Les notions en français ne sont souvent que la traduction littérale de l’anglais et ne respectent pas obligatoirement le sens primitif du mot français. D’autre part, le phénomène du Libre Accès est relativement récent avec deux conséquences. Les expressions sont empruntées à d’autres thématiques en gardant ou non leur signification. Le vocabulaire n’est pas encore figé. Ce glossaire est le résultat de la collaboration débutée pour l’ouvrage mais qui se poursuit avec Christine Aubry et Joanna Janick, qui ont dirigé l’ouvrage, et, Sandrine Avril et Thérèse Hameau de l’Institut de l’information scientifique et technique. Des nouveaux termes viendront bientôt enrichir le glossaire comme creative commons, copyright, copyleft. Toutes les propositions d’ajouts de termes ou de corrections sont les bienvenues.»
2005-09-09 18:24:28
LAIST
http://www.inist.fr/openaccess/rubrique.php3?id_rubrique=12
Le saviez-vous ? L'AFNIC, l'organisme actuellement en charge de la gestion du nom de domaine en .fr, a annoncé au cours de l'été l'organisation d'un atelier pour débattre de la prochaine ouverture de son domaine aux particulier. L'enregistrement d'un nom de domaine en .fr est en effet jusqu'à présent réservé aux professionnels et associations. L'atelier s'est déroulé le 6 septembre dernier, manifestement. Rien n'est trop tard cependant, puisque l'AFNIC a décidé d'ouvrir un forum permettant à chacun de s'exprimer sur le sujet : Les enjeux de l'ouverture, les critères d'éligibilité, le mode d'identification des demandeurs, le délai d'activation, la protection des données personnelles, tels sont les thèmes qui y sont abordés.
2005-09-10 08:44:59
Le forum de l'AFNIC
http://forum.afnic.fr/
«L'UFC-Que Choisir appelle les parlementaires à soutenir la proposition de loi du député Alain Suguenot visant à donner un cadre légal aux échanges de fichiers sur les réseaux peer to peer. Cette proposition présente des avantages indéniables non seulement pour le public / consommateur mais aussi pour les créateurs et les artistes. Cette proposition permet en effet notamment : - de faire cesser des poursuites pénales inefficaces et à l'opportunité douteuse contre les internautes, - de démocratiser l'accès à la diversité culturelle : plus de 79 % des internautes qui utilisent le peer to peer sont des « explorateurs » en quête d'oeuvres peu ou mal distribuées, - de sortir de la distribution en masse d'oeuvres formatées fondée sur le plus petit dénominateur commun, - aux offres commerciales traditionnelles de se développer : la coexistence des modes de financement (par abonnement, à l'acte, par la publicité, par une redevance...) a toujours été possible et souhaitable, - une répartition de la valeur plus juste entre les producteurs, les auteurs et les artistes-interprètes : les consommateurs souhaitent que les artistes soient justement rémunérés. Aussi soutenue par certains députés de l'opposition, cette proposition mérite un débat national qui dépasse tous les clivages politiques traditionnels. » L'Aliance Public-Artiste, initiative fédérant l'UFC, la Spedidam, l'ADAMI, l'UNAF et la CLCV est sur la même position : « L’Alliance Public-Artistes tient à saluer la proposition de loi du 13 juillet 2005 destinée à légaliser les échanges de contenus culturels sur Internet par le grand public. Depuis plusieurs années, les membres de cette Alliance appellent de leurs vœux un débat constructif et respectueux des intérêts du public et des artistes. L’Alliance Public-Artistes continue à travailler sur tous les aspects relatifs à ce sujet de société, dans le respect des objectifs suivants : - les libertés individuelles, - l’accès à la diversité des œuvres, - la juste rémunération des artistes.»
2005-09-10 08:54:55
Une démocratisation de l'accès à la diversité culturelle
http://www.quechoisir.org/Position.jsp;jsessionid=25B7BB9F93DCEB7145E41854AFA11A7B.tomcat-1?id=Ressources:Positions:7682FFED10BFFD2DC125707600394F23&catcss=IMA101
«L'édification d'une Société de l'information fondée sur le respect des droits de l'homme exige de nouvelles formes de solidarité, de partenariat et de coopération entre les gouvernements, la société civile, le secteur privé et les organisations internationales. L'ampleur du défi que représente le développement rapide de la société de l'information nécessite l'implication dans un débat ouvert et constructif de l'ensemble des acteurs de ce domaine encore nouveau et en pleine expansion. Partant de ce constat, le Conseil de l'Europe réunit à Strasbourg les 12 et 13 septembre, dans le cadre d'un Forum paneuropéen intitulé " les Droits de l'Homme dans la société de l'information : un comportement éclairé des principaux acteurs ", des représentants des Etats, du secteur privé (fournisseurs de services Internet, opérateurs de téléphone portable, industrie des jeux, etc.), de la société civile et des médias ainsi que d'autres organisations, institutions et experts. Le forum permettra un échange d'informations pour identifier les comportements considérés comme responsables ou irresponsables et examinera comment les divers acteurs de ce secteur peuvent œuvrer de concert pour établir des partenariats et élaborer des politiques de promotion et de protection des droits de l'homme. Le Forum sera ouvert le lundi 12 septembre par Maud de Boer-Buquicchio, Secrétaire Générale Adjointe du Conseil de l'Europe (9h30, Palais de l'Europe, salle 9). Il sera retransmis en direct sur Internet. Des questions pourront être envoyées par courriel à media.is@coe.int. La presse est conviée à y prendre part, non seulement pour une couverture médiatique mais aussi pour contribuer à la réflexion.»
2005-09-10 09:42:08
Point d'entrée du forum
http://www.coe.int/T/E/human_rights/media/Links/Events/ForumStbgSept2005_en.asp#TopOfPage
Mise en ligne du numéro 19 de la revue Multitudes (hiver 2004), dont la «mineure» porte sur les processus de désintermédiation sur Internet. A lire donc : -Disquaires de rêve et boîtes à musique : la « fin des intermédiaires » à l’envers, par François Debruyne - Désintermédiation et démocratie, par Hervé Le Crosnier - Retour sur le Lyber, par Michel Valensi - L’étoile du berger, par Nicolas Auray
2005-09-13 20:42:40
Multitudes
http://multitudes.samizdat.net/rubrique.php3?id_rubrique=508
Après les clips pour [populariser->http://mirrors.creativecommons.org/getcreative/clicktoplay.html] les licences creative commons, après le film pour [prédire un sombre avenir->http://www.robinsloan.com/epic/] dans la GoogleZone, voici l'animation qui avertit des dangers du trusted computing. Intéressant de voir combien le réseau est en train de faire naître un nouveau genre, celui du «court de compbat» destiné à expliquer des enjeux socio-techniques de manière plus efficace qu'un long article. On pourrait en faire collection, la critique, décerner des palmes à Cannes... Qui en connaît d'autres ?
2005-09-13 20:59:22
Trusted computing : le film
http://www.lafkon.net/tc/
A ceux qui pensent que les blogs ne font pas partie de la «vraie vie», qu'il ne s'agit que d'un mouvement de mode sans importance ni réel intérêt, il faut faire lire la floppée de billets parus ces derniers jours dans la blogosphère francophone. Le blog comme une superbe aventure humaine ; des blogueurs témoignent : - Tout commence par une rencontre avec [une drôle de fille->http://www.samantdi.net/dotclear/index.php?2005/09/11/349-une-drole-de-fille] - Puis vient un commentaire de Houssein, sur [la société des blogs->http://rundom.com/houssein/index.php?itemid=811] - Laurent Gloaguen aussi, met [son grain de sel->http://embruns.net/logbook/2005/09/12.html#002834] - Plus récemment, n'oublions pas [Sébastien Bailly->http://bailly.blogs.com/pro/2005/09/des_effets_indu.html], qui cite encore d'autres blogueurs
2005-09-14 13:28:59
Sébastien Bailly
http://bailly.blogs.com/pro/2005/09/des_effets_indu.html
Ce n'est pas la première fois qu'on nous l'annonce, et ce n'est pas la première fois qu'on nous prédit sa fin prochaine. Mais peu importe car l'article qui le proclame, intitulé «Access denied», et publié dans The Observer montre bien d'autres choses, en replaçant l'actuelle explosion de la blogosphère dans le contexte historique du développement d'Internet. Les blogueurs appartiennent à la seconde génération du cyberespace. Digital natives pour la plupart d'entre eux, ils connaissent beaucoup moins bien la dimension technique de leur activité que leurs aînés. Habitants du cyberespace, ce sont les premiers pour qui le réseau est autre chose que des ordinateurs interconnectés. Evidemment, tout ceci se déploie dans un contexte d'anarchie triomphante (vieux débat là encore), que menacent les habituelles puissances installées : Big business, Big media et Big governement...
2005-09-14 13:51:57
Access denied
http://observer.guardian.co.uk/review/story/0,6903,1566979,00.html
Les licences Creative Commons permettent aux créateurs de choisir les droits qu'ils accordent au public sur les oeuvres qu'ils distribuent. Une des options les plus importantes, et les plus discutées, de ces licences concernent l'autorisation d'en faire un usage commercial, ou non. Les partisans du logiciel libre en particulier insistentent sur les nombreuses difficultés qu'entraîne le fait de ne pas autoriser d'usage commercial de son oeuvre. D'autres pointent du doigt l'imprécision que recouvre cette notion de "non commercial". Eloquence vient de publier un article très intéressant qui s'intéresse essentiellement aux motivations des créateurs. Ceux-ci utilisent cette option car ils souhaitent éviter que les gros distributeurs de contenus puissent s'enrichir impunément avec leur travail. Or, argumente-t-il, cette option est inutile et contre-productive dans cette perspective. L'option de "partage à l'identifque" (share alike) est bien plus intéressante pour atteindre cet objectif. L'auteur de l'article appuie sa démonstration sur deux ou trois exemples qui ne sont pas pris dans la sphère du logiciel et qu'il est bon de méditer. Comme toujours dans ce cas, il faut lire aussi la passionnante discussion qu'il a provoquée en pied-de-page. A quand une campagne "Drop the nc", éventuellement soutenue même par Creative Commons ?
2005-09-15 08:10:03
Creative Commons -NC Licenses Considered Harmful
http://www.kuro5hin.org/story/2005/9/11/16331/0655
<img87|left>Ce matin, pas de connexion réseau pendant le démarrage de ma machine. Puis ça revient. Manque de chance: Linux n'a pas pu synchroniser son horloge. Au lieu d'utiliser la date de ma dernière session, il me rapatrie en juin 2005. Et mes correspondants de se gausser. Pour une raison inconnue, je ne parviens pas à régler l'heure dans le centre de configuration KDE. Je redémarre, la synchronisation NTP fonctionne à nouveau. Tout est ok. M'enfin. Bof.
2005-09-15 09:17:09
http://
«Août 2005, l'Ifremer lance Archimer, son Archive institutionnelle, une base de textes intégraux proposant un ensemble de post-publications (articles parus dans des revues scientifiques), de thèses, de rapports internes et d'actes de congrès. Ces publications scientifiques sont ainsi accessibles gratuitement à tous via internet. Archimer a pour objectif: - d'offrir une meilleure visibilité des travaux dans tous les domaines de recherche de l'Ifremer (l'aquaculture et la pêche par exemple, mais aussi la géologie, la biologie ,l'écologie...) - d'augmenter leur impact scientifique : plus de chercheurs y ont accès gratuitement et rapidement, et donc les citeront davantage - de valoriser les travaux de l'Institut en agrégeant toutes les publications dans une base structurée interopérable (via le protocole OAI-PMH) Cette réalisation s'inscrit dans le mouvement international "Open Access", qui cherche à rendre accessible, au plus grand nombre, la documentation scientifique en la diffusant gratuitement sur le Web. »
2005-09-15 09:39:46
Archimer
http://www.ifremer.fr/docelec/
Le New York Times nous apprend que l'agence Associated Press est sur le point de lancer un service d'information spécialement destiné aux jeunes lecteurs (entre 18 et 35 ans), habituellement considérés comme les plus difficiles à atteindre et fidéliser pour les organismes de presse. Plus direct, plus multimédia, plus rapide, plus engagé, plus sophistiqué, plus «blog», ce service appelé «a-s-a-p» compte déjà une centaine de journaux comme clients, qui en feront usage dans leur édition imprimée ou en ligne, selon leur choix. Ce qui est intéressant, c'est que la mise en place de ce service correspond, de la part de la direction de l'agence, à une volonté de concurrencer (ou compléter) directement les blogs en adoptant la forme éditoriale qui fait leur succès, tout en apportant une dimension qu'ils ne peuvent pas avoir : la capacité à traiter des événements lointains et un professionalisme dans le traitement de l'information. A suivre donc, car cette innovation, si elle prend pied, risque d'avoir des répercussions au delà du public visé.
2005-09-16 08:14:30
A.P. Fashions a News Feed for the Young
http://www.nytimes.com/2005/09/14/business/media/14wires.html
Communiqué de presse d'IRIS - 16 septembre 2005 « L'association IRIS (Imaginons un réseau Internet solidaire) apprend que le gouvernement aurait l'intention d'instaurer, par une mesure législative, le filtrage automatique et par défaut de l'accès à l'information en ligne, au prétexte de la protection des mineurs. Une proposition d'amendement législatif aurait ainsi été adoptée au cours d'une réunion interministérielle le 31 août 2005. L'annonce de cette proposition serait prévue le 22 septembre prochain, au cours de la Conférence de la famille 2005. La mesure pourrait être introduite dans le prochain projet de loi sur la prévention de la délinquance, sous la forme d'un de ces « cavaliers législatifs » qui deviennent pratique courante, bien que dénoncée par le Conseil constitutionnel. L'amendement consisterait à ajouter à la loi pour la confiance dans l'économie numérique (LEN), après le paragraphe sur les moyens techniques de filtrage (Article 6-I.1), la disposition suivante : « Ils [les fournisseurs d'accès à Internet] mettent en oeuvre auprès de tous leurs abonnés, de manière automatique, des dispositifs techniques performants et activés par défaut qui permettent de restreindre l'accès aux services de communication au public en ligne mettant en péril les mineurs. Un décret en Conseil d'Etat fixe les modalités du présent article. » L'objectif de protection des mineurs est légitime. Toutefois, dans le domaine de l'information et de la communication, tout filtrage mis en place à cet effet ne peut et ne doit relever que de la responsabilité des parents ou des éducateurs en charge des mineurs. Or la disposition envisagée reviendrait à exercer un filtrage obligatoire, automatique et par défaut, mis en oeuvre au niveau des serveurs des fournisseurs d'accès à Internet, et non plus un filtrage volontaire mis en place sur la machine de l'utilisateur final qui le souhaite. IRIS rappelle que les contenus concernés par ce type de filtrage ne sont pas des contenus illégaux, mais des contenus dits « offensants » ou « préjudiciables ». Cette notion ne peut se concevoir dans l'absolu et de manière totalisante : elle est fonction de caractéristiques spécificiques à des personnes ou groupes de personnes, telles que l'âge, mais aussi la culture, la conviction, la croyance..., dans une société donnée à une période donnée. Les nombreux défauts des logiciels de filtrage existants ont été dénoncés en détail et depuis plusieurs années par de nombreuses associations de défense des droits de l'homme et des libertés fondamentales de par le monde, ainsi que par les professionnels de l'éducation et de la documentation : quels seraient alors ces « dispositifs techniques performants » envisagés ? Comment seraient-ils définis ? En outre, la question des critères de filtrage reste entière : qui les établirait, en fonction de quels intérêts d'ordre moral ou matériel ? Que signifierait la notion vague et large de « mise en péril des mineurs » ? Que deviendrait alors la nécessaire protection du droit à l'information et de la liberté d'expression et de création ? Enfin, comment de telles restrictions à ces libertés constitutionnelles pourraient-elles être définies par simple décret en Conseil d'État ? Si un tel amendement venait à être effectivement présenté, l'association s'attacherait à susciter la plus large mobilisation contre ce projet qui prend sa source dans une offensive accrue de l'ordre moral et qui n'envisage comme méthode qu'une censure digne des pires pays sécuritaires.»
2005-09-16 11:16:26
Le communiqué de presse
http://www.iris.sgdg.org/info-debat/comm-filtrage0905.html
«La 27e Conférence internationale des Commissaires à la protection des données et à la vie privée, qui s'est tenue à Montreux du 14 au 16 septembre 2005 à l'invitation du Préposé fédéral à la protection des données, s'est achevé avec l'adoption d'une déclaration finale visant au renforcement du caractère universel des principes de la protection des données. La Conférence a également adopté une résolution sur l'utilisation des données biométriques dans les passeports, cartes d'identité et documents de voyage et une résolution sur l'utilisation de données personnelles pour la communication politique. A l'invitation du Préposé fédéral à la protection des données, la 27e Conférence internationale des Commissaires à la protection des données et à la vie privée s'est tenue à Montreux du 14 au 16 septembre 2005. Se déroulant pour la première fois en Suisse, la conférence a réuni plus de 300 participants provenant du monde entier. Dans la partie ouverte de la conférence, les représentants de l'économie, de l'administration, de la science, de l'industrie informatique et des organisations internationales gouvernementales et non gouvernementales ont ainsi débattu avec les commissaires à la protection des données et à la vie privée de quelques 40 Etats de la place du droit à la protection des données et à la vie privée dans un monde globalisé. Lors de leur session à huis clos, les commissaires ont adopté notamment deux résolutions et une déclaration finale. La protection des données se retrouve plus que jamais au centre des débats et des défis de la globalisation de nos sociétés et du développement des technologies de l'information. L'échange d'informations et l'accès aux données sont devenus les maîtres mots du fonctionnement de nombreuses entreprises et de la réussite de maintes activités que nous sommes amenés à effectuer. La technologie permet de traiter l'information rapidement et en temps réel, de la collecter souvent à l'insu des personnes concernées, de la disséminer sans considération de frontières et de l'utiliser également hors du contexte pour lequel elle avait été saisie. L'information peut être régie par différents systèmes juridiques de protection des données, voire échapper au mécanisme de protection. Un même traitement peut faire l'objet de différentes procédures de notification ou de contrôle dans des Etats différents. Il peut être entravé du fait de règles trop restrictives ou de la mauvaise volonté de certains acteurs. Les personnes concernées ne pourront pas ou difficilement faire valoir leurs droits du fait de la dissémination des données en divers points du globe. Le contexte géopolitique actuel et notamment la lutte contre le terrorisme, l'Internet, la biométrie, le développement des technologies invasives ou l'apparition des biobanques mettent au centre des débats l'importance de la défense des droits et des libertés fondamentales, notamment le droit à la vie privée comme éléments intangibles d'une société démocratique moderne. Pour faire face à ces défis, les commissaires ont ainsi convenu de promouvoir la reconnaissance du caractère universel des principes de protection des données et sur initiative de la Suisse, ils ont adopté une déclaration finale dans laquelle ils conviennent de collaborer avec les gouvernements et les organisations internationales et supra nationales au développement d'une convention universelle de protection des données. La déclaration appelle en particulier : - l'ONU à préparer un instrument juridique contraignant - les gouvernements à favoriser l'adoption de législation conforme aux principes reconnus de protection des données et de l'étendre à leur relations mutuelles - le Conseil de l'Europe à inviter les Etats non membres de l'organisation à adhérer la Convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel et à son protocole additionnel - les chefs d'Etat et de gouvernement qui se réunissent à Tunis (16-18 novembre 2005) pour le sommet mondial de l'information à inclure dans leur déclaration finale un engagement à développer ou renforcer le cadre juridique destiné à assurer le droit à la protection de la vie privée et des données personnelles de tous les citoyens dans le cadre de la société de l'information - les organisations internationales et supra nationales à s'engager à se conformer aux règles de protection des données - les organisations internationales non gouvernementales à élaborer des standards de protection des données - les fabricants de matériel informatique et de logiciel de développer des produits et des systèmes intégrant des technologies respectueuses de la vie privée. La déclaration a également pour objectif de renforcer la collaboration entre les différentes autorités de protection des données, ainsi que la collaboration de ces autorités avec la société civile. La réalisation des objectifs de la déclaration fera l'objet d'une évaluation régulière. La première évaluation se fera lors de la 28e Conférence internationale qui se déroulera en septembre 2006 en Argentine. Les commissaires ont en outre adopté une résolution présentée par l'Allemagne concernant l'utilisation de la biométrie dans les passeports, cartes d'identité et documents de voyage. Ils soulignent que l'utilisation à large échelle de la biométrie aura un impact considérable sur la société et devrait être précédée d'un débat ouvert et universel. Les commissaires demandent que des garanties efficaces soit d'emblée mises en place pour limiter les risques inhérents à la nature de la biométrie. Les commissaires ont enfin adopté une résolution présentée par l'Italie concernant l'utilisation de données personnelles pour la communication politique. Tout en rappelant l'importance de la communication politique dans le processus démocratique, les commissaires soulignent que toute activité de communication politique impliquant le traitement de données personnelles doit respecter les libertés et les droits fondamentaux des personnes concernées, y compris le droit à la protection des données. Ces traitements doivent être conformes aux principes de protection des données, en particulier les principes de minimisation, de licéité et de la bonne foi, de la proportionnalité, de la finalité, de l'exactitude et de la transparence.»
2005-09-17 15:57:04
Le site du PFPD
http://www.edsb.ch/
Le saviez-vous? «KOrganizer gère Microsoft Exchange. Activez simplement le module Microsoft Exchange 2000 pour KOrganizer dans la fenêtre Configurer les modules... du menu Configuration.» <doc92|left>Etonnant, non? En tout cas, j'en connais certains qui sont interdits de Linux dans leur entreprise sous de fallacieux prétextes, du type "ça ne se connecte pas à Exchange". Depuis qu'il y a Samba, ils ne peuvent plus le dire pour les partages de machines. Tout ce qui participe au rétablissement de liens entre les systèmes d'exploitation, c'est-à-dire à l'interopérabilité, même si c'est peut-être un [abus de langage en l'espèce->http://formats-ouverts.org/blog/2005/09/10/530-compatibilite-nest-pas-interoperabilite], est une excellente chose. Espérons que Microsoft arrêtera de s'amuser avec les standards. Depuis que Google s'est ralié à Jabber, on peut espérer un petit peu, non?
2005-09-19 08:08:08
http://
Windows Vista, le prochain système d'exploitation conçu par Microsoft portera-t-il un coup fatal à la concurrence et aux pluralisme ? C'est ce que semble penser Seth Schoen, un expert de l'Electronic Frontier Foundation, sur qui le magazine Technology Review s'appuie dans un de ses derniers articles. Déjà vertement critiqué sous son ancien nom, Longhorn, du fait des systèmes de certification matérielle qu'il embarquait, Windows Vista s'avère aujourd'hui être un astucieux système destiné à limiter le pouvoir des consommateurs à maîtriser leur environnement technique ; que ce soit au niveau matériel ou logiciel. Résultat, tout pouvoir est donné aux producteurs de contenus, via les DRM et les dispositfis techniques qui les implémentent, pour limiter autant qu'ils le souhaitent les usages qui peuvent être faits de leurs produits. De l'informatique en «read only» (once) en quelque sorte
2005-09-19 18:59:07
Will Windows Upgrade Hand Power to Big Media?
http://www.technologyreview.com/articles/05/09/wo/wo_091905patrizio.1.asp
Pour de nombreuses et diverses raisons, il est probable que les grands réseaux Peer-to-peer ouverts, anonymes et multi-usages tels que nous les connaissons encore, disparaissent dans les prochaines années pour laisser la place à une multiplicité de réseaux fermés et centrés sur des communautés particulières. Lionshare représente sans doute le prototype de ce que cette évolution pourrait permettre dans le cadre de l'enseignement et de la recherche. Développé par l'Université de Pennsylvanie avec le soutien d'autres institutions, le logiciel Lionshare est destiné à permettre aux chercheurs, enseignants et étudiants, d'échanger dans le cadre de leur travail de gros fichiers de données, de larges collections d'images et des fichiers vidéo. Il fonctionne exactement sur le même principe que d'autres réseaux, comme Kazaa, avec cette particularité d'identifier les utilisateurs et leur affiliation à des structures collectives (cours, départements, facultés, universités). C'est sur la base de cette identification que l'utilisateur a tout pouvoir pour définir des conditions de partage à géométrie variable, fichier par fichier ou collection par collection. Le site de support du logiciel décrit quelques situations concrètes où des communautés de recherche, des classes, des ensembles disciplinaires peuvent constituer des sortes de «sous-réseaux» à l'intérieur du réseau et s'échanger des matériaux même sous copyright puisque ce type d'échanges est autorisé au titre du «fair use» (pour les américains bien sûr ; les chercheurs français ne bénéficieront pas de cette exception, [cela va de soi->http://www.assemblee-nationale.fr/12/dossiers/031206.asp]). La sortie de la première version stable est prévue pour le 30 septembre
2005-09-22 10:48:01
Lionshare
http://lionshare.its.psu.edu/main/
<img94|left>Mon Ubuntu freeze environ une fois par semaine. J'en ignore la raison. Ca m'énerve beaucoup. Je perds du temps et des documents non sauvegardés. Ca m'apprendra. Hier, ça a freezé à nouveau. Mais là, au redémarrage, "Disk boot failure" ou quelque chose comme ça. Panique à bord. Le disque dur est mort? Dingue. Megageek 2, qui a la chance (!) de bosser à côté de mon bureau, essaie de me sortir d'affaire. Télécharge un Ubuntu récent (Breezy) en espérant qu'il reconnaîtra mieux les matériels superbement récents de ma machine. Installation difficile. Au redémarrage, toujours le même problème de Boot failure... On se rend compte que j'avais laissé une disquette dans le lecteur, il y a plusieurs jours. Non bootable, bien sûr. Quand on s'en rend compte, c'est trop tard. En retirant la disquette, le disque dur ne présentait plus aucun problème. Et comme l'ordinateur est terriblement silencieux, personne n'a entendu l'accès à la disquette... Crispant et un brin ridicule. Le système fiable installé avait été effacé et Breezy plantait gravement. Megageek 2 a continué à y passer du temps, échouant à cause de ce satané contrôleur USB que personne ne connaît encore, manifestement. Et pour finir, dépité, exaspéré, ayant perdu son temps, il revient en arrière, et reprend du service pour installer le système tel qu'il était au matin, absolument impeccable avec l'Ubuntu stable. Il a fini tard et a perdu sa journée. Tout ça pour ça.
2005-09-22 11:20:41
http://
«Où vont les technologies de l'information et de la communication à l'horizon 2010 ? Quelles cohérences, quelles convergences, quels "projets" émergent-ils des trajectoires technologiques particulières et de leur conjonction ? Autour de quels carrefours, de quelles tensions leur développement est-il susceptible d'emprunter des voies alternatives ? Et si nous répondions ensemble à ces questions ? L'Irepp et la Fing proposent ici une synthèse de ces questions, nourrie des principaux travaux et exercices de prospective technologique parus en Europe et dans le monde. Elle sera disponible en ligne, d'une manière progressive, plutôt sous la forme d'un document de travail évolutif que d'un texte définitif. Deux raisons à cela : - Tout le monde n'a pas la même vision des tendances technologiques et des débats que ces évolutions soulèvent. Le texte est donc proposé à la discussion. Tous les articles sont ouverts aux commentaires et ceux-ci seront intégrés dans les versions à venir. - Un exercice de prospective technologique n'a d'intérêt que si ses lecteurs peuvent le rapporter à leurs préoccupations, dans le cadre d'une approche sociétale, ou économique, ou sectorielle, etc. Plutôt qu'un accomplissement, ce texte est un point de départ, une "boîte à clous" d'usage libre, dont chacun pourra se servir à sa guise.»
2005-09-22 15:14:46
Prospectic
http://www.fing.org/jsp/fiche_pagelibre.jsp?STNAV=&RUBNAV=&CODE=71465003&LANGUE=0&RH=ProspecTIC
Le web 2.0 qu'est-ce que c'est, encore et encore ? Un peu comme la blogosphère qui n'en finit pas de parler d'elle-même, les évangélistes du web 2.0 retournent leur nouveau jouet dans tous les sens. En voici donc une représentation graphique et schématique publié par Tim O'Reilly sur son compte Flickr à la suite d'un brainstorming des plus tendance. On peut se moquer ; ce schéma fournit quand même une représentation assez claire de ce dont on parle, et surtout, l'explore dans ses multiples dimensions.
2005-09-23 16:09:17
La carte
http://www.flickr.com/photos/36521959321@N01/44349798
Les dix séances du séminaire organisé par la revue Multitudes en 2004/5 sur les transformations du travail sont désormais disponibles au format audio sur le site du séminaire : «Voici le programme des 11 séances du séminaire 2004/05 Première partie: « Travail et savoirs dans le capitalisme cognitif » 1) 12 octobre: Les transformations du rapport capital/travail et l’hypothèse du capitalisme cognitif : une mise en perspective historique (Carlo Vercellone, Université de Paris I); Mutations et effritement des frontières entre travail et non travail : la productivité du “temps libre” (Delphine Vallade, Université de Montpellier III) 2) 19 octobre : Connaissances, mobilité et autonomie dans le travail (Patrick Dieuaide, Université de Paris I), Subjectivité et événement dans le nouveau régime de contrôle. (Philippe Zarifian, Université de Marne La Vallée) 3) 23 novembre : La problématique des externalités et la productivité sociale du travail (Yann Moulier-Boutang, Université de Technologie de Compiègne) ; Décentralisation productive et socialisation du travail : de la ville usine à la ville des services. (Andrea Fumagalli, Bocconi et Université de Pavia, Anne Querrien, Sociologue, urbaniste) 4) 7 décembre : Théories de la financiarisation et travail cognitif : controverses et perspectives (Benjamin Coriat, Université de Paris XIII ) Deuxième partie. « Richesse, valeur et pouvoir dans le capitalisme cognitif» 5) 11 janvier/05 : La crise de la comptabilité d’entreprise face à l’essor du travail immatériel et intellectuel (Pantaleo Elicio, consultant) Valorisation boursière et actifs immatériels : le concept de « goodwill ». (Isabelle Halary, Université de Reims) 6) 15 février/05 : Pouvoirs et exploitation : quelles nouvelles articulations ? (Maurizio Lazzarato, sociologue et philosophe, Antonio Negri, philosophe) 7) 8 mars/05 : Innovation et sources de la valeur dans le capitalisme cognitif (Bernard Paulré, Université de Paris I) 8) 15 mars /05 : "Quelques réflexions d'une non économiste sur les indicateurs de richesse". Dominique Meda, DARES). Crise des fondements fordistes- keynésiens de la productivité et de la comptabilité nationale. (Pascal Petit, Cepremap, CNRS) Troisième partie. « Dispositifs des mouvements constituants » ou « Dispositifs d'un programme post-socialiste » 9) 19 avril/05 : Les notions de public et de commun dans l'histoire du Welfare-State.(Bernard Guibert, Administrateur de l'INSEE, Docteur en économie) 10) 10 mai/05 : "La "software crisis" et le développement de la production du logiciel en mode libre" (Libero Maesano, Ingénieur informatique) et Valentin Lacambre: «Le logiciel libre, extension des biens communs ou moyen de production » Créateur de : altern.org, gandi.net (services internet), dangerpublic.net (editeur), transfert.net (presse), fédération informatique et liberté (vie-privee.org) 11) 14 juin/05 : Réflexion et première synthèse transversale des dix séances du séminaire: 1) Métropole, travail cognitif et espace commun (T. Negri et A. Querrien) 2) Ressources, travail cognitif et espace de mobilité (P. Dieuaide) et Travail et revenus (C. Vercellone) 3) Technologies, création et innovation (Y.M. Boutang, B. Paulré) » A noter que ces enregistrements sont aussi disponibles sur cd, à commander à partir du site du séminaire.
2005-09-24 08:52:26
Les enregistrements audio
http://seminaire.samizdat.net/
Alors que dans leur grande majorité, les médias classiques considèrent les blogs comme [inexistants->http://www.internetactu.com/index.php?p=6070], [amusants->http://www.pointblog.com/past/2005/09/12/blog_et_tele_un_fiasco_annonce_.htm] ou, plus souvent, [répugnants->http://www.pointblog.com/past/2005/09/23/emmanuel_rubin_sur_les_blogs.htm], l'organisation Reporters Sans Frontières rappelle qu'ils constituent souvent un des seuls moyens pour les dissidents des pays non démocratiques de s'exprimer. Ils publient [un guide->http://www.rsf.org/rubrique.php3?id_rubrique=527] à leur intention : «Les blogs passionnent, inquiètent, dérangent, interpellent. Certain les méprisent, d’autres les tiennent pour les prophètes d’un nouvelle révolution de l’information. De fait, parce qu’ils délient les langues des citoyens ordinaires, ils sont un formidable outil pour la liberté d’expression. Dans les pays où la censure est reine, lorsque les médias traditionnels vivent à l’ombre du pouvoir, les bloggers sont souvent les seuls véritables journalistes. Ils sont les seuls à publier une information indépendante, quitte à déplaire à leur gouvernement et parfois au risque de leur liberté. Reporters sans frontières a conçu ce guide pour les aider, par des conseils pratiques et des astuces techniques, à préserver leur anonymat, à contourner la censure - en identifiant la technique la mieux adaptée à chaque situation -, mais aussi à lancer un blog dans de bonnes conditions, à le faire connaître - en optimisant son référencement sur les moteurs de recherche -, et à asseoir sa crédibilité via le respect de quelques règles éthiques et journalistiques.» En trouverons-nous des exemplaires dans les travées du SMSI ?
2005-09-24 09:22:20
Guide pratique du blogger et du cyberdissident
http://www.rsf.org/rubrique.php3?id_rubrique=527
[Podemus->http://www.podemus.com/] se présente : «Podemus a été créé pour vous aider à découvrir le plus simplement possible la richesse du podcasting francophone. Il se présente d'abord comme un annuaire de podcasts audio et vidéo classifié en plus de 100 catégories qui facilite des recherches précises selon vos goûts. Chaque catégorie vous propose une liste de podcasteurs dont vous pouvez écouter ou regarder la dernière production, des liens vers leurs blogs ou sites, des accès directs à leurs flux RSS que vous pouvez utiliser dans les aggrégateurs de votre choix. Chaque podcasteur fait l'objet d'une page Podemus spécifique qui permet d'écouter ou regarder très simplement ses productions et les textes qui y sont associés. Podemus vous garantit à chaque instant un accès facile et direct à la source de chaque podcast c’est-à-dire au site ou au blog des podcasteurs. Pour vous aider dans vos découvertes, vous trouverez sur chaque page un TOP 10 des podcasts les plus visités et un accès à tous les derniers podcasts mis en ligne par leurs auteurs.» L'utilisation du portail en mode client est gratuite. En revanche, Podemus propose aux blogueurs-podcasteurs des services, payants, d'hébergement et de gestion des services (statistiques, ftp, création des flux) «Podemus est le fruit de la rencontre entre un pionnier francophone du podcasting, Bertrand Lenotre, des professionnels de la conception et de l'hébergement de sites, Ablaze © (Olivier Vignot & Mayel de Borniol) et d'investisseurs innovants regroupés dans la SARL Podemus.» Une initiative bienvenue dans un paysage qui menaçait d'être durablement dominé par Apple et son portail iTunes Music Store.
2005-09-24 09:50:29
Podemus
http://www.podemus.com/
On sait qu'aux Etats-Unis, la guilde des auteurs a décidé d'ouvrir un procès contre le programme Google Print, accusé d'enfreindre le droit d'auteur. On s'attend donc à un procès retentissant, dont l'issue ne sera pas sans conséquence, et pas seulement pour Google ; un peu à l'image du procès Grokster. Cette nouvelle a relancé un peu partout les débats autour de ce programme. Face aux [accusations->http://www.authorsguild.org/news/sues_google_citing.htm], Google a [récemment réagi->http://googleblog.blogspot.com/2005/09/google-print-and-authors-guild.html] sur son blog officiel en tentant de mettre les choses au point. Aujourd'hui, c'est l'[Electronic Frontier Foundation->http://www.eff.org/news/archives/2005_09.php#003994] qui vient à sa rescousse sur la base d'un argument simple : Google n'a pas plus à payer de droit aux éditeurs pour mener son programme, que les bibliothèques pour constituer leur catalogue.
2005-09-24 10:16:49
Google's Card Catalog Should Be Left Open
http://www.eff.org/news/archives/2005_09.php#003994
Je vous conseille deux lectures pour les jours à venir. [Cinq erreurs commises par les néophytes sous GNU/Linux ->http://www.framasoft.net/article4165.html] : mon impression est que Mandriva est moins stable, et donc moins accessible, qu'Ubuntu. [Du libre et du gauchisme : une parenté fallacieuse->http://www.libroscope.org/Du-libre-et-du-gauchisme] D'ici-là, j'aurai peut-être réussi à avoir de nouveau du son sur ma machine...
2005-09-25 11:04:11
http://
Communiqué des associations d'archivistes, bibliothécaires et documentalistes : «Après de nombreux reports, le projet de loi sur les droits d'auteur et les droits voisins adopté par le conseil des ministres le 12 novembre 2003 est inscrit en procédure d'urgence sur le calendrier de la session parlementaire qui commence le 3 octobre 2005. Ce projet de loi doit transposer une directive européenne du 22 mai 2001 et adapter ainsi la législation française à l'environnement numérique en redéfinissant la nature des usages licites et illicites. Mais si la directive rendait possible de nombreuses exceptions, la France n'a retenu que deux d'entre elles [[Seules exceptions retenue dans le projet de loi francaise : exception pour les copies techniques transitoires sans signification économique et exception en faveur des personnes handicapées (sous une forme trop restrictive à nos yeux).]] et s'apprête à se doter ainsi d'une des législations les plus déséquilibrées d'Europe. Aucune des exceptions demandées en faveur de la recherche, de l'enseignement, de la lecture publique et du patrimoine, soit en faveur d'un service public moderne des archives des bibliothèques et des centres de documentation, si nécessaire au bon exercice de notre démocratie et au développement de la vie intellectuelle et scientifique, n'a été retenue. Dix associations françaises d'archivistes, de bibliothécaires et de documentalistes agissent depuis deux ans pour alerter les parlementaires et l'opinion publique sur les conditions de la poursuite de leur mission de préservation de la mémoire et de transmission des savoirs et des informations dans le contexte de la société de l'information. Leur demande est simple : il faut garantir par la loi la possibilité pour les archives, bibliothèques, centres de documentation et espaces publics numériques qui ne recherchent aucun avantage commercial ou économique direct ou indirect de conserver, décrire, mettre à la disposition du public les ressources électroniques auxquelles elles ont obtenu un accès légal, dans le respect des droits légitimes des auteurs et des autres ayants droit la propriété intellectuelle. Au moment ou la constitution de bibliothèques numériques est débattue à l'échelle européenne, chacun peut constater que ces questions sont d'intérêt public. Site web : [pétition (2747 signatures à la date du 21 septembre 2005), informations, argumentaires, tableau comparatif des législations européennes.->http://droitauteur.levillage.org] L'interassociation des archivistes, bibliothécaires et documentalistes regroupe les associations suivantes : - Association des archivistes français (AAF) : - Association des bibliothécaires français (ABF) : - Association de coopération des professionnels de l'information musicale (ACIM) : - Association des directeurs de bibliothèques départementales de prêt (ADBDP) - Association des directeurs des bibliothèques des grandes villes (ADBGV) - Association des professionnels de l'information et de la documentation (ADBS) - Association des directeurs et des personnels de direction de bibliothèques universitaires et de la documentation (ADBU) - Association pour la diffusion des documents numériques en bibliothèque (ADDNB) - Association internationale des bibliothèques, archives et centres de documentation musicaux. Groupe français (AIBM) - Fédération française pour la coopération des bibliothèques, des métiers du livre et de la documentation (FFCB)» L'ADBDP a aussi [pris position sur le rapport Stasse->http://www.adbdp.asso.fr/association/droitdauteur/stasse.htm] et [demande respectueusement->http://www.adbdp.asso.fr/association/droitdauteur/lettre-observatoire.htm] au Ministre de la Culture de pouvoir participer à l'Observatoire des Usages du Numérique qu'il vient d'installer.
2005-09-26 19:14:45
DADVSI
http://droitauteur.levillage.org
A l'approche de l'examen du projet de loi sur le droit d'auteur et les droits voisins dans la société de l'information, il est toujours utile de pouvoir consulter sur le site du Parti Socialiste consacré aux NTIC les amendements qui ont été déposés au projet du gouvernement. On relèvera en particulier ceux qui concernent [les exceptions au droit d'auteur->http://www.parti-socialiste.fr/tic/spip_tic/article.php3?id_article=221]. En complément, on lira sur l'excellent blog consacré au futur Congrès du PS [un exposé comparatif->http://www.parti-socialiste.fr/tic/spip_tic/rubrique.php3?id_rubrique=39] des différentes motions présentées sur le sujet (posté par un certain Laurent (mais pas Fabius manifestement)).
2005-09-27 09:08:41
Les amendements du PS
http://www.parti-socialiste.fr/tic/spip_tic/rubrique.php3?id_rubrique=39
Oui, en effet, c'est la troisième brève sur le même sujet en quelques jours ; mais l'enjeu est d'importance : le gouvernement a décidé de faire passer son texte sur le droit d'auteur et les droits voisins dans la société de l'information en procédure d'urgence ; ce qui signifie qu'il sera examiné en commission paritaire assemblée-sénat, sans débat parlementaire. La décision est contestée de partout, car ce projet de loi, qui protège juridiquement les dispositifs anti-copie et redéfinit les règles du jeu en matière de droit d'auteur dans l'environnement numérique constitue un véritable socle législatif dont les conséquences seront très importantes dans les années à venir. On peut penser ce qu'on veut du texte présenté ; il n'en reste pas moins qu'il mérite de par son importance et l'impact qu'il aura sur la vie quotidienne d'une part importante de la population, un véritalbe débat contradictoire. Bref, avec de nombreuses autres organisations, le collectif EUCD [tire le signal d'alarme->http://eucd.info/pr-2005-09-27.fr.php] "en urgence".
2005-09-28 19:08:05
EUCD
http://eucd.info/pr-2005-09-27.fr.php
<img95|left>La SNCF vient de changer l'ensemble de ses bornes de vente automatique de billets. Ergonomie repensée, compensant l'essentiel des (gros) défauts des anciennes bornes. Il en reste quelques-uns, cela dit. Parmi eux, une instabilité logicielle qui semble accentuée. Parce que ça plante. Et quand ça plante, un joli logo Windows XP s'affiche en gros. En pleine gare, au coeur du service public, dans le flot des citoyens en partance, cette publicité gratuite pour Windows étonne le voyageur, même distrait. Ca fait désordre, dites-vous?
2005-09-28 21:48:46
http://
Décidément ce sont bien les innovations les plus simples et les plus low-tech qui sont les plus intéressantes. Un exemple : le prototype d'ordinateur portable à 100$ conçu par le MIT, et dont Cnet nous montre [les photos->http://news.com.com/2300-1044_3-5884639-1.html]. Construit autour d'un cylindre servant à la fois de poignée et de batterie, ce portable peut aussi s'utiliser comme ebook, tablet pc ou écran de projection. Mieux encore : on peut enclencher une manivelle sur l'extrêmité du cylindre, de manière à recharger la batterie dans les zones dépourvues d'électricité ! Fini le geek malingre flottant dans son t-shirt trop grand. Grâce au portable du MIT, le geek pourra désormais aller mesurer ses biscoteaux à ceux du surfeur sur les plages de Malibu.
2005-09-29 09:52:13
Cnet
http://news.com.com/2300-1044_3-5884639-1.html
Michael Thévenet et Bernhard Rieder montrent, [dans un article disponible sur Boson2x->http://www.boson2x.org/article.php3?id_article=144] mais publié dans les actes du colloque «Enjeux et usages des TIC. Aspects sociaux et culturels» qui s’est tenu du 22 au 24 septembre 2005 à Bordeaux, comment le code informatique modifie la nature de l'espace public par sa nature même. Contrairement au café du XVIIIème siècle, au salon et à la presse des suivants, l'espace construit au sein de dispositifs électroniques est «procédural», parce que reposant sur du code qui définit des processus. Les deux auteurs analysent le fonctionnement de Slashdot à titre d'exemple de leur thèse. Evidemment, le problème du code informatique comme constitution du mode de fonctionnement de l'espace public, est qu'il n'est pas lisible par l'humain, et ne peut donc spontanément être discuté par eux. Le logiciel libre, peut-on en conclure, est précisément une tentative d'articuler avec précision ces deux types d'espace : discursif et procédural.
2005-09-29 11:52:38
Sphère publique et espaces procéduraux
http://www.boson2x.org/article.php3?id_article=144
<img106|left>La vie avec Linux est de plus en plus un long fleuve tranquille. Sécurité, confort, mise à jour simple, profusion d'outils bien conçus. Il n'empêche que je suis contraint de retourner sur Windows dès que je suis en déplacement, GPRS oblige. J'ai vu que Linux pratique avait publié un article sur la configuration du GPRS sur Linux. Mais je n'ai ni le temps ni l'envie de me pencher sur cette question actuellement. Ca attendra, donc. D'autant que je vais passer assez vite au 3G. Même souci pour certains DVD, qui sont lus de façon trop sacadée. En revanche, les [formats vidéos OGG->http://fr.wikipedia.org/wiki/Ogg] ne sont lisibles que sur mon Linux. Et j'en ai de plus en plus. Niark niark. J'ai aussi un petit souci avec l'intégration du lecteur PDF dans Firefox. Il affiche systématiquement une page blanche en lieu et place du fichier lui-même. Je contourne le problème en sauvant les PDF dans mon dossier /home/sjomann/tmp/, puis en les ouvrant, mais je préfèrerais une meilleure intégration avec mon navigateur. Ce problème n'existait pas au début. Je soupçonne un conflit entre divers outils de lecture PDF. Je me pencherai là-dessus. Je suis de plus en plus convaincu que les freeze de mon poste fixe sont dûs à la carte vidéo. Dell devrait venir la remplacer lundi. Ma grande impatience, à présent : utiliser OpenOffice.org, version 2 (il vient de sortir) comme un véritable outil de productivité, et pas comme un simple éditeur de texte. Photo par l'Association Européenne du Bambou [AEB->http://www.aebfrance.com/utilisations-artisanat/b-10.html].
2005-10-23 09:31:56
http://
Programme du colloque E-Formes _ 4, 5 novembre _ Bibliothèque municipale de Saint-Etienne Organisation : Alexandra Saemmer, Monique Maza, Bruno Scoccimarro, Philippe Georjon 4 novembre 9-12.30 h Luc dall'Armellina, Ecole des Beaux-Arts Valence, Université Paris 13 _ De quelques e-formes d'écritures Monique Maza, Université de Saint-Etienne _ Données "texte" données "sensibles" dans le récit audiovisuel interactif Nathalie Wourm, Université de Londres _ Le mouvement dans la poésie visuelle sur support numérique Philippe Boisnard, Université d'Artois _ Le retournement des présupposés de la diffusion littéraire à partir de l'analyse du spampoetry 14-18 h Philippe Bootz, Paragraphe, Université Paris 8 _ Poésie électronique : la littérature dépasse-t-elle le texte ? Gregory Chatonsky, web-artiste _ Variables informatiques et variations esthétiques Constance Krebs, Université Paris 3 _ Archaïsme et nouveauté, étude de cas Lionel Ruffel, Université de Toulouse _ Littérature numérique et régimes de fiction __________________________________________________ Soirée performance/lecture : à partir de 20.30 avec XLR Project, Philippe Boisnard, Gregory Chatonsky, Marc Veyrat ________________________________________________________ 5 novembre 9-12.30 h Marc Veyrat, Université de Savoie, G-SICA, IREGE _ Toto l'i-magot : PiM's, Patchs et i-mails Martial Martin, IUT de Troyes _ L'irruption d'une nouvelle forme narrative : les « alternate reality games » Guënael Séauve, CELEC, Université de Saint-Etienne _ Un Exemple d'hypermédia : les jeux vidéo Céline Fréchard, Université de la Méditerranée – Aix-en-Provence _ Pratique de lecture de l'usager dans son interaction avec le document numérique 14-18 h Bruno Scoccimarro, Université Lyon 2 _ Le récit numérique à la frontière de la disparition Alexandra Saemmer, Université de Saint-Etienne/Université Lyon 2 _ Figures de style électroniques Serge Bouchardon, Université de Technologie de Compiègne _ Le récit littéraire interactif Sandrine Lascaux, Université du Havre _ E-formes, une poétique de l’illimité Animations graphiques : Sylvain Vallier et Nicolas Pelurson Affiche et programme : Bruno Scoccimarro Partenaires : La Bibliothèque municipale de Saint-Etienne, le CIEREC de l'Université de Saint-Etienne, La Ville de Saint-Etienne, Le Crédit Mutuel Enseignant.
2005-11-03 18:41:37
E-formes
http://www.20six.fr/E-Formes/
Du 14 au 19 novembre 2005 La Maison des Sciences de l'Homme - Paris, Fondation reconnue d'utilité publique, participera au prochain Sommet Mondial de la Société de l'Information à Tunis en novembre 2005. "Le Sommet mondial sur la société de l’information offre à tous les principaux décideurs une occasion exceptionnelle de se rassembler pour essayer de mieux comprendre cette révolution et ses incidences sur la communauté internationale. Ce Sommet réunit des chefs d’Etat, des chefs de secrétariat des institutions spécialisées des Nations Unies, des dirigeants du secteur des télécommunications, des organisations non gouvernementales ainsi que des représentants des médias et de la société civile". [->http://www.smsitunis2005.tn/]. En tant que représentant de la société civile, la Fondation MSH présentera des programmes en sciences humaines et sociales dans l’aire méditerranéenne et témoignera de ses initiatives portant notamment sur les usages des Technologies de l'Information et de la Communication [->http://www.msh-paris.fr]. EXPOSITION ICT4ALL TUNIS 2005 : Fondation MSH Paris Différents programmes portés par la Fondation Maison des Sciences de l’Homme - Paris donneront lieu à des démonstrations sur l'exposition : ICT4ALL à TUNIS du 15 au 19 novembre 2005 Fondation MSH Paris - Stand 1212 - espace Partenariat et Développement ainsi que sur le Pavillon France [->http://www.ict4all-tunis.org/] - Le programme de coopération euro-méditerranéen STRABON (2002-2006), coordination MSH-DEVAR (Diffusion, Expérimentation, Valorisation de la Recherche) financé par la Commission européenne (initiative EUMEDIS 3/MEDA), représente un Consortium de 19 partenaires de 12 pays méditerranéens réunis autour du thème "Système d'information multilingue et multimédia pour le patrimoine culturel et le tourisme euro-méditerranéens". Ce programme intègre les TIC, non seulement pour valoriser les richesses patrimoniales des pays de son consortium au profit de la sphère culturelle et scientifique, mais aussi pour développer l'économie dans le secteur du tourisme. Par ses choix technologiques et l'usage de logiciels libres, « STRABON » se situe résolument en faveur d'un tourisme éthique et dans une logique de développement durable. Il est actuellement dans sa phase de pérennisation avec la création de centres de documentation numérique au Maroc et en Jordanie, ou par des accords de coopération spécifiques, dont la Bibliotheca Alexandrina en Egypte. Pour information : www.strabon.org ; [->http://www.eumedis.net/fr/] - Le programme TEMATIC (qui regroupe les projets Tematice - Vox Internet - Edel) est un programme de recherche sur les TIC. - Le projet TEMATICE met à la disposition des chercheurs dans les domaines de l’éducation et de la formation un annuaire dynamique, l'OAI EduTice, et un moteur de recherche Exalead. Pour information : www.tematice.fr - Le programme VOX INTERNET, projet de recherche sur "la gouvernance de l'Internet, l'état de fait et l'état de droit", saisit l'opportunité offerte par le SMSI Tunis pour éclairer les débats en cours et proposer des solutions nouvelles au maintien du caractère ouvert de l’accès à l’Internet en tant qu’instrument de connaissance et d'échange. La publication des séminaires qui ont eu lieu sur ce thème sera diffusée à l'occasion du SMSI. Pour information : www.voxinternet.fr Evénements parallèles : table-ronde « Coopération scientifique euro-méditerranéenne : réseaux et systèmes d’information » Dans le cadre des "événements parallèles" aux conférences du Sommet Mondial de la Société de l’Information Tunis 2005, la MSH organise une table-ronde sur le thème : "Coopération scientifique euro-méditerranéenne : réseaux et systèmes d'information" qui aura lieu le 15 novembre 2005(11h-13h salle Zaghouan) Aux côtés de la MSH, les responsables Tunisiens, Marocains, Egyptiens, des institutions partenaires du programme euro-méditerranéen STRABON, rapporteront sur leur coopération et les initiatives prises par leur pays (comme la création des centres de numérisation du patrimoine culturel) et des enjeux d’un tel programme pour les professionnels de la culture et du tourisme durable. Un représentant de la Commission européenne traitera plus largement de l’Initiative Eumedis 3, son fonctionnement et ses résultats. Des représentants des ministères français des Affaires Etrangères, de la Culture, de l’Enseignement Supérieur et de la Recherche – qui sont associés aux programmes de la MSH – mettront en perspective les initiatives des pouvoirs publics sur le thème de la table ronde. Interviendront également les responsables scientifiques des programmes de recherche TEMATIC sur les usages des TIC : TEMATICE dans le secteur de l’éducation et de la formation, et VOX INTERNET sur le thème de la gouvernance de l’Internet (la publication des travaux de ce groupe sera disponible sur le stand MSH ICT4ALL). Cette table ronde sera introduite par l’Administrateur de la Fondation MSH qui présentera le Programme MAGHREB dont la mission est de faire travailler ensemble les chercheurs algériens, marocains, tunisiens et français autour de thématiques fondamentales pour nos sociétés contemporaines, de développer la formation à la recherche, la mobilité des chercheurs et des enseignants, et l'information scientifique sous ses différentes formes. [->http://www.fsp.maghreb-france.msh-paris.fr/presentation.htm]. Pour information complémentaires sur la table ronde : [->mailto:contact@strabon.org] Musée de Carthage : Exposition « Archéologie sous les mers, techniques et recherches » Extérieurement au Sommet Mondial de la Société de l’Information Tunis 2005, l’exposition : "ARCHEOLOGIE SOUS LES MERS, TECHNIQUES ET RECHERCHES", prendra place au Musée de Carthage et sera inaugurée le 14 novembre 2005 à 16h en présence du Ministre tunisien de la Culture. Cette exposition est le fruit d'une coopération scientifique de la Fondation Maison des Sciences de l’Homme Paris avec le ministère français de la Culture, le Département des Recherches Subaquatiques et Sous Marines(DRASSM), le ministère de la Culture tunisien et l’Institut National du Patrimoine tunisien. Sur le site de l’exposition, il sera possible de naviguer sur le portail STRABON. Cette possibilité sera également offerte sur le stand MSH dans le cadre de ICT4ALL. [->http://www.culture.gouv.fr/culture/archeosm/fr/fr-act-org1.htm]
2005-11-03 18:53:01
ICT4ALL
http://www.ict4all-tunis.org/
<P> L'association IRIS (Imaginons un réseau Internet solidaire) assure la co-responsabilité du caucus des droits de l'homme, formé par plus de 60 organisations de la société civile participant au Sommet mondial sur la société de l'information (SMSI). IRIS avait créé ce caucus en juillet 2002, dès la fin de la première conférence préparatoire (prepcom) de la première phase du SMSI. <P> Actif durant tout le processus du SMSI, y compris par ses actions de soutien à la société civile tunisienne indépendante, le caucus des droits de l'homme co-organise, avec d'autres ONG, le Sommet citoyen sur la société de l'information (SCSI), qui se tiendra à Tunis, du 16 au 18 novembre 2005, coïncidant avec le SMSI. Ce Sommet citoyen a un double objectif, d'une part adresser un message fort de soutien et de solidarité de la société civile internationale à la société civile et aux citoyens tunisiens, d'autre part traiter des principales questions débattues au SMSI, du point de vue des groupes de citoyens et du public. Une première annonce du Sommet citoyen, avec un appel à soutien, est rendue publique aujourd'hui par le comité international d'organisation du SCSI. <P> D'autre part, mécontent du processus de sélection des orateurs de la société civile au SMSI, et du résultat de ce processus largement noyauté par des organisations proches du gouvernement tunisien, le caucus des droits de l'homme a décidé de proposer directement au secrétaire général du SMSI, le secrétaire général de l'UIT Yoshio Utsumi, sa propre candidate comme oratrice de la société civile à la cérémonie d'ouverture du Sommet de Tunis. Shirin Ebadi, prix Nobel de la paix 2003, a ainsi été officiellement proposée le 12 octobre 2005 par le caucus. Shirin Ebadi, préalablement sollicitée par la FIDH, un membre du caucus droits de l'homme, avait donné son accord. Cette proposition a reçu un très large soutien des organisations de la société civile participant au SMSI : 20 caucus thématiques et régionaux, 35 organisations internationales et régionales, 42 organisations nationales. Le 20 octobre 2005, le secrétaire général du SMSI a accepté Shirin Ebadi comme oratrice de la société civile à la cérémonie d'ouverture du SMSI. <P> <B>Pour plus de détails, voir, sur le site web du caucus du caucus droits de l'homme:</B> <P> <B>- Sommet Citoyen sur la Société de l'Information (SCSI) - Tunis, 16-18 novembre 2005. Première annonce et appel à soutiens. Communiqué de presse SCSI du 24 octobre 2005.</B> Disponible en Français, Anglais, Espagnol, et bientôt Arabe: FR: <A HREF="http://www.iris.sgdg.org/actions/smsi/hr-wsis/csis-pr-241005-fr.html">http://www.iris.sgdg.org/actions/smsi/hr-wsis/csis-pr-241005-fr.html</A> EN: <A HREF="http://www.iris.sgdg.org/actions/smsi/hr-wsis/csis-pr-241005-en.html">http://www.iris.sgdg.org/actions/smsi/hr-wsis/csis-pr-241005-en.html</A> ES: <A HREF="http://www.iris.sgdg.org/actions/smsi/hr-wsis/csis-pr-241005-es.html">http://www.iris.sgdg.org/actions/smsi/hr-wsis/csis-pr-241005-es.html</A> <P> <B>- La rubrique "Actions", avec notamment les lettres à Yoshio Utsumi et la liste des soutiens à la nomination de Shirin Ebadi:</B> <A HREF="http://www.iris.sgdg.org/actions/smsi/hr-wsis/#7">http://www.iris.sgdg.org/actions/smsi/hr-wsis/#7</A> <P> <B>- La rubrique "Documents", avec notamment les déclarations du caucus des droits de l'homme aux plénières gouvernementales de la prepcom3 de septembre à Genève (déclarations sur les droits de l'homme et la gouvernance d'Internet ainsi que sur Internet et le terrorisme):</B> <A HREF="http://www.iris.sgdg.org/actions/smsi/hr-wsis/#9">http://www.iris.sgdg.org/actions/smsi/hr-wsis/#9</A> <P>
2005-11-03 18:58:10
IRIS
http://www.iris.sgdg.org/info-debat/comm-caucusddh1005.html
Les ados sont en train de produire massivement des contenus culturels. C'est la conclusion à laquelle arrive le Pew Internet & American Life Project dans une [récente étude->http://www.pewinternet.org/PPF/r/166/report_display.asp]. 57% des adolescents branchés selon l'étude ont déjà publié un contenu en ligne d'une manière ou d'une autre. On relève une nette prédominance des filles au sein de cette population. De la même manière, les blogueurs semblent les plus avancés dans cette pratique qui repose en grande partie sur la culture du remix. Rebondissant sur l'enquête, le New York Times, livre [une enquête->http://www.nytimes.com/2005/11/03/business/media/03teens.html] sur ces jeunes créateurs de contenus et montre bien comment l'ensemble du phénomène repose sur une appropriation spontanée des outils techniques : «Whether bloggers like Brendan and Melissa consider themselves at the vanguard of change, however, is an open question. To many of them, they are just tinkering with the toys that the digital revolution has put before them. "I taught myself how to use the Internet," Melissa said of her Web site and her photo slide shows, "so basically it was just a step-by-step process that clicked into my head. I just read directions and that's how I set it up. Pretty simple.»
2005-11-04 08:17:49
Teen Content Creators and Consumers
http://www.pewinternet.org/PPF/r/166/report_display.asp
Lu dans [Open Access News->http://www.earlham.edu/~peters/fos/2005_10_30_fosblogarchive.html#113120166634724437] : Les fonctions de recherche avancée du moteur Google permettent désormais de filtrer les résultats de recherche selon les termes de la licence qui y est appliquée. On a le choix entre une absence de filtrage (par défaut), afficher seulement les contenus qui autorisent une forme de réutilisation, ou n'afficher que les contenus authentiquement libres. Google est ainsi le deuxième moteur de recherche généraliste, après Yahoo! à prendre en compte les déclarations RDF associées aux contenus publiés sous licence Creative Commons.
2005-11-05 18:50:38
Google Advanced search
http://www.google.com/advanced_search
On le lit partout : Amazon s'apprête à lancer deux nouveaux services permettant, d'une part de lire en ligne plusieurs pages d'un ouvrage en achetant seulement les pages jugées intéressantes (Amazon pages), ou d'autre part d'acheter la version numérique d'une ouvrage papier commandé via le site du libraire en ligne (Amazon upgrade). Il faut lire [l'article du New York Times->http://www.nytimes.com/2005/11/04/technology/04publish.htm] qui insiste à juste titre sur la dimension concurrentielle de ces initiatives par rapport à celle de Google relative à la numérisation des livres. Il est loin d'être exclu, selon les termes de l'article, que Google print, dont le modèle économique ne reposerait plus seulement sur la publicité, fasse bientôt de même. Un bel affrontement en perspective, dont le livre en tant qu'objet et unité éditoriale fera sans aucun doute les frais.
2005-11-05 20:05:02
Want 'War and Peace' Online? How About 20 Pages at a Time?
http://www.nytimes.com/2005/11/04/technology/04publish.htm
Après le «[sarkospam->http://www.sarkospam.net]», ce courrier électronique non sollicité envoyé à des milliers de personnes afin de les inciter à soutenir le ministre de l'intérieur, ce dernier fait l'objet d'une campagne d'un genre nouveau, par l'intermédiaire des liens publicitaires Adwords. C'est le portail Rezo.net qui attire l'attention sur le phénomène, via [deux récentes dépêches->http://rezo.net/sources/surlenet]. Il suffit en effet de lancer sur Google une recherche [sur le mot «banlieues»->http://www.google.fr/search?hl=fr&q=banlieues&btnG=Rechercher&meta=] pour voir apparaître un lien sponsorisé pour le moins étonnant : « _ Emeutes en banlieues _ Soutenez la politique de Nicolas _ Sarkozy pour rétablir l'ordre _ www.u-m-p.org » peut-on lire dans la zone ad hoc. Une recherche sur le mot [«émeutes»->http://www.google.fr/search?hl=fr&q=%C3%A9meutes&btnG=Rechercher&meta=] renvoie le même résultat. Il faut peut-être se garder de toute conclusion hâtive. On rappellera par exemple que n'importe qui peut acheter des liens sponsorisés sur tous les sujets et donc que toutes les manipulations sont possibles. Il reste que le personnage nous a déjà habitués à la mise en oeuvre de méthodes de marketing politique pour le moins directes. Si l'opération était confirmée comme volontaire de la part du parti qu'il dirige, on assisterait donc à une première dans le paysage politique français, mêlant communication politique, publicité commerciale et nouvelles technologies en réaction à des événements graves. Pas sûr que la démocratie gagne quelque chose de ce brouet.
2005-11-05 23:13:41
Rezo.net
http://www.rezo.net
L'URGENCE : décembre 2005 LES RISQUES : des restrictions abusives aux libertés publiques au profit exclusif de quelques monopoles économiques et financiers LA MOBILISATION CITOYENNE : pour défendre la libre diffusion de l'information et de la connaissance, pour s'opposer au verrouillage généralisé de la culture et de la connaissance. nov.05-le gouvernement français a déclaré l'urgence sur le projet de loi DADVSI (Droits d'Auteur et Droits Voisins dans la Société de l'Information – n°1206), censé transposer la directive EUCD (European Union Copyright Directive – 2001/29CE). Ce projet de loi doit être examiné en décembre 2005 par le Parlement au cours de deux séances de nuit rapprochées. Si ce projet est adopté en l'état, des conséquences sociales, économiques, stratégiques et démocratiques seraient majeures et irréversibles. Ces conséquences frapperont tout utilisateur de données numériques dans sa sphère privée, personnes physiques et morales (associations, sociétés, administrations). Concrètement, le projet DADVSI verrouille juridiquement les dispositifs anti-copie sur tout support numérique : ces dispositifs seront crées, déployés et contrôlés selon des critères arbitraires par les seuls industriels du disque, du film et du logiciel propriétaire, ces dispositifs permettront de surveiller et contrôler les pratiques numériques de tout utilisateur, ces dispositifs permettront d'interdire à distance tout accès aux oeuvres et toute utilisation des matériels numériques et électroniques, toute personne contournant, de manière directe ou indirecte, un dispositif sera présumée coupable du délit de contrefaçon (3 ans de prison et 300.000 euros d'amende), cette sanction s'appliquera à toute personne 'non autorisée' qui communiquera de manière directe ou indirecte sur les dispositifs anti-copie (analyses et études de sécurité informatique, promotion de logiciels libres, etc), cette sanction s'appliquera au fait de développer, de présenter ou d'utiliser un logiciel libre ou un logiciel autre que celui choisi (et vendu) par l'éditeur. L'urgence est réelle, le débat démocratique est confisqué, la manoeuvre ne doit rien au hasard, et toutes ces informations sont vérifiables. EUCD.info surveille et dénonce cette situation depuis 2002. La FSF france soutient activement cette initiative depuis 2002. Plusieurs acteurs s'opposent à cette tentative de restriction abusive des libertés numériques au profit exclusif de quelques entreprises multinationales : - associations d'auteurs et d'utilisateurs de logiciels libres : FSF-France, AFUL, APRIL, ALDIL, FRAMASOFT ... - associations d'internautes : ODEBI, ADA - sociétés de gestion collective représentant 25.000 artistes : ADAMI, SPEDIDAM, SAIF ... - syndicats d'artistes : SAMUP, SNAP-CGT, SNEA-UNSA, SNM FO ... - associations de photographes : UPC ... - associations de musiciens et d'artistes : Art Libre, Creative Commons France, MUSIQUE-LIBRE.org, UMJ, QWARTZ ... - associations de consommateurs : UFC,-que choisir, CLCV ... - associations de familles : UNAF ... - associations de bibliothécaires : AAF, ABF, ACIM, ADBDP, ADBGV, ADBS, ADBU, ADDMB, AIBM, FFCB ... - associations d'enseignants : Ligue de l'enseignement ... Une action collective est nécessaire et urgente, dès aujourd'hui. Tous les éléments de compréhension des enjeux sont réunis dans [le dossier d'information->http://www.eucd.info/153.shtml] : ce dossier existe en [version synthétique de 20 pages->http://www.eucd.info/documents/dossier-eucd-v1-court.pdf] et en [version complète de 50 pages->http://www.eucd.info/documents/dossier-eucd-v1.pdf]. Le dossier est imprimable en format A4 et en format A5 (mini-livre) Les actions concrètes à entreprendre sont détaillées dans le dossier d'information : - s'informer, comprendre, expliquer les enjeux, - diffuser la lettre ouverte, les cartes postales, les tracts, le dossier, - relayer cet appel sur votre site/blog/irc, - participer aux actions virtuelles et réelles, en organiser d'autres, - contribuer à l'amélioration du dossier d'information : l'actualiser, le compléter d'analyses et decryptages, reprendre la mise en page et le graphisme ... - interpeller les politiques, les artistes, les personnes impliquées et concernées, - soutenir l'initiative, chacun selon ses moyens et ses compétences, - boycotter ces supports numériques, ces périphériques électroniques et ces logiciels qui amputent les libertés publiques en violant notre vie privée. COMPRENDRE/AGIR : [->http://eucd.info] forum : [->http://forum.framasoft.org] contact :[->contact@eucd.info] PROTESTEZ / DIFFUSEZ / RIPOSTEZ
2005-11-26 18:34:09
EUCD
http://www.eucd.info
<img384|left>Grâce à la sympathique guerre entre l'opérateur "historique" de téléphonie et les "nouveaux" opérateurs, j'attends une connexion haut débit dans mon nouvel appartement depuis le mois d'août 2005. Nous sommes début 2006 et je continue à galérer en bas débit... J'enrage. Par la grâce de ce voyage dans le passé, j'ai commencé par expérimenter une connexion 3G. Je n'ai même pas essayé de la faire fonctionner sur Linux et j'ai cantonné mon Dell Latitude D600 à un vieux Windows XP... En réalité, malgré les affirmations du magasin SFR le plus proche, la 3G ne passe pas dans mon appartement et est systématiquement réduite à une connexion GPRS. Ce qui me laisse sans voix. Et m'a poussé à renoncer à un tel gadget futuriste, qui doit être en haut débit sans doute sur le bitume des Champs Elysées ou bien au coeur des aéroports internationaux, mais pas dans mon quartier (pourtant en plein coeur d'une métropole). Une bonne vieille connexion RTC (vous savez, le cuivre du téléphone, qui va parfois à 56K, comme en 1998) est donc devenue mon moyen préféré de me connecter au reste du monde. Après quelques semaines de ce traitement, on pourrait s'y habituer. De là germe l'idée saugrenue de repasser sur Linux. Ben oui, Linux devrait s'en sortir parfaitement avec un modeminou, une technologie robuste, éprouvée, classique. Et bien non. Mon Ubuntu ne détecte pas mon "Conexant D480 MDC V.92 Modem". Après avoir passé, sur windows, et à la vitesse de la tortue, quelques quarts d'heures sur le web à la recherche d'une solution simple, j'ai jeté l'éponge. Et me revoici donc le gentil locataire de Bill Gates, pour quelques temps encore. Par chance, au travail, mon Ubuntu flambant neuf résiste. J'en viendrais presque à ne pas aimer les vacances.
2006-01-19 00:00:00
http://
Colloque organisé par le Collège international de Philosophie en collaboration avec le programme Vox Internet et la revue [Sens] [Public] 20 et 21 janvier 2006 / Carré des Sciences, 1, rue Descartes, PARIS, 5° L’Internet n’est pas seulement un espace communicationnel favorisant l’échange d’information, de biens culturels ou de consommation, il contribue également au redéploiement des forces sociales, économiques, ou politiques. Il semble ainsi constituer un continuum pratique allant de l’expression privée des opinions à la revendication de l’action publique, que les verrous classiques de la coutume et du droit ne suffisent plus à baliser. Bien plus, la puissance appropriative des outils informatiques fait coïncider, mais sur un mode conflictuel, la tradition du partage des savoirs et celle de la sécurité des biens ou de leur propriété. De fait, la disponibilité immédiate des oeuvres scientifiques ou artistiques et les bouleversements liés à leur mode de production pourraient profondément remodeler les processus de création, de diffusion, et d’appropriation des connaissances. Ce colloque cherche à approfondir les questions qui se posent à la jointure des contraintes objectives pesant sur les réseaux (technostructure, systèmes juridiques multiples, etc.) et des processus d’autonomisation culturelle et politique qu’ils semblent favoriser. PROGRAMME VENDREDI 20 JANVIER 2006 - AMPHI STOURDZE - PREMIERE SESSION - 9h30 : Présentation du colloque et de ses enjeux (Paul MATHIAS) « L’économie du droit » (Président de séance : Paul MATHIAS, CIPh) Attendus : De nombreux biens ou services font l’objet sur l’Internet d’appropriations jugées illicites (duplication exponentielle des fichiers musicaux, piratage informatique, intrusions plus ou moins malveillantes dans des systèmes informatiques distants, etc.) qui menacent fortement les principes classiques de la propriété privée et paraissent contribuer à une confusion du « mien » et du « tien ». Ces pratiques oscillent entre le déni de privauté et d’authentiques revendications sociales ou politiques, liées à des formes nouvelles de répartition et de d’attribution de ces biens et services. Quels sont les principes du public et du privé qu’il faudrait ici invoquer pour comprendre non pas tant les pratiques réticulaires effectives que les affordances du Réseau, c’est-à-dire la manière dont l’Internet infléchit l’ordre du mien, du tien, et du nôtre en raison même de ce qu’il est et de ce qu’il rend possible ? - 10h00 : Joëlle ZASK, Université de Provence : « L’Internet, une invitation à repenser la distinction entre public et privé » - 10h45 : Michel ROCARD, Parlement européen : « Brevets et libertés » - 11h45 : Dominique BOULLIER, Université de Rennes 2 : « Restituer le pluralisme des choix techniques pour mettre Internet en politique » VENDREDI 20 JANVIER 2006 - AMPHI STOURDZE - DEUXIEME SESSION « L’économie des savoirs » (Présidente de séance : Françoise MASSIT-FOLLEA, Vox Internet) - 14h00 : Présentation (Françoise MASSIT-FOLLEA) Attendus : Qu’il s’agisse de la recherche scientifique proprement dite ou bien des arts et de la littérature, l’importance croissante des projets collaboratifs d’une part, la disponibilité immédiate des oeuvres produites d’autre part, rompent l’unité conceptuelle de la notion d’auteur et la font dériver de la sphère traditionnelle de l’intimité intellectuelle à celle encore mal définie du partage ou de la « co-auteurité ». Et non seulement de la notion d’auteur, mais également de celle même d’oeuvre, de plus en plus assimilable à un objet universellement accessible et transformable. Il faut ainsi se donner les moyens de rendre compte d’une véritable reconfiguration des fonctions de formation et de diffusion des savoirs, ainsi que d’un remodelage des processus de la création scientifique, littéraire, musicale, etc. - 14h15 : Gérard WORMSER (ENS-LSH) : « Écrire aujourd'hui sur le gouvernement : 1759 en 2006 » - 15h00 : Jos DE MUL (Université de Rotterdam, Pays-Bas) : « From printing processes to shared knowledge » (communication en langue anglaise) - 16h00 : Éric GUICHARD (E.N.S.S.I.B.) : « L’écriture scientifique : grandeur et misère des technologies de l’intellect » - 16h45 : Olivier BLONDEAU, (I.E.P. de Paris – CEVIPOF) et Laurence ALLARD (Université Lille III) : « De la syndication à la géolocalisation, des blogs aux locative media, l'activisme entre expressivisme et devenir commun » SAMEDI 21 JANVIER 2006 - AMPHI POINCARE - TROISIEME SESSION « Le travail de l’idéologie » (Président de séance : Gérard WORMSER, ENS-LSH) - 9h30 : Présentation (Gérard WORMSER) Attendus : De la revendication privée à l’action sociale, le continuum sémantique et pratique des usages de l’Internet met à la question le sens et la portée de l’idée même de la parole qui s’y déploie et de l’action qui s’y organise. Or les valeurs traditionnelles, qu’elles soient éthiques ou juridiques, ne jouent plus ce rôle de verrou qui permet dans nos pratiques ordinaires de nous rapporter dans nos gestes et nos décisions à un système reconnu de normes régulatrices. Il importera d’examiner de quelle manière le Réseau réorganise notre rapport aux « valeurs », mais aussi de quelle manière il est également susceptible d’être lui-même, en tant que « monde », producteur de telles « valeurs » et de formes nouvelles de rationalité éthique. - 9h45 : Thierry LETERRE (Université de Versailles Saint-Quentin-en-Yvelines) : « L'acteur sur les réseaux : entre libéralisme de la sphère privée et espace de publication » - 10h30 : Geert LOVINK (Wissenschaftskolleg zu Berlin et Network Cultures) : « Introducing Organized Networks — The Quest for a Sustainable Digital Economy » (communication en langue anglaise) - 11h30 : Robert DAMIEN (Université de Besançon) : « La révolution informatique Internet : de l’état de nature au nouveau contrat social de lecture » - 12h30 : Françoise MASSIT-FOLLEA (Vox Internet) : Remarques conclusives
2006-01-03 08:41:26
Collège international de philosophie
http://www.ci-philo.asso.fr/default.asp
Manifestement, les opposants au projet de loi du gouvernement sur le droit d'auteur dans la société de l'information ont atteint une première partie de leurs objectifs : stopper l'adoption du texte et braquer les projecteurs du débat public sur la question. Rappelons que, contrairement aux souhaits du gouvernement, le texte n'a pas été adopté à la veille des fêtes par l'Assemblée Nationale. Le débat a même connu un coup de théâtre avec l'adoption d'[un amendement préparant le terrain à la mise en place de la licence globale->http://www.ratiatum.com/news2699_La_licence_globale_en_partie_adoptee_par_l_Assemblee.html][[Un dispositif légalisant l'usage de réseaux peer-to-peer par les internautes contre le paiement d'une redevance via les fournaisseurs d'accès]], contre l'avis du gouvernement et avec le soutien d'une partie des députés de la majorité. Du coup, de confidentiel qu'il était, le débat est en train de mobiliser les énergies des plus en vue du paysage politique et médiatique : les stars d'abord, qui [sont montées au créneau->http://permanent.nouvelobs.com/multimedia/20051223.OBS9855.html] pour crier au pillage. Mais [l'Alliance public-artistes->http://www.lalliance.org/pages/1_1.html] revendique à l'opposé [le soutien de 13000 artistes->http://www.lemonde.fr/web/article/0,1-0@2-651865,36-724018@51-698751,0.html]. Les spécialistes de la politique culturelle ensuite, avec les récentes prises de position de [Catherine Tasca->http://www.liberation.fr/page.php?Article=347454], puis d'[Anne Hidalgo et Christophe Girard->http://www.lemonde.fr/web/article/0,1-0@2-3232,36-724713,0.html], très remontés contre l'amendement en question, alors que [Jack Lang->http://www.lemonde.fr/web/article/0,1-0@2-651865,36-722847@51-698751,0.html], on l'aura noté, a pris la précaution d'observer une prudente neutralité par l'intermédiaire d'une tribune pour le moins embarassée. Il faudra rester attentif dans les semaines à venir car il est probable que le débat [prenne encore davantage d'importance->http://www.zdnet.fr/actualites/internet/0,39020774,39299319,00.htm] (sans y gagner nécessairement en finesse au vu de la tournure qu'il prend), en particulier à l'approche de la date de reprise des débats, le 17 janvier prochain.
2006-01-03 09:55:30
http://
Car C'est [plus de 300 000 dollars->http://creativecommons.org/support/] que l'initiative lancée par Lawrence Lessig, a réussi à rassembler cette année. Soit plus de 50 % au delà de ce qui était attendu. Les noms des centaines de donateurs, listés sur [une page spécifique->http://creativecommons.org/about/supporters], témoignent de l'importance grandissante que les licences Creative Commons prennent dans le public. Mais le soutien n'est pas seulement populaire, car des entreprises comme Red Hat, Flickr, Google, et même Microsoft ont elles aussi apporter leur contribution. Anne Marino, une des responsables de Creative Commons, [annonce donc->http://creativecommons.org/weblog/entry/5745] une année 2006 particulièrement innovante pour l'initiative et promet l'ouverture de nouveaux services pour tous ceux qui souhaitent publier leurs oeuvres sous ces licences.
2006-01-04 23:39:56
Creative Commons
http://www.creativecommons.org
L'univers numérique nous envahit, IPod, LCD, Palm, TNT, USB, … une nouvelle " culture numérique " s'installe avec ses propres codes, ses rites, ses langages, elle enthousiasme et effraie à la fois. La société informatisée peut tout lire, tout écouter, tout enregistrer, tout infiltrer, elle relie les hommes par un réseau mondial de fibres optiques et Big Brother ne semble cesser de perfectionner ses armes. Dans ce nouvel univers où les technologies convergent, les façons de faire, de percevoir et de penser sont sans cesse renouvelées. Au coeur de la civilisation numérique les cultures numériques s'installent. Une culture manipulée par les technologies, la sphère marchande et les seules logiques industrielles diront certains. D'autres sont fascinés par cette nouvelle culture qui avant tout démultiplie la créativité ; les cultures sur le réseau se rencontrent, s'entrechoquent et deviennent plus riches, plus hybrides et redécouvrent le nomadisme. Ce cycle est proposé en collaboration avec la Bibliothèque Municipale de Lyon L'entrée aux conférence est libre et ne demande pas d'inscription préalable, les rencontres auront lieu à la Bibliothèque de la Part Dieu. Mercredi 18 janvier 2005 à 18 h 30 - Les nouvelles tribus du net Pleins feux sur la blogosphère : Les blogs tout le monde en parle. Un blog peut-être perçu comme un média personnel, il offre à son auteur un miroir permanent sur ses idées et lui permet de s'adresser tous les jours à une communauté avec laquelle les débats sont ouverts. Les internautes se réapproprient la toile, du business à la culture, des sujets les plus personnels aux plus pointus, et on essaie déjà de faire de la prospective sur les Blogs2.0.. Quel est donc ce phénomène qui envahit la toile et déchaîne les passions de 7 à 77 ans ? Invités : - Loïc Le Meur, Six Appart - Sébastien Perros, AGRC - Christophe Ducamp, co-auteur de "Les Blogs" (M2 éditions) Prochaine rencontre : "Face à une presse sans Gutenberg"
2006-01-05 20:35:32
Docforum
http://www.docforum.tm.fr/acteurs/CultureNumerique2006.htm
Après avoir violemment mis en cause l'attitude de Sony BMG (accusé d'avoir farci ses disques de programmes mouchards créant de graves failles de sécurité sur l'ordinateur des auditeurs) et obtenu réparation pour les consommateurs, la célèbre association californienne des droits civiques dans le cyberespace, s'adresse maintenant à EMI Music. Ce label équipe en effet aussi les CD qu'ils distribue de systèmes de protection d'un type similaire. Or, il est interdit aux ingénieurs en sécurité informatique, en vertu du contrat de licence imposé par le label, mais aussi du DMCA, la loi américaine qui inspire le gouvernement français pour son actuel projet législatif, de chercher à identifier d'éventuelles failles dans ces systèmes. C'est pourquoi l'EFF demande publiquement, dans une lettre ouverte à EMI Music, d'autoriser les recherches sur ses dispositifs anti-copie et de promettre de s'abstenir de toute poursuite à l'encontre de ceux qui chercheraient à les étudier.
2006-01-05 20:56:11
EFF
http://eff.org/IP/DRM/emi.pdf
Cycle de conférences organisé par « Les Temps Nouveaux » Les technologies de l'information et de la communication ont bouleversé nos économies en permettant d'accélérer et de globaliser les échanges de bien matériels. Sans l'Internet, il serait probablement inconcevable de gérer de manière aussi fluide la production de biens à l'autre bout de la planète et leur acheminement vers les marchés. En plus de ce bouleversement de l'économie « traditionnelle », elles ont favorisé l'émergence de nouvelles activités commerciales fondées sur la vente d'œuvres, d'idées, de services, bref de « biens immatériels » dont la valeur n'est souvent estimable qu'indirectement. Les économies des pays dits développés sont d'ailleurs désormais dans l'ère dite « des services » : la majeure partie de leur richesse n'est plus tirée de la vente de biens matériels, tels que l'acier, mais plutôt de la commercialisation d'oeuvres de l'esprit, allant de la musique à des expertises diverses. Les spécificités des « biens informationnels », comme la possibilité technique de les copier à l'infini sans perte de qualité et pour un coût quasi-nul, sont pourtant encore trop rarement prises en compte par le logiciel des décideurs publics. La « propriété intellectuelle » est trop souvent assimilée à la propriété des biens matériels. Ce cycle de conférences vise à sensibiliser à diverses théories novatrices en la matière. Chacun des rendez-vous proposés laissera une large place à l'échange avec le public. L'invité y interviendra environ quarante minutes, le reste de la rencontre, d'une durée typique de deux heures, étant réservé à la discussion avec les participants. En plus de sa présentation générale, l'intervenant sera systématiquement interrogé sur la place qu'occupent les « biens communs » dans la société de l'information, sur les mécanismes permettant d'assurer leur production et sur les modalités de financement des innovations de rupture. Une rencontre est à ce jour planifiée : - [Le 10 janvier 2006, avec Yann Moulier-Boutang->http://www.temps-nouveaux.net/article.php3?id_article=146], économiste, Professeur à l'Université de Compiègne et à l'IEP de Paris, qui nous parlera de ses travaux sur le « capitalisme cognitif ». En soirée, de 19h à 21h au 5ème bureau de l'Assemblée Nationale, 126 rue de l'Université. Entrée libre, pré-inscription obligatoire auprès de ludovic@penet.org. Pour mémoire, une rencontre avec Philippe Aigrain a déjà eu lieu le 6 décembre dernier : [->http://temps-nouveaux.net/article.php3?id_article=149]
2006-01-06 00:14:24
Temps nouveaux
http://www.temps-nouveaux.net/article.php3?id_article=146
Depuis quelques jours, Internet connaît une nouvelle extension de nom de domaine : .cat, destinée à désigner des sites «d'individus, organisations et sociétés mettant en valeur la langue et la culture catalanes». Cette ouverture constitue une petite révolution puisque pour la première fois à notre connaissance, c'est une zone régionale et non un Etat-nation qui se voit attribué une extension de nom de domaine géographique (ou <abbr title="country code Top Level Domain">ccTLD</abbr>). Comme on le fait justement remarquer sur [Mailclub.info->http://www.mailclub.info/article.php3?id_article=0298], cette nouvelle ne concerne pas seulement la Catalogne espagnole, mais pourrait bien aussi avoir des répercussions en Languedoc-Roussillon ou en Andorre. Elle a surtout des choses de faire des émules parmi d'autres identités régionales, en France et ailleurs. Dans ces conditions, la voie semble ouverte à une multiplication des noms de domaine à l'avenir.
2006-01-06 12:17:44
ICANNwatch
http://www.icannwatch.org/articles/05/12/21/0739224.shtml
C'est le question que pose Reporters sans Frontières dans [un communiqué->http://www.rsf.org/article.php3?id_article=16110] qui commence à faire des remous aux Etats-Unis où sont basées le plupart des compagnies visées. Ainsi, depuis 2002, RSF s'est régulièrement adressé à de grandes compagnies comme Cisco, Microsoft, Yahoo!, Google pour les interroger sur leurs comportements vis-à-vis de la liberté d'expression dans des pays comme la Chine ou la Tunisie où elles sont convaincues d'avoir collaboré avec les autorités dans des actions répressives. L'organisation non gouvernementale affirme n'avoir reçu aucune réponse, si ce n'est de Google. Elle ouvre donc aujourd'hui une réflexion sur les moyens qui permettraient de s'assurer d'un comportement éthique de ce type d'entreprise quel que soit le pays où elles interviennent. RSF plaide pour la mise en place par les entreprises elles-mêmes d'une charte de bonne conduite, mais aussi, si celle-ci s'avère impossible à mettre en oeuvre, par le recours à la voie législative. [Dan Gillmor->http://bayosphere.com/blog/dan_gillmor/20060107/a_dangerous_question_0] et [Rebecca MacKinnon->http://rconversation.blogs.com/rconversation/2006/01/ethical_standar.html] ont déjà réagi : tous deux considèrent qu'il s'agit effectivement d'une bonne question. De manière prévisible, ils s'affirment toutefois très rétifs devant l'idée d'une intervention législative directe dans le comportement des entreprises.
2006-01-08 11:57:53
RSF
http://www.rsf.org/article.php3?id_article=16111
«Mozilla a annoncé aujourd'hui le lancement de Thunderbird 1.5, la dernière version de son client de messagerie complet, maintenant disponible gratuitement au téléchargement sur www.mozilla-europe.org. Reconnu pour son filtre anti-spam intelligent et ses vues personnalisables, Thunderbird a été téléchargé plus de 18 millions de fois depuis son lancement en décembre 2004. Thunderbird 1.5 est le résultat d'une année d'écoute des utilisateurs et offre une solution de messagerie sécurisée, rapide et simple d'utilisation. Avec toute une série de fonctionnalités nouvelles ou améliorées, Thunderbird 1.5 offre à ses utilisateurs une alternative gratuite et robuste", a déclaré Christopher Beard, Vice Président en charge des produits chez Mozilla Corp. "Thunderbird améliore l'utilisation de la messagerie et intègre des fonctionnalités anti-phishing pour plus de sécurité, tout en intégrant des nouvelles technologies telles que RSS (Really Simple Syndication), les rendant simples d'accès à nos utilisateurs". Thunderbird offre de nombreuses améliorations, parmi lesquelles : * Mise à jour automatique simplifiée : le nouveau mécanisme de mise à jour logicielle permettra le passage à la version suivante de façon aisée, simplifiant ainsi l'accès aux améliorations de sécurité et de fonctionnalités de Thunderbird. Thunderbird télécharge automatiquement ces petites mises à jour en arrière-plan, et propose ensuite à l'utilisateur leur installation. * Meilleur contrôle du spam et de la sécurité : Le filtre anti-spam amélioré de Thunderbird 1.5 aide les utilisateurs à bloquer les messages publicitaires non désirés. Son nouveau détecteur de "Phishing" intégré aide les utilisateurs à se protéger contre les tentatives d'escroquerie par e-mail en signalant les messages suspects. * Support amélioré de RSS et du Podcasting : Le support de RSS par Thunderbird permet aux utilisateurs de recevoir des mises à jour des fils d'actualité comme s'il s'agissait de messages, de filtrer et organiser ces mises à jour comme on le ferait pour des e-mails. Thunderbird 1.5 permet aussi aux utilisateurs d'accéder à des Podcasts via une boîte de dialogue qui offre l'accès à une application tierce telle qu'un navigateur Web ou un lecteur audio. * Productivité améliorée : Thunderbird 1.5 intègre plusieurs améliorations demandées par les utilisateurs de messagerie pour leur simplifier la tâche comme la vérification de l'orthographe à la volée, la sauvegarde automatique des messages en cours de rédaction et la possibilité de supprimer les pièces jointes des messages. Thunderbird 1.5 peut être téléchargé dès maintenant gratuitement sur www.mozilla-europe.org.»
2006-01-12 21:14:34
Thunderbird
http://www.mozilla-europe.org/
Rencontre-débat autour du projet de loi sur le Droit d'Auteurs et les Droits Voisins dans la Société de l'Information (DADVSI). Samedi 21 janvier 2006 de 15h à 18h au Carrefour numérique de la Cité des sciences et de l'industrie Les 20, 21, et 22 décembre, l'Assemblée Nationale a examiné le projet de loi 1206 relatif au droit d'auteur et aux droits voisins dans la société de l'information (DADVSI). Des députés de tous horizons politiques ont voté des amendements définissant un cadre légal au téléchargement à des fins d'usage privé. Le gouvernement a pris la décision d'interrompre l'examen du projet de loi. La reprise des débats est prévue pour le 8 février. Que s'est-il vraiment passé les 20, 21 et 22 décembre 2005 ? _Quel est l'état du texte ? _Quelles évolutions sont possibles pour que la copie privée, la libre lecture et le logiciel libre soient vraiment protégés ? _Quels recours peuvent envisager les citoyens et les organisations désireux de contribuer au débat ? Pour tenter de répondre à ces questions, l'initiative EUCD.INFO et le Carrefour numérique de la Cité des sciences et de l'industrie organisent le 21 janvier, de 15h00 à 18h00, une rencontre débat : "Le droit d'auteur dans l'environnement numérique". Programme : - de 15h00 à 16h30 : Rappel des événements passés et du contexte actuel, les membres fondateurs de l'initiative EUCD.INFO présenteront l'état du projet de loi, et les formes d'actions qu'ils envisagent. - de 16h30 à 18h00 : Débat - si vous souhaitez intervenir dans le débat, vous pouvez contacter EUCD.INFO: <contact_ AT _eucd.info>
2006-01-14 09:38:35
EUCD
http://www.eucd.info
Lorsqu'un enseignant donne des exposés à faire à ses élèves, ceux-ci font désormais systématiquement chercher leurs matériaux sur Internet, en passant par Google la plupart du temps...pour un résulat pour le moins incertain. C'est une voie intéressante que propose le Comté d'Orange en Californie, qui met à disposition des élèves des kits pédagogiques dotés de vidéos, images et sons sur la plupart des sujets abordés en classe. L'objectif est de fournir aux élèves des matériaux libres de droit qu'ils peuvent exploiter pour construire leur propre exposé multimédia. En y regardant de plus près, on se rend compte que la plupart des kits sont très légers -ils contiennent tout au plus quelques photos. Il n'en reste pas moins que l'idée est excellente et mériterait d'être davantage développée.
2006-01-15 21:09:39
Kitzu -Find, learn, create
http://kitzu.org/
Utiliser les résultats des moteurs de recherche pour mieux flairer l'air du temps. C'est ce que nous propose aujourd'hui Jean Véronis, professeur d'informatique linguistique à l'Université d'Aix-Marseille et par ailleurs auteur de l'excellent blog Aixtal, qui a conçu et met à disposition deux outils complémentaires, en collaboration avec le moteur de recherche dir.com. - [Le chronologue->http://aixtal.blogspot.com/2005/12/outil-le-chronologue.html] : permet de visualiser sous forme graphique l'évolution dans le temps de la fréquence d'emploi d'un terme (ou d'une expression) sur le Web - Le [nébuloscope->http://aixtal.blogspot.com/2006/01/outil-le-nbuloscope.html] quant à lui, permet de visualiser sous forme de nuage de mots-clés les termes associés à ceux qui font l'objet d'une requête. C'est une photographie statique du champ sémantique d'un terme. Fascinant. On attend maintenant avec impatience le "chrononébuloscope" qui serait le "film" de l'évolution dans le temps d'un nuage de mots clés associés à une requête (il suffirait d'appliquer un chronologue sur chacun des termes composant le nébuloscope d'une requête).
2006-01-15 22:00:24
Aixtal
http://aixtal.blogspot.com/
L¹interassociation Archives-Bibliothèques-Documentation, qui regroupe aujourd¹hui douze associations (AAF, ABF, ACB, ACIM, ADBDP, ADBGV, ADBS, ADBU, ADDNB, AIBM, APRONET, FFCB), publie [une FAQ (foire aux questions) pour répondre aux questions qui lui sont fréquemment posées et à quelques arguments du ministre de la Culture->http://droitauteur.levillage.org/spip/article.php3?id_article=68] Elle publie également [des extraits des débats des 20-22 décembre relatifs aux archives, bibliothèques, services de documentation et établissements d¹enseignement et de recherche->http://droitauteur.levillage.org/spip/IMG/html/extraitsdesdebats.html] ainsi que [la liste des amendements débattus ou restant à débattre relatifs aux archives, bibliothèques, services de documentation et établissements d¹enseignement et de recherche->http://droitauteur.levillage.org/spip/IMG/html/liste-amendements.html] Les débats parlementaires sur le projet de loi DADVSI (droit d¹auteur dans la société d el¹informaiton) devraient reprendre le 7 ou le 8 février. Informez-vous régulièrement sur le site de l¹interassociation où la pétition à recueilli à ce jour 6430 signatures http://droitauteur.levillage.fr
2006-01-17 19:58:02
Le site de l'interassociation
http://droitauteur.levillage.fr
La semaine dernière, le Ministère de l'Education Nationale a révoqué le proviseur d'un de ses lycées pour avoir [publié un blog où il évoquait sa vie privée, et en particulier son homosexualité->http://www.liberation.fr/page.php?Article=352068] . Le problème est que dans certains de ces billets, l'identité de l'établissement d'exercice du proviseur-blogueur pouvait être reconnaissable. D'où atteinte à la dignité de sa fonction, estime l'Education Nationale, après y avoir relevé des expressions particulièrement crues, mais dont le blogueur [refuse d'endosser la responsabilité.->http://www.liberation.fr/page.php?Article=352372] Cette nouvelle a jeté le trouble dans la blogosphère, après avoir provoqué une réaction du syndicat des chefs d'établissement (SNPDEN). [Plusieurs blogueurs se sont exprimés sur le sujet->http://padawan.info/fr/citoyen_de_seconde_zone/blogueur_de_seconde_zone.html], manifestant le plus souvent leur effroi devant une telle sanction, que beaucoup estiment disproportionnée (il s'agit de la plus lourde sanction disciplinaire qui puisse être infligée à un fonctionnaire). Plus généralement, ils s'interrogent sur les ambigüités que recèle ce nouveau moyen d'expression personnelle et l'absence de règle et de protection qui pourrait en encadrer l'usage. Pointblog publie [une interview->http://www.pointblog.com/past/2006/01/18/interview_garfieldd_proviseur_revoque_pour_cause_de_blog.htm] au cours de laquelle le proviseur s'exprime sur la sanction qu'il a reçue et le traitement de cette affaire par les médias.
2006-01-19 09:39:24
Pointblog
http://www.pointblog.com/past/2006/01/18/proviseur_revoque_les_reactions_dans_la_blogosphere.htm
Ceux qui écoutent régulièrement une des radios diffusées par Radio France le savent désormais : la plupart des émissions diffusées peuvent être [téléchargées sur un lecteur de mp3->http://www.radiofrance.fr/services/rfmobiles/podcast/aide.php] afin de pouvoir être écoutées librement, sans devoir subir les contraintes de la programmation. Cette nouvelle forme de diffusion, appelée [?podcasting] (par contraction de la marque ipod - le plus connu des lecteurs de mp3 - et du verbe to cast - diffuser) a connu ces derniers mois un succès considérable, en particulier du fait de son adoption par la marque Apple qui y a vu un levier promotionnel puissant susceptible de soutenir les ventes de son lecteur. Mais ce sont surtout les amateurs, les passionnés, de musique essentiellement, qui ont fait le véritable succès du podcasting. En France, [Audioblog->http://www.audioblog.fr/] ou [Podaufeu->http://podaufeu.free.fr/], aux côtés d'[Arte Radio->http://www.arteradio.com/home.html] constituent de véritables pionniers. Que les radios classiques, en particulier celles du service public viennent les rejoindre est le signe d'une mutation profonde à la fois des modes de diffusion, qui doivent s'adapter aux temporalités de plus en plus destructurées qui régissent la vie quotidienne des auditeurs, et en même temps de la place d'Internet, dont le découplage avec l'ordinateur est grandissant.
2006-01-22 15:37:52
Les podcasts de Radio France
http://www.radiofrance.fr/services/rfmobiles/podcast/aide.php
Un livre de Joël de Rosnay et Carlo Revelli, publié chez Fayard, 18€. «Comme en leur temps la machine à vapeur ou l’imprimerie de Gutenberg, les techniques et pratiques émergeant du nouvel Internet sont sur le point de révolutionner l’histoire de l’humanité, tant d’un point de vue économique que social ou politique. Or ni les média traditionnels, ni les dirigeants ne semblent avoir saisi l’ampleur de ces enjeux. Évoquant la naissance des blogs, des wikis ou encore des « journaux citoyens », Joël de Rosnay décrit les principes d’une économie reposant en grande partie sur des relations de pair à pair plutôt que sur la distribution de masse de contenus culturels, caractéristique des média dominés par les « infocapitalistes ». Face à ces derniers se développe un « pronétariat », classe d’usagers capables de produire, de diffuser et de vendre des contenus non propriétaires, mais aussi de permettre un accès largement gratuit à l’information. S’organisant en une seule entité, le Web peut faire émerger une intelligence et même une véritable conscience collectives. Il met ainsi en question les relations de pouvoir verticales qui régissent aujourd’hui les sphères de l’économique et du politique. Loin de proposer une vision « béate » du Net, car bien conscient des dangers d’une communication sans contrôle, Joël de Rosnay montre qu’il devient en fait un outil puissant entre les mains des citoyens pour faire naître une économie et une démocratie nouvelles. Joël de Rosnay, docteur ès sciences, ancien chercheur et enseignant au MIT (Massachusetts Institute of Technology), est aujourd’hui président exécutif de Biotics International et conseiller du président de la Cité des sciences et de l’industrie. Il est l’auteur de plusieurs best-sellers, dont Le Macroscope (Seuil, 1975), L’Homme symbiotique (Seuil, 1995) ou encore La Plus Belle Histoire du monde, avec Yves Coppens, Hubert Reeves et Dominique Simmonet (Seuil, 1996). Carlo Revelli est PDG de Cybion et cofondateur d’AgoraVox avec Joël de Rosnay.»
2006-01-22 19:28:06
Pronetariat
http://www.pronetariat.com
En marge d'une guerre des tranchées entre partisans de la licence globale et partisans de la répression et de la surprotection des droits d'auteurs, Guillaume Champeau, éditeur du site Ratiatum, publie [12 propositions et orientations->http://www.ratiatum.com/news2776_Droit_d_auteur_12_propositions_pour_sortir_du_debat.html] pour ce qui serait vraiment une réforme du droit d'auteur, et non un projet de loi sans ambition. Au menu donc : 1. Redonner au législateur national le pouvoir de sa législation 2. Raccourcir la durée de protection accordée aux ayant droits 3.Ne pas légiférer sur des angoisses et des suppositions 4. Créer un fonds public d'aide à l'enregistrement 5. Contraindre la Sacem à libérer ses auteurs 6. Encourager une concurrence entre sociétés de gestion 7. Encadrer la relation contractuelle entre auteurs et producteurs 8. Permettre à chacun de devenir distributeur de musique 9. Faire confiance aux systèmes alternatifs de distribution 10. Ne pas handicaper le développement d'Internet au profit des vieux média 11. Remettre en question la chronologie des média 12. Lever le tabou de l'obligation de dépôt des œuvres
2006-01-23 12:58:25
Ratiatum
http://www.ratiatum.com/news2776_Droit_d_auteur_12_propositions_pour_sortir_du_debat.html
«Netizen est un magazine mensuel consacré au phénomène de la prise de parole des individus sur le Web. Il a pour vocation d'aider à comprendre le phénomène des blogs et des médias citoyens. Plus globalement, il décrypte les changements induits par la généralisation de nouveaux outils d'expression et de communication (blogging, podcasting, videoblogging, moblogging, wikis, journalisme participatif...) et les usages qui en découlent. Magazine d'information et de réflexion, Netizen n'est jamais technique mais s'adresse à un lectorat large qui souhaite comprendre les enjeux et les mutations engendrés par l'Internet d'aujourd'hui et de demain.» Vendu en kiosque à partir du 26 janvier
2006-01-25 23:56:38
Netizen
http://www.netizen.fr
Après des mois d'attente fébrile, les afficionados de l'outil de PAO [Scribus->http://www.scribus.org.uk/], un concurrent très sérieux du célèbre QuarkXPress, peuvent se réjouir. Conçu au départ pour fonctionner uniquement sur système Linux, Scribus vient d'être porté pour [Windows->http://windows.scribus.net/] et [MACOS X->http://aqua.scribus.net/]. Outil très puissant de mise en page professionnelle, Scribus est un logiciel libre et gratuit, le seul, à notre connaissance, qui le soit dans sa catégorie. Scribus vient ainsi compléter la large gamme de logiciels libres disponibles pour des travaux de publication professionnelle : [Open Office->http://fr.openoffice.org/] pour la suite bureautique, [The Gimp->http://www.gimp.org/] pour le traitement de l'image, [Audacity->http://audacity.sourceforge.net/] pour le son, [Blender->http://blender.org/cms/Home.2.0.html] pour l'image 3D ou [VirtualDub->http://www.virtualdub.org/] pour la vidéo. Assurément, depuis l'émergence de ces outils, la démarche d'autopublication en amateur-professionnel, sur tous supports et sous toutes ses formes a de beaux jours devant elle. La dissémination des moyens de production intellectuelle est en marche.
2006-01-27 21:33:31
Scribus
http://www.scribus.org.uk/modules.php?op=modload&name=News&file=article&sid=112&mode=thread&order=0&thold=0
Le «journalisme citoyen», dont le journaliste Dan Gillmor s'est fait le hérault n'a pas encore trouvé son modèle économique. C'est une des conclusions que l'on peut retirer de la lettre que Gillmor écrit à ses lecteurs, pour leur annoncer la fin prochaine de Bayosphere. Employé par le Mercury News, Dan Gillmor avait eu le cran de démissionner à la suite du succès de son livre, [We the media->http://www.amazon.fr/exec/obidos/ASIN/0596007337/homonumericus-21/403-6595052-1610851], qui montrait comment les nouvelles technologies de la communication révolutionnait les mécanismes de production et de circulation de l'information. En lançant un nouveau média local, [Bayosphere->http://www.bayosphere.org], centré sur la baie de San Francisco, le journaliste voulait mettre en application les idées développées dans son livre. Intitulé «From Dan: A Letter to the Bayosphere Community», ce texte tire un premier bilan, très intéressant, de ces quelques mois d'expérience et annonce l'investissement prochain de son auteur au sein d'une nouvelle initiative, à but non lucratif cette fois, le [Center for citizen media->http://citmedia.org/blog/].
2006-01-27 22:15:58
Bayosphere
http://bayosphere.com/blog/dan_gillmor/20060124/from_dan_a_letter_to_the_bayosphere_community
Depuis plusieurs semaines, mon Ubuntu est allumé au bureau et il est infaillible. Il y avait bien un problème hardware, qui a été corrigé par une mise à jour du système. Mon Dell était décidément trop moderne. Maintenant qu'il a quelques mois d'âge, il fonctionne au poil. Je vais aller acheter un livre qui concerne très précisément Linux pour de vrai : [Ubuntu. Une distribution Linux facile à utiliser->http://framasoft.net/article4275.html] dont les amis de [Framasoft->http://framasoft.net/] ont fait un long compte rendu. Si l'éditeur a l'idée d'envoyer à Homo-numericus l'ouvrage en service de presse avant que je l'aie acheté, ce serait génial ;-)
2006-02-04 08:42:35
Ubuntu : c’est vous ? Changez de système d’exploitation et partagez un nouvel univers !
http://framasoft.net/article4275.html
[Clubic->http://www.clubic.com/article-31614-1-linux-et-windows-la-cohabitation-facile.html] vient de publier un dossier complet sur la cohabitation entre Linux et Windows. A première vue, il s'agit d'un dossier relativement complet, simple à lire et qui ne défend pas une position pro ou anti. La table des matières du dossier est éclairante : - Introduction : qu'est-ce que Linux ? - Préparer le terrain pour le nouveau voisin - Matériel : attention aux pièges - Installer Linux en toute simplicité - KDE et Gnome : deux interfaces graphiques, deux conceptions - Gnome : l'ergonomie avant tout - Les subtilités des distributions - Les logiciels : l'embarras du choix - Où trouver des logiciels ? - Windows et Linux : partager les données - Conclusion Il s'agit bien d'une initiation à Linux pour utilisateurs de Windows. Une excellente initiative.
2006-02-15 11:15:15
Linux et Windows - le dossier de Clubic
http://www.clubic.com/article-31614-1-linux-et-windows-la-cohabitation-facile.html
<img726|left>Disons-le honnêtement, parfois on aime une machine non pour ce qu'elle vous offre quotidiennement, mais pour la minuscule part de fanfreluche qu'elle vous apporte (ceci explique d'ailleurs une partie du succès d'Apple et de son kit Fisher Price nommé Mac OS). Le ronron d'un Linux qui fonctionne à 100%, ça va, ça va... mais traitement de texte, navigation, courriels et autres plages musicales ne remplissent pas une vie entière. Oui, parfois, il faut s'offrir un peu de bon temps, s'accorder quelque répis pour des billevesées aussi inutiles qu'un petit jeu pour le fiston ou un paramétrage visuellement seyant de son bureau. Alors quand j'ai vu passer The [Kuartet desktop->http://kuartetdesktop.sourceforge.net/screenshots.html], moi qui suis content de tout dans KDE, sauf de son allure (franchement grossière), je me suis dit, l'espace d'un instant: "et si je m'adonnais à ce luxe, inutile donc indispensable?". Oui, et si? Ils en diraient quoi, les hordes de Geek environants?
2006-03-16 19:03:26
The Kuartet Desktop
http://kuartetdesktop.sourceforge.net/screenshots.html
La semaine dernière, en plein débat parlementaire du projet de loi sur le droit d'auteur et les droits voisins dans la société de l'information, le Ministre de la Culture Renaud Donnedieu de Vabre annonçait la signature d'accords entre le Ministère de l'Education Nationale et les principales sociétés d'ayants droit. Ces accords visent à fixer un cadre contractuel à l'utilisation d'oeuvres protégées par le droit d'auteur dans un cadre d'enseignement et de recherche. Ils sont censés répondre aux inquiétudes des enseignants-chercheurs devant l'absence de définition d'une «exception pédagogique» au droit d'auteur dans le projet de loi proposé par le gouvernement, contrairement aux autres pays européens et -bien sûr, les Etats-Unis où ces usages sont couverts par le fair use. Depuis quelques jours, une version non officielle de ces textes est publiée sur différents sites. Il semble bien, à en juger par les réactions dans les milieux concernés, que les négociateurs du Ministère n'aient pas été tout à fait à la hauteur. C'est Jean Baptiste Soufron, chercheur associé du CERSA et conseiller juridique de la fondation Wikimedia qui a réagi le premier, dénonçant la mise en place d'une véritable [«police privée de la recherche et de l'enseignement»->http://soufron.typhon.net/article.php3?id_article=127] : les accords prévoient en effet de contraindre les établissements d'ouvrir leurs réseaux aux agents assermentés des sociétés d'ayants droit afin qu'elles vérifient la conformité de leurs pratiques avec la loi. Sur un autre plan, ce sont les enseignants d'histoire de l'art, d'art plastique ou de médiation culturelle, gros consommateurs d'oeuvres dans leur pratique pédagogique qui se révoltent. Ils estiment en effet que leurs droits sont sévèrement restreints et que les systèmes de contrôle prévus mettent en péril leur simple capacité à enseigner dans des conditions acceptables. Dans ces conditions, c'est leur mission professionnelle qui prime, estiment-ils, sur une loi et des accords qu'ils jugent absurdes ; ils [entrent donc en désobéissance civile et appellent leurs collègues à en faire autant.->http://www.politechnicart.net/exception/php/index.php] André Gunthert est chercheur et maître de conférences à l’EHESS, où il créé la chaire "Histoire et théorie du photographique" puis le Laboratoire d’histoire visuelle contemporaine (Lhivic). Sur le blog que son laboratoire publie, il estime que ces accords reviennent simplement à [jeter les études visuelle à la casse->http://www.arhv.lhivic.org/index.php/2006/03/15/130-les-etudes-visuelles-a-la-casse#co]. De son côté, il n'appelle pas à la désobéissance civile mais tire les conclusions qui s'imposent : «En tant que chercheur et enseignant en histoire visuelle, tant que ces accords seront appliqués, je recommande aux étudiants et chercheurs de renoncer à l'étude du patrimoine photographique français du XXe siècle, pour éviter de se trouver confrontés à d'inextricables difficultés dans la mise en œuvre de leur recherche comme dans sa valorisation. Je les encourage au contraire à se tourner vers des corpus libres de droits et vers les corpus américains, anglais, allemands, canadiens, etc., dont l'usage relève du fair use.» Plus récemment, l’UFR 04 d’Arts Plastiques et Sciences de l’Art de l’Université de Paris 1 a adopté à l'unanimité une motion réclamant le retrait d'un projet de loi qu'elle estime [«diamétralement opposée à la mission de l’université qui vise la transmission et le développement des connaissances»->http://www.transactiv-exe.org/archiveforum.php3?id_forum=997] De son côté, l'interassociation des archivistes, documentalistes et bibliothécaires [a calculé le coût global des montants que le Ministère s'engage à verser aux soicétés de représentants d'ayants droit->http://droitauteur.levillage.org/spip/article.php3?id_article=44] en dédommagement des usages pédagogiques et de recherche de leurs oeuvres : ils s'élèvent à près de 2 millions d'euros annuels.
2006-03-18 10:29:45
Le blog de Jean-Baptiste Soufron
http://soufron.typhon.net/article.php3?id_article=127
Du 2 au 5 Mai 2006 à Montpellier Le [réseau Ecole et Nature->http://www.ecole-et-nature.org], réseau national d'Education à l'Environnement et le réseau [Tela Botanica de la botanique francophone->http://www.tela-botanica.org], en partenariat avec [Les Ecologistes de l'Euzière ->http://www.educ-envir.org/~euziere/index.htm] et l'[APIEU ->http://apieum.org/], proposent une session de formation aux outils informatiques pour le fonctionnement en réseau coopératif. Présentation du stage Documents textes en co-publication, agendas partagés, fonds documentaires et archives photos en ligne, forums,..., les Technologies de l'Information et de la Communication, et en particulier les applications liées à Internet, ouvrent des champs pour la participation et le développement du travail collaboratif. Ces outils, disponibles sous licence logiciel libre, permettent à des utilisateurs peu techniques de rédiger et de participer à des projets collectifs via Internet. Le stage « Outils informatiques pour fonctionner en réseau » vise l'appropriation de ces techniques par des personnes souhaitant gérer des projets collectifs, animer des réseaux d'acteurs ou mener des travaux collaboratifs. [Voir le programme détaillé de la formation->http://outils-reseaux.org/wikini/wakka.php?wiki=SessioN1] Publics concernés : - Des animateurs de réseaux - Des responsables d'animations de groupes associatifs - Des responsables de projets - Des responsables TIC Objectif de la formation : - Découvrir les outils collaboratifs et leurs usages - Analyser les besoins d'un réseau, d'une structure, d'un groupe de travail en matière d'équipements TIC - Concevoir un dispositif collaboratif adapté aux besoins d'un groupe ou réseau - Animer un forum, une liste de discussion ou un logiciel d'écriture collaborative : synthèse, reformulation... - Gérer et exploiter les fonctionnalités d'écriture partagée - Utiliser un CMS (Content Management System, SPIP par exemple) pour mettre en ligne du contenu Pédagogie : Alternance entre théorie, ateliers techniques, travail sur le projet des stagiaires, échanges de pratiques. La situation de formation permet d'expérimenter le fonctionnement en réseau et l'utilisation des outils collaboratifs. Tous les cours sont mis en accès libre sur Internet sur la plateforme : [->http://outils-reseaux.org] Contenu - Quels outils pour quoi faire ? Présentation des différentes catégories d' outils (Wikini, Spip, liste de discussion...) - Droits d'auteur et biens communs : quelques bases juridiques pour publier sur le Web - Ateliers techniques : héberger un site Internet, installer par ftp, configurer avec les css, fonctionnalités avancées Wikini, rédiger un cahier des charges... Test des outils - Animation des outils collaboratifs : ce qui freine et ce qui facilite - Outils collaboratifs dans le contexte associatif : présentation d'expériences - Logiciels libres et développement durable. Inscription et conditions tarifaires, contactez : Tela Botanica Institut de Botanique, 163, rue Auguste Broussonnet, 34090 Montpellier Tel/fax : 04 67 52 41 22 - [->accueil@outils-reseaux.org]
2006-03-18 19:50:15
Outils-réseaux
http://outils-reseaux.org/wikini/wakka.php?wiki=SessioN1
Puisque l'Assemblée Nationale est parvenue au terme de ses débats sur le projet de loi DADVSI, et qu'elle s'apprête à voter solennellement [le texte consolidé->http://www.assemblee-nationale.fr/12/dossiers/ta-report/droit_auteur.pdf] dans les prochains jours, il est désormais possible de faire un point sur les principales dispositions qu'il comporte. 1. Le téléchargement d'oeuvres protégées via les réseaux P2P est sanctionné, mais dépénalisé ; le téléchargement, lorsqu'il est constaté, est passible d'une amende de 30€; la mise à disposition (qui va de paire sur ce type de réseaux) de 150€. 2. Le droit de copie privée est reconnu dans le principe ; il n'est pas garanti dans les faits. Le rapporteur du projet de loi, le célèbre Christian Vanneste, a en effet reconnu que les éditeurs avaient la possibilité de limiter, via les systèmes de contrôle qu'ils déploient sur leurs supports, le nombre de copies autorisées à ...0 (cas du DVD). En cas de différend entre consommateurs et éditeurs sur cette question de la copie privée, un collège de médiateurs est désigné pour trancher l'affaire. 3. Les systèmes anti-copie (DRM) sont doublement protégés par la loi : celle-ci déclare en effet criminelle l'activité de contournement de ces systèmes, et sanctionne potentiellement tout logiciel qui en serait dépourvu. Ce sont les fameux logiciels "manifestement" destinés à l'échange d'oeuvre protégées par le droit d'auteur. De nombreuses discussion sont en cours actuellement dans les milieux de la programmation logicielle pour tenter de préciser ce que signifie ce "manifestement". On rappellera en particulier que c'est cet article -issu d'une amendement qualifié d'"amendement Vivendi", qui a provoqué l'énorme mobilisation que l'on connaît contre le projet de loi ; en l'état, il fait peser une insécurité juridique importante sur le secteur logiciel. 4. L'interopérabilité est normalement garantie, puisqu'aucun éditeur d'un système de protection ne pourra s'opposer à en livrer, gratuitement, les spécifications à qui en fera la demande à des fins d'interopérabilité. 5. Les exceptions au droit d'auteur sont au nombre de 4 : elles concernent les copies "cache" nécessaire à la transmission de l'information via les réseaux, l'accès des handicapés, dans des conditions très surveillées et réglementées aux oeuvres dans des formats qui leur soient accessibles, les besoins d'archivage des bibliothèques qui voient ainsi une de leurs revendications satisfaites, et la possibilité pour la presse d'inclure à find d'information des représentations d'oeuvres se situant dans des lieux publics. L'exception à fins d'enseignement et de recherche n'a pas été retenue car elle fait l'objet d'une négociation contractuelle dont [nous avons récemment parlé->breve745]. Les autres articles, qui réaffirment l'application du droit d'auteur aux oeuvres produites par les agents de l'Etat dans le cadre de leur service tout en instituant la cession automatique des droits patrimoniaux, et celui qui instaure le dépôt légal numérique ont été votés. Au final, c'est au terme d'un débat confus, que ce texte aura été adopté. Les circonstances très particulières que son examen a connues (pressions de toutes natures sur les députés, passage en force du gouvernement au prix du respect des procédure et habitudes de l'Assemblée, désaccords profonds au sein de la majorité gouvernementale sur le sujet, déchaînement des passions de toutes sortes), tout cela n'augure rien de bon pour l'avenir. D'ores et déjà, le Parti Socialiste s'est promis, via une déclaration de son porte-parole sur ce projet de loi, Patrick Bloche, de déposer un recours devant le Conseil Constitutionnel. Avant cela, le texte doit encore être examiné par le Sénat. Beaucoup d'observateurs critiquent vertement un texte qu'ils estiment mal ficelé : maintenant le principe d'une répression du téléchargement, il ne le sanctionne pourtant pas suffisamment pour être dissuasif. Ayant rejeté le principe d'une licence globale, il ne crée pas de rémunération supplémentaire pour les auteurs. Il crée une insécurité juridique pour les créateurs et éditeurs de logiciels ; il remet en cause la pratique effective de la copie privée, ouvrant la voie à la disparition progressive de la taxe qui en est la contre-partie. Aujourd'hui, artistes médiatiques, éditeurs de disques et sociétés de gestion collective de droits doivent s'estimer satisfaits, car ils ont obtenu l'ensemble des dispositions qu'ils réclamaient. Ils auraient tort de se réjouir, car il est possible qu'ils viennent en fait de scier la branche sur laquelle ils sont assis.
2006-03-19 02:01:10
Assemblée Nationale
http://www.assemblee-nationale.fr/12/dossiers/031206.asp
Le Forum des Droits de l'Internet publie [un compte rendu et une analyse à la fois->http://www.foruminternet.org/actualites/lire.phtml?id=1029] du jugement rendu la semaine dernière par le TGI de Paris dans l'affaire opposant l'auteur du blog Monputeaux.com à la municipalité de Puteaux. Cette dernière réclamait en effet que soient sanctionnés des propos qu'elle juge diffamatoire, publiés sur ce blog. Si le blogueur a été relaxé et la municipalité déboutée de toutes ses demandes, c'est en partie, analyse le FDI, en raison de la prudence avec laquelle il a avancé ses allégations (relatives à un marché public), mais aussi parce que le tribunal a estimé que l'obligation de vérification des informations publiées est moindre pour un auteur s'exprimant en tant que personne privée (même s'il s'agit par ailleurs d'un journaliste) que pour un journaliste professionnel publiant une information es qualités. On présume que le Forum s'attarde sur cette affaire, non pas seulement parce qu'elle est médiatique (les démêlés de Monputeaux.com avec sa municipalité sont très célèbres au sein de la blogosphère), mais aussi parce qu'elle constitue un véritable cas d'école permettant à l'ensemble des blogueurs de mieux comprendre les règles d'information et d'expression qu'ils doivent respecter pour ne pas se mettre en danger. D'ailleurs, cet organisme renvoie judicieusement au guide "[Je blogue tranquille->http://www.droitdunet.fr/telechargements/guide_blog_net.pdf]" qu'elle a publié il y a peu.
2006-03-19 15:26:59
FDI
http://www.droitdunet.fr/telechargements/guide_blog_net.pdf
Communiqué de l'April : « À l'occasion de la première lecture du projet de loi DADVSI, l'APRIL et la FSF France saluent le courage politique des députés de tous bords qui ont défendu le logiciel libre et l'interopérabilité, fondements des libertés et du choix du citoyen dans la société de l'information. Cependant, malgré leurs efforts, il reste aujourd'hui un projet de loi dangereux et illégitime que les députés auront le devoir de repousser lors du vote solennel le 21 mars. Depuis des mois, de nombreux acteurs dénoncent un projet de loi aux conséquences désastreuses sur l'équilibre du droit d'auteur, les droits des consommateurs, la libre concurrence, la vie privée et le logiciel libre. Malgré des positions de principes en faveur du logiciel libre et de l'interopérabilité, le gouvernement n'avait accepté aucun des amendements pouvant réellement garantir les conditions de développement du logiciel libre, et plus largement la liberté d'entreprendre, la recherche et l'innovation. Pire, des députés UMP, suivant les directives de Nicolas Sarkozy et avec le soutien du gouvernement, ont porté les tristement fameux amendements Vivendi Universal qu'il convient d'appeler maintenant les amendements «VU/Sarkozy/Mariani/Wauquiez» [1]. Comme nous l'avons clairement démontré aux responsables politiques, ces amendements portent atteinte gravement à la sécurité du développement du logiciel libre. À l'occasion de la séance publique du jeudi 16 mars, une seconde délibération sur l'article 7 a permis le vote, par l'ensemble des parlementaires, de nouveaux amendements renforçant la protection juridique de l'interopérabilité et du logiciel libre. Cependant, les députés n'ont pas pu pousser jusqu'au bout leur volonté de protéger le logiciel libre, suite au refus du vice-président de la commission des lois d'accepter la seconde délibération demandée par le PS sur l'amendement 150 (partie pénale de l'amendement Vivendi). Ces amendements détestables rendent en effet les développeurs responsables des usages que feront les utilisateurs des logiciels de communication développés par leurs soins. Condamnerait-on Peugeot ou Renault parce qu'un véhicule de leur fabrication a été utilisé pour défoncer une vitrine ? À l'évidence, non. Ce sont les usages, et eux seuls, qui doivent être condamnés. L'ensemble du texte étant extrêmement dangereux pour le logiciel libre et la concurrence face aux monopoles qui font tout pour verrouiller le marché, nous appelons solennellement tous les députés à être présents dans l'hémicycle le 21 mars et à voter contre le projet de loi DADVSI. Au nom du patriotisme économique qui leur est cher, nous appelons l'ensemble des députés UMP à ne pas trahir leurs convictions en votant pour un projet de loi qui menace de dommages collatéraux un véritable pôle d'excellence technologique et économique français. Le logiciel libre est la chance de la France. « Et l'histoire ne repasse pas les plats ». Références [1] Amendements 150 ([->http://www.assemblee-nationale.fr/12/amendements/1206/120600150.asp]) et 267 ([->http://www.assemblee-nationale.fr/12/amendements/1206/120600267.asp]. Voir aussi l'analyse du responsable Stratégie «Technologies de Sécurité» de la société Sun Microsystems : [->http://www.eucd.info/268.shtml]. APRIL (www.april.org) L'APRIL, Association pour la Promotion et la Recherche en Informatique Libre, créée en 1996, est composée de personnes physiques et morales impliquées dans le développement de l'informatique libre et fortement implantées dans le tissu social. Elle a pour objectif de sensibiliser les entreprises, les administrations et les particuliers sur les risques des solutions propriétaires et fermées et de les informer des bénéfices offerts par les logiciels libres et les solutions basées sur des standards ouverts.»
2006-03-21 18:28:13
April
http://www.april.org
Les polémiques à propos de l'influence des moteurs de recherche et singulièrement du premier d'entre eux, Google, se multiplient. Ainsi [Kinderstart.com->http://www.kinderstart.com], un site consacré aux soins des tout-petits a vu son classement dans l'index de Google (pagerank) brusquement dégringoler, sans raisons apparente, entraînant une chute notable de sa fréquentation. Or, ce site vit sur la base de revenus publicitaires qui ont donc été réduits d'autant. Estimant qu'il y avait dommage, la société éditrice du site [a déposé plainte contre Google->http://www.mercurynews.com/mld/mercurynews/business/technology/14130373.htm], d'une part afin d'obtenir réparation, mais aussi pour obtenir des informations sur l'algorithme de classement, secret, qu'utilise le moteur de recherche. L'influence que le plus célèbre des moteurs de recherche peut avoir sur le trafic d'un site (on estime généralement que près de la moitié de la fréquentation d'un site en provient) et les variations brusques et inexpliquées du classement qu'il lui attribue fait régulièrement [l'objet de discussions->http://www.dossiersdunet.com/article618.html]. Sur le fond, Google est libre de classer ses résultats de rechercche. Mais la position dominante qui est la sienne sur son secteur, entraîne une situation malsaine, source de responsabilités qu'il n'est sans doute pas prêt à assumer. D'une certaine manière, un moteur de recherche comme [Kratia->http://www.kratia.com], qui incite ses utilisateurs à voter sur les résultats de recherche afin d'en modifier le classement, se veulent être une des réponses à cette situation, sans pouvoir faire illusion cependant. Car ce qui est important en l'occurrence, n'est pas tant le principe de classement que le poids relatif d'un moteur par rapport à ses concurrents. A cet égard, les porteurs du [projet Quaero qui se veut un contre-poids européen à Google->http://www.liberation.fr/page.php?Article=349343], devraient s'intéresser au moins autant à leur stratégie de conquête d'un public conséquent, qu'au perfectionnement de leur technologie. Les éditeurs de site Web de leur côté, pourrait peut-être réfléchir aussi à fidéliser une audience dont ils pourraient espérer qu'elle vienne les visiter autrement que par l'intermédiaire d'un moteur de recherche.
2006-03-21 19:32:20
Mercury News
http://www.mercurynews.com/mld/mercurynews/
Depuis plusieurs années, le secteur de l'édition scientifique connaît un mouvement de fond qui prend toujours plus d'ampleur. Handicapés par l'augmentation du prix des abonnements aux principales revues ainsi que par la lenteur du cycle habituel de publication, chercheurs et bibliothécaires dans plusieurs disciplines ont cherché à rendre disponibles leurs articles directement en les mettant en ligne sur le champ, sans attendre qu'il soient publiés dans la revue à laquelle ils ont été soumis. Ce mouvement, qualifié d'open access, a récemment pris de l'ampleur, en particulier à partir d'une série de rencontres entre responsables des grands organismes scientifiques [à l'Institut Max Planck de Berlin->http://www.zim.mpg.de/openaccess-berlin/berlindeclaration.html]. La prochaine session se tiendra [à la fin du mois->http://berlin4.aei.mpg.de/program_survey.html]. En France, le CNRS vient de créer auprès de son directeur général [un comité de pilotage des archives ouvertes->http://www.dsi.cnrs.fr/pre_BO/04-06/tpg/DEC060175DAJ.pdf] qui constitue sans doute un premier pas d'une coordination plus large entre les différentes initiatives existant au plan national. Tout cela est très beau, mais qu'est-ce qu'exactement l'open access, s'interroge [Richard Poynder sur son blog->http://poynder.blogspot.com/2006/03/where-is-open-access-foundation.html]. Car ce journaliste spécialisé sur les questions de propriété intellectuelle liées aux nouvelles technologies remarque que tout le monde commence à s'approprier le terme. C'est le cas en particulier des éditeurs qui imposent un embargo de six mois voire un an à la libre mise à disposition par les chercheurs des articles qu'ils publient dans leurs revues, constituant ainsi une entorse à l'esprit d'un mouvement dont les objectifs ont toujours été de rendre accessible immédiatement les résultats de la recherche. Ce ne sont pas les éditeurs qui doivent être blâmés argumente-t-il. Car pour être vivace, le mouvement de l'open access n'est pas structuré. Ainsi fait-il remarquer que contrairement au mouvement de l'open source dans le secteur du logiciel, celui-ci ne s'est jamais doté d'un organisme prenant en charge un effort de définition commune du terme, et labellisant sur cette base les pratiques éditoriales en matière de publication scientifique.
2006-03-21 20:36:46
Open and shut
http://poynder.blogspot.com/2006/03/where-is-open-access-foundation.html
Chacun peut en faire aisément l'expérience, la diffusion de contenus sur Internet est encore très souvent encapsulée en quelque sorte dans une présentation graphique rigide qui prend la forme de sites Web composés de pages Web. Ce mode d'inscription de l'information, hérité en fait des modalités de publication du papier (où c'est l'acte de fixation, définitive, sur un support qui est stratégique), est en train de s'affaiblir au profit d'une libération de plus en plus complète des contenus par rapport à leur mise en forme. Cette évolution est consubstantielle au support numérique en fait. Elle a trouvé son point d'application le plus pertinent au sein des langages dits "à balises", comme le langage html et surtout le langage xml. Celui-ci est aujourd'hui en train de rencontrer de nouveaux usages à travers la conjonction de deux phénomènes que [le journaliste Richard McManus présente sur son blog->http://www.readwriteweb.com/archives/microcontent_de.php] Read/write Web comme étant articulés entre eux : la pratique du «blog structuré» d'un côté, les microformats de l'autre. Le [blog structuré->http://structuredblogging.org/] (structured blogging) est une manière de diffuser de l'information au moyen d'un type de publication relativement libre (le blog) en qualifiant cette information au moyen de balises spécifiques. Cette qualification de l'information permet à des robots d'extraire uniquement celle qui est pertinente pour la réutiliser dans d'autres contextes (classement, republication, mélange ou corrélation avec une autre information, etc.) Le format de transmisssion de cette information qualifiée, ce sont les [microformats->http://microformats.org/wiki/hreview]. Richard McManus analyse ce phénomène comme relevant de ce qu'il appelle les «microcontenus». Pourquoi pas. Et évidemment, ce qu'il décrit constitue un développement particulier d'un phénomène polymorphe labellisé sous le titre de Web 2.0. Il existe une dimension, cependant qu'il évoque rarement et qu'il faudra bien utiliser. C'est le phénomène de convergence entre ce qu'il décrit et le basculement progressif, aujourd'hui de plus en plus nécessaire vers des formes de propriété intellectuelle qui rendent juridiquement possible la transmission, la transformation, la réutilisation des contenus. Les licences libres et licences Creative Commons sont de ce point de vue, excellement positionnées pour l'avenir.
2006-03-22 09:02:56
Read/Write Web
http://www.readwriteweb.com/archives/microcontent_de.php
Au moment où les usages des logiciels libres se diffusent dans la société, le Groupe des Écoles des Télécommunications (GET) et le Service Culture Édition Ressources pour l'Éducation Nationale (SCÉRÉN) vous invitent à participer à la 6ème édition des journées rencontres [Autour du Libre qui se déroulera sur le campus de l'ENST Bretagne (technopole Brest-Iroise) les 5, 6 et 7 avril 2006->http://www.autourdulibre.org/]. En reliant éducation au Libre, diffusion des outils et formation aux pratiques du développement du Libre, nous souhaitons croiser les regards et les pratiques des usagers, des développeurs et des formateurs, tant dans la sphère institutionnelle et industrielle que dans la société civile. La rencontre est organisée autour de 4 sessions : * Le libre dans l'éducation premier et second degré * La formation supérieure et continue au Libre * Développer du Libre : des exemples de projets phares * L'actualité du Libre : recherche, droit, législation Cette manifestation organisée en partenariat avec les acteurs de l'éducation, de l'enseignement supérieur, des collectivités locales et des associations permettra aussi de croiser les publics sur deux journées de rencontre que nous souhaitons conviviales et riches des expériences des uns et des autres.
2006-03-22 16:23:29
Autour du libre
http://www.autourdulibre.org/
[Flickr->http://www.flickr.com] est un service en ligne permettant aux internautes de partager et rendre publiques leurs photos en les chargeant sur le système. Un système très ingénieux de description de chaque photo par leur auteur au moyen de mots-clés («tags») permet de constituer des flux de photos («photostreams») par sujet, par auteur, par sujet et auteur... Extrêmement populaire, Flickr finit par constituer une véritable archive visuelle du monde contemporain qui doit faire les délices des sociologues et historiens du temps présent. L'intérêt du système est évident pour ce qui concerne les mouvements sociaux déclenchés par l'adoption du CPE qui dispose de son propre tag. [Le photostream ainsi constitué->http://www.flickr.com/photos/tags/cpe/] s'alimente à plusieurs sources : véritable coloriste, [Hugo->http://www.flickr.com/photos/hughes_leglise/tags/cpe/] présente des photos hypersaturées, parmi lesquelles une remarquable série de clowns-CRS déconstruisant par leur simple présence la terreur que provoque habituellement le déploiement de la violence d'Etat. D'autres, comme [Vincent Arsenault->http://www.flickr.com/photos/vincent_arsenault/tags/cpe/] ou [François Planche->http://www.flickr.com/photos/14224094@N00/tags/cpe/], livrent des instantanés pris de l'intérieur des manifestations, des photos ordinaires de gens ordinaires qui constituent des témoignages passionnants sur ce qui s'y passe. Et puis il y a les photos au coeur du sujet ; c'est le cas de celles qui propose [Perspikace->http://www.flickr.com/photos/perspikace/tags/cpe/page3/], qui a publié quasiment en temps réel des clichés de l'occupation de la Sorbonne, pris de l'intérieur. [Le Laboratoire d'Histoire Visuelle Contemporaine (Lhivic)->http://www.lhivic.org] de son côté, dispose depuis quelque temps déjà d'un compte sur Flickr qu'il alimente régulièrement. C'est donc tout naturellement qu'on a y a vu apparaître [des photos de l'occupation de l'Ecole des Hautes Etudes en Sciences Sociales->http://www.flickr.com/photos/lhivic/tags/cpe/] avec une série consacrés aux graffitis et banderoles qui y ont été déployées pour l'occasion. Un récent billet signé André Gunthert analyse avec pertinence [la manière dont ces photos ont été reçues par le public->http://www.arhv.lhivic.org/index.php/2006/03/31/146-occupation-de-l-ehess-reception-des-photographies].
2006-03-24 10:58:14
Flickr
http://www.flickr.com/photos/tags/cpe/
Quel est le sens de la loi sur le droit d'auteur qui vient d'être adoptée par l'assemblée ? Il semble bien que les interprétations soient contradictoires. En cause, tout d'abord, [le fameux article 7->http://www.senat.fr/leg/pjl05-269.html] qui garantit que les mesures techniques de protection mises en place par les éditeurs ne feront pas obstacle à l'interopérabilité, c'est-à-dire la capacité de lire n'importe quel contenu sur n'importe quel système, matériel ou logiciel. Concrètement, cela signifie qu'Apple, qui commercialise des morceaux de musique par l'intermédiaire de sa boutique en ligne iTunes, lisibles uniquement sur son baladeur numérique iPod, devra fournir à qui lui en fera la demande les renseignements nécessaires permettant à ces morceaux d'être lus sur n'importe quel autre lecteur. Apparemment cette décision constitue [une catastrophe pour la firme de Cuppertino->http://www.zdnet.fr/actualites/internet/0,39020774,39332900,00.htm], dont le modèle d'affaires repose essentiellement sur la vente de matériels et la construction d'un univers logiciel fermé autour de ceux-ci. A l'heure actuelle, Apple laisse croire qu'il se retirera du marché français si cet article est maintenu, tandis que Wired clame que [la France est en train de sauver la civilisation->http://www.wired.com/news/columns/0,70461-0.html?tw=wn_index_13]. Mais il existe un autre article de cette même loi qui, à l'inverse, [criminalise la création, diffusion et information concernant tout logiciel "manifestement destiné" à la communication illicite de fichiers protégés par le droit d'auteur->http://www.ratiatum.com/news2943_Le_Parlement_adopte_l_amendement_Vivendi_sur_le_P2P.html]. Cet amendement, appelé "amendement Vivendi" à cause de son inspirateur, vise en fait tous les logiciels de Peer to Peer actuellement utilisés. L'imprécision de cet amendement entraîne un risque juridique pour un grand nombre d'acteurs. L'un d'entre eux, [Ovh->http://www.ovh.com], qui est un des plus grands fournisseurs français d'espaces d'hébergements sur Internet est sur le point, [selon Ratiatum qui évoque une véritable psychose->http://www.ratiatum.com/news2970_DADVSI_la_psychose_de_l_amendement_Vivendi_commence.html], de supprimer le fichier d'installation du logiciel eMule de ses serveurs. Cette auto-censure par anticipation n'est pas nouvelle parmi les hébergeurs, qui ont eu l'occasion [en d'autres circonstances->http://www.homo-numericus.net/article78.html], de faire preuve de la même inclination. Elle fait la démonstration une fois de plus, des effets de démultiplication que peut avoir une loi mal rédigée, imprécise et attrape-tout.
2006-03-24 13:03:19
Ratiatum
http://www.ratiatum.com/news2970_DADVSI_la_psychose_de_l_amendement_Vivendi_commence.html
C'est le phénomène que décrit Michael Geist, juriste canadien spécialisé dans les questions de propriété intellectuelle, dans [un article publié conjointement par le Toronto Star et la BBC->http://www.michaelgeist.ca/index.php?option=com_content&task=view&id=1169]. Car après les blogs et le podcast, c'est le partage par les utilisiteurs de très courtes vidéso, au moyen de nouveaux services comme YouTube, Google Video et MSN Vidéo, qui est en train de se développer très rapidement. Michael Geist identifie trois types de films : les vidéos amateurs, les montages, et les extraits d'émissions de télévision que les internautes peuvent ainsi partager publiquement. Il précise que dans tous ces cas, la durée des vidéos est considérablement inférieure à la plupart de films diffusés habituellement, que ce soit dans les cinémas ou sur les chaînes de télévision. Cette explosion des usages constitue pour lui une sérieuse remise en cause du contrôle sur les contenus audiovisuels que revendiquent les diffuseurs parce qu'au moment où ils se lancent dans la mise en place de services de vidéo à la demande, ils se trouvent concurrencés par des contenus amateurs, quelquefois créés à partir de films commerciaux. Il faudra bien que les acteurs et la loi elle-même argumente-t-il, prenne acte de ce nouvel état de fait, et s'adapte à des utilisateurs qui ne veulent plus simplement consommer des vidéos, mais aussi les partager et les re-créer.
2006-03-26 00:33:40
Michael Geist
http://www.michaelgeist.ca/index.php?option=com_content&task=view&id=1169
C'est le tarif que promet [une nouvelle loi adoptée en Allemagne->http://technology.timesonline.co.uk/article/0,,20409-2100973,00.html] qui entrera en vigueur le 1er janvier 2007, selon le Times. La peine serait portée à 5 ans en cas d'usage commercial des copies illégales. Cette mesure, qui a mis en colère les associations de consommateurs, semble être inspirée par les industries culturelles allemandes qui évaluent le préjudice qu'elles subissent du fait du piratage à une diminution de leurs ventes de près de 45%. En revanche, le droit de copie privée des DVD achetés légalement semble être garanti.
2006-03-26 01:02:56
The Times
http://technology.timesonline.co.uk/article/0,,20409-2100973,00.html
Tout a démarré par un article publié dans le supplément technologie du Guardian au début du mois. Intitulé «Give us back our crown jewels» (rendez-nous les joyaux de la couronne), cet article signé de la rédaction du Guardian [s'élève contre la commercialisation par la plupart des agences gouvernementales des données (statistiques, cartographiques ou iconographiques) qu'elles produisent pour la plupart sur fonds publics->http://technology.guardian.co.uk/weekly/story/0,16376,1726229,00.html]. Cette situation absurde, jugent ainsi les signataires, revient à faire payer deux fois le contribuable qui cherche à accéder à ces données. La situation est encore plus ridicule lorsqu'on pense que dans un grand nombre de cas, l'Etat se paye à lui-même l'accès à ses propres données lorsqu'un de ses services à besoin d'utiliser celles que produit un second. Mais là n'est pas le plus grave. Car pour Charles Arthur et Michael Cross, les deux auteurs de l'article, les conséquences économiques d'une telle politique sont négatives et constituent un frein pour l'innovation. La comparaison avec les Etats-Unis, où les données obtenues par des recherches financées par l'Etat fédéral sont, par la loi, publiques, est pour eux éclairante ; car le libre accès aux données statistiques, pour prendre un exemple canonique, y a permis à des services aussi efficaces et populaires que Google Map, Microsoft MapPoint ou Yahoo Maps de se développer sur la base de mélange entre les données cartographiques fournies par ces entreprises et celles données librement par l'Etat. A l'arrivée, argumentent-ils en s'appuyant sur [une étude publiée par un représentant de l'US National Weather Service->http://www.primet.org/documents/Weiss%20-%20Borders%20in%20Cyberspace.htm], il revient moins cher à l'Etat de renoncer à commercialiser ses données, si le service qui est rendu à l'ensemble de la collectivité permet le développement d'activités économiques florissantes améliorant la situation de l'emploi et accroissant la richesse du pays. C'est manifestement sous les précédents gouvernements conservateurs que les agences gouvernementales britanniques se sont vues imposer des critères de rentabilité ou d'équilibre financier au point de devoir se comporter comme des acteurs économiques parmi d'autres intervenant sur le marché. C'est pour lutter contre une situation qu'ils jugent absurde que le Guardian s'est lancé dans une grande campagne de lobbying intitulée "Free our data", dotée depuis peu [d'un site Web et d'un blog->http://www.freeourdata.org.uk/]. Il s'agit de faire pression sur les représentants en mobilisant l'opinion publique pour réclamer une loi libérant les données publiques d'un copyright d'Etat jugé absurde et néfaste.
2006-03-26 12:34:31
Free our data
http://www.freeourdata.org.uk/
Communiqué de presse d'IRIS - 26 mars 2006 «Le décret d'application de la loi sur la sécurité quotidienne (LSQ), relatif à la conservation des données de communication, vient de paraître au J.O. du 26 mars 2006. Le gouvernement a choisi la durée maximale de rétention des données permise par la loi. Ces données seront donc conservées pendant un an par les opérateurs de communications électroniques (téléphonie et Internet). La rétention de données concerne l'identification de l'utilisateur du service et du terminal utilisé, les destinataires de la communication, la date, l'horaire et la durée de la communication, ainsi que les services complémentaires utilisés et leurs fournisseurs. Pour les services de téléphonie, les informations identifiant l'origine et la localisation de la communication sont également conservées. Ces dispositions ont été introduites initialement dans la LSQ en novembre 2001 en urgence et pour une durée limitée. Elles ont été ensuite pérennisées par la loi sur la sécurité intérieure (LSI) en mars 2003. Elles ont finalement été étendues par la loi contre le terrorisme de janvier 2006, pour permettre l'accès aux données pour les services de police. Cette même loi a aussi étendu l'obligation de rétention des données à toute personne ou organisme permettant au public une connexion gratuite ou payante au réseau, dont les cybercafés, hôtels, restaurants, et autres lieux publics. La loi française prévoit une durée maximale de rétention d'un an. En janvier 2002, la LSQ avait fait l'objet d'une plainte d'IRIS contre la France auprès de la Commission européenne pour violation de la législation européenne. Cette plainte avait été mise en attente jusqu'à la parution des décrets. Dans l'intervalle, et notamment à l'initiative de la France, l'Union européenne a adopté deux Directives, en 2002 et 2006, permettant la rétention de données par les États. La législation européenne permet à présent la rétention de données pendant une période comprise entre 6 mois et deux ans. Le gouvernement a donc fait le choix de la durée de rétention la plus longue permise à la fois par la législation nationale et européenne. Ce décret représente l'aboutissement d'une stratégie de contrôle toujours plus large de la population, dont la lutte contre le terrorisme ne constitue qu'un alibi, comme en témoigne la publication de ce décret d'application 4 ans et 4 mois après la promulgation d'une loi qui visait à lutter contre le terrorisme. La rétention des données de communication révèle l'intimité des personnes, cartographie leurs activités, et identifie les réseaux de relations tissés entre elles. Avec l'utilisation de la biométrie, de la vidéosurveillance et du fichage généralisé, elle devient partie intégrante des politiques de sécurité en France et en Europe. » Pour plus de détails, voir : - [Dossier d'IRIS sur la LSQ->http://www.iris.sgdg.org/actions/loi-sec/] : - [Dossier d'IRIS sur la LSI->http://www.iris.sgdg.org/actions/loi-si/] : - [Communiqué IRIS et al. (« Le projet de loi « anti-terrorisme » donne tous pouvoirs à la police administrative », 23-11-05)->http://www.iris.sgdg.org/info-debat/comm-loi-terror1105.html] - [Dossier d'IRIS sur la rétention de données->http://www.iris.sgdg.org/actions/retention/]
2006-03-26 23:55:48
IRIS
http://www.iris.sgdg.org/info-debat/comm-decretlsq0306.html
Traditionnellement, une institution, une entreprise de presse, un média s'adresse à un ou plusieurs publics. Un public, c'est, selon une définition classique, un ensemble d'inconnus, qui, par le biais de la circulation de discours entre eux, s'engagent dans un processus de réflexivité qui les construit en tant qu'entité. Habituellement, les publics sont bien délimités dans le temps et l'espace, ce qui a pour conséquence que ceux qui s'adressent à eux en ont une connaissance, au moins intuitive. Qu'en est-il dans les «architectures numériques», se demande Danah Boyd, étudiante et chercheuse à Yahoo! Research Berkeley ? Dans la mesure où ces architectures permettent à toutes sortes de barrières (géographiques, temporelles, psychologiques) de s'effondrer, on a affaire à des publics potentiellement illimités, sous le regard de qui tout devient transparent. Ce sont donc des [super publics constitués sur des bases permanentes et transnationales par le moyen de technologies de communication numériques qui leur permettent par ailleurs de surveiller en permanence les différentes objets de leur curiosité->http://www.zephoria.org/thoughts/archives/2006/03/22/super_publics.html]. Cette notion de super publics rend bien compte de l'effet démultiplicateur de publicité qui caractérise le réseau. Reste à en étudier les propriétés et le comportement dans un environnement où l'intimité des individus est de moins en moins préservée
2006-03-27 20:15:47
Apophenia
http://www.zephoria.org/thoughts/archives/2006/03/22/super_publics.html
EUCD.INFO annonce la création d'une [réserve numérique->http://eucd.info/reserve/] accueillant tous les Logiciels Libres menacés par le [DADVSI->http://assemblee-nationale.fr/12/dossiers/031206.asp]. Un accès libre et gratuit à cette réserve est proposé à tous les citoyens français qui peuvent ainsi utiliser ces logiciels, les étudier, les modifier et les redistribuer. La FSF France seconde cette initiative par un soutien juridique et met au défi quiconque de fermer cette réserve sur le fondement de [l'amendement VU/Sarkozy/Mariani/Vanneste->http://www.assemblee-nationale.fr/12/pdf/amendements/1206/120600150.pdf]. Le mardi 21 mars 2006, l'hébergeur français OVH[[Courrier adressé par OVH à ses clients (Tue, 21 Mar 2006 20:08:51 +0100) http://ovh.fr/ /Une loi sur les droits d'auteur et les droits voisins dans la société de l'information (dadvsi) a été votée aujourd'hui. ... Nous allons donc retirer eMule de notre miroir ... Si vous proposez en téléchargement les logiciels P2P, sachez que désormais vous risquez 3 ans d'emprisonnement et 300 000 euros d'amende. Nous vous conseillons de retirer ces logiciels de vos hébergements./]] annonçait qu'il interrompait sa diffusion du Logiciel Libre P2P eMule, par crainte de poursuites sur la base du projet de loi DADVSI. Il inaugurait ainsi le régime de terreur institué par l'insécurité juridique de la disposition [ainsi formulée->http://www.assemblee-nationale.fr/12/pdf/amendements/1206/120600150.pdf] : « Est puni de trois ans d'emprisonnement et de 300 000 euros d'amende, le fait [...] d'éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un dispositif manifestement destiné à la mise à disposition du public non autorisée d'oeuvres ou d'objets protégés ». Les partisans de ces dispositions répressives ayant manifesté sans ambiguïté leur volonté de [s'en prendre aux Logiciels Libres->http://fsffrance.org/news/article2005-11-25.fr.html], les craintes d'OVH sont compréhensibles. D'autant que la signification de « dispositif manifestement destiné à » est sujette à interprétation. Il s'agit bien du coeur du problème : la loi ainsi rédigée ne permet pas d'obtenir de certitude. Dès lors tout distributeur de logiciel permettant le transfert d'information (serveurs web, messageries...) est amené à craindre qu'un juge pense qu'il est « manifestement destiné à la mise à disposition du public non autorisée d'oeuvres ou d'objets protégés ». Afin d'enrayer cette logique, EUCD.INFO crée une réserve de Logiciels Libres qui accueille d'ores et déjà les Logiciels Libres P2P[1]. Les personnes morales ou physiques fournissant actuellement des logiciels de transfert d'information sur internet en France sont invitées à demander asile[[Demande d'asile d'un Logiciel Libre contact@eucd.info <mailto:contact@eucd.info>]] à EUCD.INFO plutôt que de recourir à l'effacement. La FSF France défendra juridiquement cette réserve, située sur le territoire français. « Il est honteux pour la France que des Logiciels Libres de transfert d'information se trouvent bannis », déclare Frédéric Couchet Président de la FSF France. « Les usages illicites doivent être punis et non les outils génériques. Nous sommes déterminés à défendre, devant une cour de justice si nécessaire, le droit de les distribuer ». Espérons que le Sénat, lors de l'examen du projet de loi DADVSI, prenne la mesure du problème et apporte les modifications nécessaires à la loi. À propos de la Free Software Foundation France La [FSF France->http://www.fsffrance.org/] est une association loi 1901 se consacrant à tous les aspects du Logiciel Libre. Pour la FSF France, l'accès au logiciel conditionne la participation des individus à la société de l'information. Par conséquent, les libertés d'utilisation, de copie, de modification et de redistribution du logiciel, telles que décrites dans la définition du Logiciel Libre, permettent une participation équitable à l'ère de l'information. Susciter l'intérêt pour ces sujets, protéger le Logiciel Libre politiquement et légalement, et libérer tout un chacun en participant au développement de Logiciels Libres sont les préoccupations centrales de la FSF France. À propos d'EUCD.INFO [EUCD.INFO->http://eucd.info/] est une initiative créée par la FSF France (chapitre français de la Free Software Foundation) dont la mission est d'informer sur les conséquences sociales et économiques de la directive européenne du 22 mai 2001 relative au droit d'auteur et aux droits voisins dans la société de l'information (surnommée EUCD).
2006-03-28 09:30:34
EUCD
http://eucd.info/reserve/
L'encyclopédie ouverte et populaire [?Wikipedia] contient-elle plus ou moins d'erreur que son homologue commerciale Britannica ? C'est le sujet de discussion qui agite le petit monde du Web depuis que le magazine scientifique Nature s'est proposé de réaliser [une sorte de concours->http://www.nature.com/news/2005/051212/full/438900a.html] en soumettant un panel d'articles choisis dans l'une et l'autre de ces publications à une série d'experts. Le résultat du test, publié par Nature, montrerait que les deux encyclopédies se tiennent au coude-à-coude, en nombre d'erreurs constatées, ce qui constitue un camouflet pour Britannica, dont le modèle économique repose quand même sur la vente d'ouvrages dont la qualité est censée être garantie par une équipe professionnelle. Il n'a fallu attendre que quelques semaines pour voir paraître [la réponse de Britannica->http://corporate.britannica.com/britannica_nature_response.pdf], démontant pièce à pièce le protocole d'évaluation mis en oeuvre par Nature, et produisant d'autres experts pour le remettre en cause. Nature a récemment [publié à son tour->http://www.nature.com/press_releases/Britannica_response.pdf] sa réponse, maintenant la validité de sa démarche. Le problème est-il là, [se demande->http://blogs.salon.com/0000014/2006/03/25.html#a1000] sur son blog Scott Rosenberg du magazine Salon ? Car d'une part, définir ce que c'est qu'une "erreur" est un préalable de ce genre de test, et un préalable ouvrant lui-même des discussions sans fins, et qu'ensuite, ce qui compte dans Wikipédia n'est pas véritablement le nombre d'erreurs qui y sont commises à un instant "t". Ce qui compte, explique-t-il, c'est bien plutôt sa capacité d'évolution et son potentiel de progression. Wikipédia n'a que 5 ans et le fait même qu'on puisse imaginer de la comparer à une institution centenaire comme Britannica est déjà une performance. Mais surtout, du fait même de son processus d'édition ouvert, Wikipédia est en train de s'améliorer en permanence et c'est cela qui fait sa force ; et c'est cela aussi qui devrait inquiéter l'Encyclopédie Britannica, qui devrait, argumente-t-il, tenter d'y apporter des réponses plutôt que de tenter simplement de défendre sa réputation sur le moement
2006-03-28 17:56:31
Scott Rosenberg's links and comments
http://blogs.salon.com/0000014/2006/03/25.html#a1000
Les techniques d'analyses de données issues d'enregistrements téléphoniques ou des communications sur Internet sont en train de franchir un pas, [selon un récent article publié dans le New York Times->http://www.nytimes.com/2006/02/25/technology/25data.html?pagewanted=all]. Selon son auteur, une poignée d'officiels accrédités par différentes agences de sécurité américaines, sont en effet récemment venus rendre visite à différentes sociétés commercialisant des logiciels d'analyses de données (data mining). L'objectif, semble-t-il, est d'être capable d'analyser non pas tellement les contenus des communications, que le récurrence de structures (fréquence, types d'interlocuteurs), de manière à, d'une part, identifier des réseaux sociaux jusqu'à présent invisibles, et d'autre part, en les croisant avec d'autres données, réussir à détecter des mouvements suspects potentiellement annonciateurs de menaces. Le problème avec ce type de démarches, précisent plusieurs analystes, est qu'elles sont frontalement contradictoires avec la moindre notion de respect de la vie privée, puisqu'il ne s'agit plus d'observer le comportement d'individus qui sont déjà suspects, mais bien d'analyser les données émises par l'ensemble de la population, comme, par exemple, celles qui concernent des milliards de conversation téléphoniques, conservées par AT&T. L'article retrace l'histoire du projet Total Information Awareness, mis sur pied par l'amiral Poindexter au lendemain du 11 septembre, et qui fut ensuite démantelé en apparence à cause du scandale qu'il provoqua sur ce plan. L'ironie du sort, apprend-on, est que ce fiasco a du même coup provoqué l'arrêt d'un programme de recherche mené par Xerox, visant à permettre aux services de sécurité d'analyser leurs données sans rien connaître de l'identité de ceux qui les émettent. Avec ce dispositif, ce ne serait que lorsqu'une structure suspecte a été détectée que cette identité pourrait être dévoilée, sous contrôle d'un juge.
2006-03-28 18:37:15
NY Times
http://www.nytimes.com/2006/02/25/technology/25data.html?pagewanted=all
L'initiative [Insight->http://www.insightshare.org/], basée au Royaume-Uni et en France vient de publier un guide de la "vidéo participative". Derrière ce terme un peu pompeux, se cache l'idée intéressante d'aider les individus et communautés locales à se saisir des technologies de vidéo numérique pour prendre la parole dans l'espace public sur tous les sujets qui peuvent les intéresser. Insight semble avoir une certaine expérience en la matière, avec la réalisation de plusieurs vidéos tournées en Asie Centrale et dans l'Himalaya, portant sur des thématiques environnementales. On peut en voir des extraits sur leur site. Ce type de démarche a une portée politique aussi. Elle vise à permettre aux communautés locales de témoigner, - en image - sur les atteintes aux droits de l'homme dont elles pourraient être victimes. [Witness->http://www.witness.org/], un autre projet de même nature, est davantage orienté sur cette thématique. Via [WorldChanging->http://www.worldchanging.com/archives/004244.htm]
2006-03-30 10:05:35
WorldChanging
http://www.worldchanging.com/archives/004244.html
Il y a quelque temps, Cyrille Fiévet [faisait remarquer->http://www.internetactu.net/index.php?p=6070] avec justesse à quel point la presse traditionnelle pouvait ignorer de manière étrange l'explosion des usages sur Internet. L'incompréhension entre anciens et nouveaux médias, semble s'être depuis un peu réduite, avec les initiatives des quotidiens Le Monde, qui offre désormais [une plate-forme d'hébergement de blogs à ses lecteurs->http://www.lemonde.fr/web/blogs/0,39-0,48-0,0.html], et dont les journalistes bloguent aussi. D'un autre côté, l'investissement important des radios de Radio-France dans [le podcasting->http://www.radiofrance.fr/services/rfmobiles/podcast/] est un élément qui permet peut-être de constater qu'une révolution culturelle est en train de s'opérer. Plus récemment, [l'échec relatif->http://gklein.blog.lemonde.fr/gklein/2006/03/photos_dactus_p.html] de l'appel à contributions lancé par Libération en direction des manifestants contre le CPE, sollicités pour envoyer leurs photos de l'événement, illustre bien le fond du problème que pose ce genre de démarche : on voit bien l'intérêt du quotidien à engager une telle démarche ; mais quel est celui du photographe amateur, qui n'est évidemment pas rémunéré pour son travail ? Avoir la satisfaction d'être "publié" sur le site d'un journal prestigieux ? Croire qu'une telle motivation puisse encore être efficace serait oublier la profonde crise de légitimité que vivent les médias traditionnels aujourd'hui. Dans ce contexte, l'initiative de la société texane Pluck, constitue une évolution intéressante : [Blogburst->http://www.blogburst.com/Public/Overview/Welcome.aspx] se présente comme un service d'intermédiation entre journaux traditionnels en ligne et blogueurs amateurs. Ces derniers peuvent s'inscrire sur Blogburst et offrir aux journaux le texte intégral de leurs billets via un fil RSS par syndication, pour republication. En contrepartie, l'affichage de la source avec un lien vers le site d'origine est garantie, ce qui devrait avoir pour effet d'accroître considérablement le trafic des blogs dont les billets ont été sélectionnées. A priori, les blogueurs ne devraient pas être rémunérés pour les contenus qu'ils mettent à disposition, dans un premier temps (ils sont rémunérés en trafic), mais la possibilité d'une véritable rémunération n'est pas à exclure dans un second temps, semble-t-il. Via [Online Journalism review->http://www.ojr.org/ojr/stories/060327bryant/] qui publie une analyse de fond sur le sujet
2006-03-30 11:42:34
Ojr
http://www.ojr.org/ojr/stories/060327bryant/
La [récente loi française sur le droit d'auteur dans la société de l'information->http://www.homo-numericus.net/breve747.html] comporte une disposition fondamentale et non négociable car imposée par des accords internationaux adoptés depuis 1996. Il s'agit simplement de protéger par la loi les dispositifs techniques qui interdisent des usages non autorisés d'un fichier soumis à droit de propriété intellectuelle. Ainsi, désormais, le simple fait d'empêcher ces «DRM» de fonctionner (ou de diffuser des logiciels qui permettent de le faire), même si cela ne conduit pas à un acte effectif de contre-façon est lourdement sanctionné. Les Etats-Unis ont appliqué dans leur propre droit cette disposition depuis 1998. La loi dite "DMCA" déclare criminels toute activité ou tout logiciel ayant pour effet de «contourner» les dispositifs anti-copie. Après 8 ans d'expérience de l'application d'une telle loi, les américains commencent à en tirer des enseignements. Les plus libéraux (au sens européen) d'entre eux critiquent maintenant ouvertement une disposition légale qu'ils estiment contraire au libre jeu de la concurrence et des mécanismes du marché. Lorsqu'on parle d'économie de marché aux Etats-Unis, on s'intéresse essentiellement à ce qui permet à de nouveaux acteurs d'innover et de proposer de nouveaux produits et services plus performants pour les consommateurs, contrairement à ce qui se passe en France où il s'agit bien davantage de protéger les intérêts économiques établis. Pour les défenseurs américains de la libre entreprise donc, le DMCA est une loi nocive parce qu'elle verrouille l'accès au marché en protégeant la domination d'acteurs installés qui s'en servent quotidiennement pour écarter de potentiels concurrents voire museler tout critique possible. C'est en tout cas la position que prend le très libéral Institut Cato qui vient de produire [une note sur ce sujet->http://www.cato.org/pub_display.php?pub_id=6025], rejoignant d'autres voies, [de tous bords->http://www.politechbot.com/2006/03/28/a-divide-among/], qui se font chaque jour plus insistantes pour mettre en évidence, en dehors de toute considération politique, le simple caractère néfaste sur le plan économique d'une telle loi.
2006-04-04 11:42:57
Cato Institute
http://www.cato.org/pub_display.php?pub_id=6025
Edition francilienne du 19 au 29 avril 2006 Ars Longa, Confluences, Mains d’Œuvres [PixelACHE / Mal au Pixel->http://www.pixelache.ac/2006/pixelache-paris/], c’est : - un festival international sur les pratiques DJ/VJ depuis 2002, - l’actualité des cultures électroniques : art, société, musiques actuelles à travers 50 projets, - un laboratoire ouvert sur les outils libres de création et d’édition électronique, - une scène pluridisciplinaire pour découvrir les recherches en cours et les formes à venir, - un rendez-vous transversal proposé par trois lieux concernés en Ile-de-France. Présentation : Le festival international PixelACHE (littéralement « Mal au pixel ») est à l’initiative d’acteurs associatifs finlandais, Piknik Frequency et Katastro.fi. Le festival trouve son origine dans l’essor des pratiques de DJing/VJing au tournant du millénaire, que les quatre éditions précédentes ont toujours cherché à mettre en relation avec les pratiques numériques et médiatiques actuelles. Accroché à Helsinki, PixelACHE circule d’année en année dans une nouvelle capitale en partenariat avec des structures locales (New York, Montréal, Stockholm, Bratislava) et arrive cette année à Paris, accueilli par Ars Longa, Confluences et Mains d’Œuvres avec la complicité également de l’Institut finlandais et de Project 101, sous le titre « Mal au Pixel ». Ce rendez-vous se construit autour des points de tensions Arts, Nouveaux Médias et Société. Il s’attache en particulier à présenter les nouvelles pratiques artistiques et citoyennes qui émergent de l’usage des outils, réseaux et autoroutes de la communication. Mal au Pixel est un événement pluridisciplinaire qui vise à rendre compte des pratiques en émergence : expériences audiovisuelles, recherches en cours dans les domaines de l’interactivité, de la communication et des médias, et des pratiques artistiques expérimentales. Le festival s’attache à présenter l’actualité de la recherche et des processus en formation au sein des cultures électroniques, au titre desquelles les médias libres, la création artistique transdisciplinaire, les pratiques musicales et audiovisuelles actuelles. Son positionnement sur les pratiques audiovisuelles, artistiques et sociétales en fait un rendez-vous singulier, où les sphères de la prospective artistique et sociétale habituellement plutôt étanches sont amenées à se rencontrer et à échanger. La programmation artistique de Mal au Pixel offre à de nombreux nouveaux acteurs de la scène artistique internationale de se rencontrer, de confronter leurs pratiques et de nouer de nouveaux réseaux. Le festival n’a pas pour volonté de présenter à ses publics les créations internationales majeures, à l’instar des festivals dominants, mais l’actualité des recherches et pratiques émergentes dans les cultures électroniques, et une prospective sur les tendances et les mutations à venir, des recherches au proche et au lointain. >> Prospection française et internationale : En prévision de l’édition de mars 2005, un premier appel fut communiqué aux réseaux artistiques nationaux et européens en octobre 2004, afin de consolider la participation d’artistes issus du territoire national, puis un second pour l’édition 2006 en juin 2005. Les entrées proposées concernent des projets finalisés ou en cours de développement : * Expérimentation électronique et interaction * Idéologie et politique des nouveaux médias * Performances sonores et visuelles * Jeu vidéo création « jouables » >> les axes du festivals * Rendez-vous citoyen : le thème de l’édition 2005-2006 du festival, le « boom dot org », vise à faire se rencontrer les nouveaux acteurs de la société de l’information et les scènes artistiques dans une unité d’espace et de temps. En moins de dix ans, la massification des nouveaux médias et des systèmes de contrôles numériques ont révolutionné les modes de cognition, individuels et collectifs. Le développement exponentiel de ces technologies et leur réappropriation par différents réseaux citoyens (communautés gravitant autour des logiciels libres et « open source », activistes et médias libres, artistes…) a définitivement transformé les processus sociétaux : mnémotechniques, langages et savoirs sont au cœur de ces mutations. Il importe aujourd’hui de dévoiler les processus des telles transformations, avec les différents publics. * Rendez-vous artistique : face au boom technologique planifié et massifié par l’industrie, les artistes accompagnent cette transformation en bousculant les déterminismes d’une société qui tend à privatiser et mystifier les outils. Chaque proposition artistique est un vecteur d’interrogation et d’émancipation, sous forme d’exposition, d’installations, de performances, d’ateliers et toutes formes de narrations interactives. Dans la rencontre avec les champs citoyens, de nouvelles articulations s’opèrent et donnent leur place à des formes hybrides, où l’art investit l’espace social et se renouvelle dans sa participation à la vie de la cité. * Rendez-vous prospectif : Le festival est un partage de savoir-faire, d’expériences et de débats pour contribuer à la diffusion de nouveaux savoirs au sein des communautés d’artistes, d’universitaires, d’ingénieurs mais aussi et surtout dans le cadre de débats et de rencontres publiques. Projets, prototypes interactifs, suites logicielles libres ou « open source » sont présentés à travers des ateliers professionnels et des séminaires ouverts à tous publics, et alimentent la réflexion sur les nouveaux usages des TIC (Technologies de l’Information et la Communication). * Rendez-vous festif : Les musiques électroniques actuelles et la création audiovisuelle conjuguent leurs talents pour imaginer de nouvelles pratiques festives. Le festival présente des émergences au sein des cultures électroniques et s’aventure dans les prototypes des expériences audiovisuelles de demain. Les publics amateurs du domaine musical sont invités à découvrir les pratiques connexes (sociales, artistiques) sur les sites du festival. >> lieux de programmation Du 30 mars au 2 avril : Pixelache à Helsinki : [->http://www.pixelache.ac] exposition et lives au Kiasma Museum of Contemporary Art, Du 8 mars au 29 avril : Institut finlandais : 60, rue des Ecoles 75005 Paris, tél. 01 40 51 89 09 – [->http://www.institut-finlandais.asso.fr] exposition d’un artiste finlandais pionnier de l’art électronique Erkki Kurenniemi et du réalisateur Mika Taanila, (8 mars - 28 avril) le 8 mars : conférence de presse Mal Au Pixel le 18 avril 2006 : ouverture officielle du festival, concert autour des instruments d’Erkki Kurenniemi Du 19 au 29 avril : Mains d’Œuvres : 1, rue Charles-Garnier, 93400 Saint-Ouen, tél. 01 40 11 25 25 – [->http://www.mainsdoeuvres.org] exposition, installations, performances, rencontres publiques : ateliers et séminaires professionnels, showcases, conférences. accueil d’une résidence internationale soirée de clôture le 29 avril. Ars Longa : 67, avenue Parmentier, 75011 Paris, tél. 01 40 24 16 64 – [->http://www.arslonga.org] Formations jeunes publics et adultes (en journée et début de soirée), Ateliers professionnels. Showcases Confluences : 190 Bd de Charonne, 75020 Paris, tél. 01 40 24 16 – [->http://www.confluences.net] Installations ateliers lives « open laptop » (scène ouverte sur inscription), lives audiovisuels (DJ/VJ) et performances. Project IOI : 31, rue de la Rochefoucault, 75009 Paris, tél. 01 49 95 95 85 – [->http://www.project-101.com] Résidence de l’équipe de Myymälä, boutique et lieu de création sonore, visuelle et de design à Helsinki. Lives les vendredis 21 et 28 avril en soirée. Mini-market les mercredis 19 et 26 avril en journée. Du 16 mars au 28 avril : Galerie Vanessa Quang : 31 rue St Roch 75001 Paris – [->http://www.galerie-quang.com] exposition “Intoxication” par HeHe (Helen Evans, Heiko Hansen)
2006-04-04 17:22:04
PixelAche
http://www.pixelache.ac/2006/pixelache-paris/
Un [éditorial du New York Times->http://www.nytimes.com/2006/04/09/weekinreview/09lohr.html] constate qu'un nombre croissant de journaux en ligne adaptent leur style rédactionnel aux contraintes de l'indexation par les moteurs de recherche. L'évolution, remarque-t-il, est flagrante pour ce qui concerne les titres d'articles ; car un titre doit normalement piquer la curiosité du lecteur, l'intriguer, parler à son imagination, afin de l'inciter à continuer sa lecture. Malheureusement, les robots (d'indexation) ne semblent pas avoir les mêmes besoins intellectuels que les humains. Ainsi, pour optimiser l'indexation d'un article, faut-il que son titre soit parfaitement explicite, qu'il contienne les mots clés stratégiques et qu'il adopte une syntaxe basique. Certains titres de presse commencent apparemment à tenter de contourner l'obstacle en pratiquant un double titrage en deux temps (un titre pour la "Une", un autre pour la page d'affichage de l'article). Et après tout, conclut le New York Times, cela n'a rien d'étonnant ; car c'est le propre de l'écriture journalistique que de savoir s'adapter aux contraintes techniques pour attirer un lectorat le plus grand possible. A lire aussi, [l'analyse de Christian Fauré->http://www.christian-faure.net/2006/04/15/britney-spears-a-eu-une-relation-sexuelle-avec-george-w-bush/] dans Hypomnemata, qui parle d'anti-texte pour évoquer ce type d'écriture.
2006-04-20 09:30:23
Hypomnemata
http://www.christian-faure.net/2006/04/15/britney-spears-a-eu-une-relation-sexuelle-avec-george-w-bush/
Le 22-24 mai prochain, le Ministère de l'Education Nationale organise à la Cité des sciences de la Villette un [colloque international consacré à l'Université à l'ère du numérique->http://www.ciuen.org/public/ciuen/]. Cet événement est destiné à faire le point sur le programme lancé en 2003 par le gouvernement, visant à créer «de grands ensembles d'enseignement sur internet, les Universités Numériques Thématiques (UNT) et les Universités Numériques en Région (UNR), destinés à généraliser les usages du numérique pour tous les étudiants et pour toutes les formations dans tous les domaines». Déclinés au cours de conférences plénières et d'ateliers thématiques, l'ensemble des questions liées à l'usage des technologies de l'information et de la communication pour l'enseignement seront abordées par un nombre considérable d'intervenants. En voici un florilège : La construction des universités numériques : un éclairage international, Opération micro-portable étudiant (MIPE) : évaluations et témoignages, Production et édition des ressources numériques, Etudier en 2020 : les UNT et UNR préfigurent-elles les systèmes d'acquisition des savoirs de demain ?, La gouvernance de l'université à l'ère du numérique, Recherche universitaire et enseignement numérique, Usages innovants du numérique : du e-learning au m-learning, etc. Attention, les droits d'inscription sont très élevés.
2006-04-20 10:13:37
CIUEN
http://www.ciuen.org/public/ciuen/
Il ne faut pas manquer de lire [l'excellent dossier->http://www.inrp.fr/vst/Dossiers/Wikipedia/sommaire.htm] que la cellule de veille scientifique et technologique de l'INRP vient de publier sur [?Wikipedia]. Au centre de [récentes polémiques->http://www.homo-numericus.net/breve764.html], la célèbre encyclopédie libre et collaborative prend une importante grandissante dans les pratiques de recherche d'information de référence des internautes. Il est aujourd'hui bien difficile d'ignorer le phénomène qu'elle représente. Pour autant, son mode de fonctionnement et les questions qu'il pose quant à la stabilité, la validation et les modes de circulation des savoirs ne sont pas simples à aborder. Long d'une trentaine de pages, le dossier publié par l'INRP est remarquable de clarté et fait utilement le point sur l'essentiel de la littérature académique produite sur le sujet. Un dossier "de référence" donc...
2006-04-20 10:26:58
L'édition de référence libre et collaborative
http://www.inrp.fr/vst/Dossiers/Wikipedia/sommaire.htm
La question de la redéfinition des droits de propriété intellectuelle à l'ère d'Internet n'est toujours pas réglé en France. Après l['épisode tragi-comique->http://www.homo-numericus.net/breve756.html] du vote du projet de loi sur le droit d'auteur et les droits voisins dans la société de l'information (DADVSI) à l'Assemblée Nationale le mois dernier, le Sénat s'est emparé à son tour de la question et les premières discussions de sa commission des affaires culturelles sont intéressantes. L'association pour les logiciels libres April [annonce en effet->http://www.april.org/articles/communiques/pr-20060418.html] que le «revolutionnaire» article 7, qui garantissait l'interopérabilité malgré les dispositifs anti-copie, et qui avait déclenché l'ire de la société Apple, serait remis en cause. A suivre donc, via le site de l'April, d'[EUCD.info->http://www.eucd.info] et, bien sûr, du [Sénat->http://www.senat.fr/dossierleg/pjl05-269.html]. En marge de la discussion législative, [on apprend via l'association des Audionautes->http://www.audionautes.net/pages/informer/communiques/voir.php?id=41], que deux personnes, poursuivies pour téléchargement illégal, viennent d'être relaxés. Il semble bien que les tribunaux qui ont eu a examiner leur cas (Paris, Créteil et Nanterre), s'inscrivant dans la récente jurisrpudence, aient considéré que le téléchargement via les logiciels de peer to peer puisse bénéficié de l'exception de copie privée. On finira cette petite synthèse sur l'actualité mouvementée du droit d'auteur en évoquant les licences Creative Commons dont le caractère effectif a été récemment reconnu par [deux tribunaux en Espagne et aux Pays-Bas->http://fr.creativecommons.org/weblog/index.php?2006/03/22/44-deux-decisions-de-justice-confirment-lapplicabilit-des-contrats-creative-commons-en-espagne-et-aux-pays-bas]. En France, la musique libre diffusé sous la protection de ces licences prend une place chaque jour plus importante. En témoigne [la reprise par la chaîne de télévision France 2 d'un de ces morceaux pour illustrer une émission->http://www.ratiatum.com/news2999_Une_musique_Creative_Commons_sur_France_2.html] ; ce qui en soi est plutôt une bonne nouvelle. La mauvaise nouvelle est que [la chaîne n'a manifestement pas respecté les termes de cette licence->http://forums.jamendo.com/be/viewtopic.php?id=4419&p=1], se plaçant ainsi en infraction du droit d'auteur. Peut-être faudrait-il, dans cette affaire, et à moins de mauvaise foi avérée, plaider pour la maladresse et la méconnaissance d'un modèle juridique dont bien peu de gens maîtrisent les implications. Cette affaire est sans doute une importance occasion pour l'artiste et les défenseurs des licences Creative Commons en France de faire preuve de pédagogie, comme cela semble être le cas .
2006-04-20 11:44:33
Creative Commons
http://fr.creativecommons.org/
Présentation de [l'événement->http://www.prix-blog-citoyen.com/] : «Grâce aux blogs et à leur facilité d'emploi, on assiste à une éclosion de l'expression sur le Web, particulièrement dans le champ de la vie locale. Nous avons créé le Prix du blog citoyen pour mettre en valeur les meilleures expériences et les bonnes pratiques de ces blogs d'expression citoyenne et locale. Le prix sera décerné, le 1er juin 2006 à l'Echangeur d'Alençon, lors des 1ères Rencontres nationales du blog citoyen» Le jury est composé de : - Alain Lambert - Stéphane Gigandet - Hubert Guillaud - Guillaume Lapaque - Christophe Grébert - Delphine Dispa - Xavier Moisant - Olivier Zablocki - Alexandre Modesto - Michel Briand
2006-04-20 12:07:22
Prix du blog citoyen
http://www.prix-blog-citoyen.com/
Vous avez déjà souhaité acheter un ordinateur sans logiciels préinstallés ? Vous avez déjà essayé de vous faire rembourser tout ou partie des logiciels fournis avec votre matériel informatique? Votre expérience (démarches, résultats) intéresse l'[UFC Que Choisir.->http://www.quechoisir.org/AppelATemoignages.jsp]. Repéré par [Da Linux French Page->http://linuxfr.org/2006/04/20/20698.html].
2006-04-22 14:56:33
Enquêe vente forcée de logiciels
http://www.quechoisir.org/AppelATemoignages.jsp
On apprend, [via le Forum des Droits de l'Internet->http://www.foruminternet.org/actualites/lire.phtml?id=1042] qu'un récent jugement rendu par le TGI de Lyon à propos d'un site incitant les consommateurs à donner leur avis en ligne sur différents produits, confirme l'application du régime juridique de l'hébergeur aux animateurs de forums de discussion, lorsqu'ils modèrent a posteriori les propos qui y sont échangés. Concrètement, cela signifie qu'un animateur de forum ne peut être attaqué pour diffamation ou injures et autres propos illicites, du moment qu'il efface ceux-ci de son forum dans un délai raisonnable. Selon le FDI, le tribunal a correctement raisonné en s'appuyant sur l'absence de fixation préalable (le message n'est pas fixé sur un support matériel via lequel il pourrait être contrôlé avant d'être rendu public) pour dégager la responsabilité de l'animateur de forum. Attention, ceci ne concerne que sa responsabilité pénale, et non civile, qui est cependant définie dans les mêmes termes par [la loi sur la confiance dans l'économie numérique->http://www.foruminternet.org/actualites/lire.phtml?id=1042]. Tout ce débat qui peut sembler un peu technique est en fait extrêmement important, car ce que vendent habituellement les [prophètes du marketing viral sur Internet->http://www.berrebi.org/], c'est le pouvoir d'influence des consommateurs via leurs recommandations. Fort bien ; mais pour que cette nouvelle relation entre vendeurs et consommateurs puisse s'établir dans des conditions équitables, il faut que les espaces de discussion où elle se construit ne soient pas soumis à un insécurité juridique. Il faut lire à ce propos [une ancienne recommandation du Forum->http://www.foruminternet.org/recommandations/lire.phtml?id=602].
2006-05-03 09:08:19
Application du régime de l'hébergeur à l'organisateur d'un forum de discussion
http://www.foruminternet.org/actualites/lire.phtml?id=1042
Le feuilleton DADVSI continue. A partir de demain jeudi 4 mai, c'est [au tour du Sénat->http://www.senat.fr/dossierleg/pjl05-269.html] d'examiner le fameux projet de loi sur le droit d'auteur et les droits voisins. Avec de nouveaux acteurs qui sont entrés dans le jeu, comme la Commission des affaires culturelles, au nom de qui le sénateur Thiollière dépose une série d'amendements. Ratiatum, qui publie sur son site [un excellent résumé des propositions de la Commission->http://www.ratiatum.com/news3033_DADVSI_l_ombre_de_la_honte_plane_sur_le_Senat_MAJ.html] multiplie les critiques : la plupart des victoires obtenues à l'Assemblée par les défenseurs des logiciels libres et des nouveaux modes de circulation des biens culturels sont remis en cause. C'est le cas en particulier du célèbre article 7 garantissant l'interopérabilité (ie la capacité de lire un un cd sur n'importe quelle machine et n'importe quel système, malgré les dispositifs anti-copie). Ironie de la situation, le Ministre de la Culture dit [aujourd'hui dans le Herald Tribune->http://www.iht.com/articles/2006/04/28/technology/itunes.php] vouloir le défendre après l'avoir combattu à l'Assemblée. Sur d'autres points, la Commission des affaire culturelles [avance ses propositions->http://ameli.senat.fr/amendements/2005-2006/269/jeu_classe.html] : suppression du Collège des Médiateurs remplacé par une autorité administrative de conciliation, suppression de l'exemption de taxe sur la copie privée pour les professions médicales, rétablissement de l'amendement Vivendi (qui criminalise tout logiciel ne disposant par de DRM) dans ses termes originels. En revanche, l'exception à fins d'enseignement et de recherche serait partiellement introduite pour la reproduction d'oeuvres courtes ou d'extraits d'oeuvres, mais contre rémunération forfaitaire des ayants droit en sus des sommes déjà versées pour la photocopie, afin de «donner des bases légales aux accords» signés en février entre le Ministère de l'Education Nationale et les sociétés de gestion des droits. Par un mouvement de balancier, l'exception dont ont bénéficié les bibliothèques à l'Assemblée, risque d'être fortement restreinte par une série d'amendements, issus de plusieurs bords, qui cherchent à la limiter de multiples manières. Petit divertissement, le sénateur Michel Charasse fait cavalier seul en proposant une série d'amendements visant à défendre une conception particulière du droit d'auteur. En témoigne l'amendement 143 qui, rappelant dans ses attendus que «le droit d'auteur est un droit de propriété», vise à garantir une indemnisation pour toute exception fixée par la loi. Le même s'attaque d'ailleurs à la notion d'interopérabilité, qu'il rejette comme émanant de ce qu'il appelle [«les intégristes du logiciel libre»->http://www.ratiatum.com/news3084_M_Charasse_denonce_les_integristes_du_logiciel_libre.html]. Avec ce nouveau débat, la mobilisation contre le projet de loi reprend de la vigueur. Le collectif Stop-DRM [appelle à manifester à la Bastille Dimanche 7 mai à 14h00->http://stopdrm.info/index.php?2006/04/27/61-marche-pour-les-libertes-numeriques-contre-les-drm-et-contre-la-loi-dadvsi-le-7-mai-a-paris].
2006-05-03 10:41:40
Stop DRM
http://stopdrm.info/index.php
«On attend toujours le grand soir...Mais si les forces politiques, sociales et culturelles qui se sont développées à l'ombre du réseau sortaient au grand jour pour coloniser le dehors ? En réponse à cette question-programme, seront présentées différentes expérimentations qui articulent internet, technologies de la mobilité, cartographies, réseaux sociaux et théatres de la rue. Ces différentes expérimentations mettent en scène un nouvel acteur politique que l'on peut qualifier d'externaute. Et si le cyberespace adaptait la rue à ses usages, venant ainsi "augmenter" la réalité ?» Séance animée par Laurence Allard, Olivier Blondeau (Université Lille 3) à l'invitation de Troisième Oeil, Mark Alizart et Géraldine Gomez. Centre Georges Pompidou, Dimanche 7 mai, 18h, niveau-1, petite salle
2006-05-03 11:10:21
Politechnicart
http://www.politechnicart.net/blog/index.php?2006/05/02/86-l-activisme-electronique-au-grand-jour-d-internet-aux-medias-mobiles-libres-grandeur-et-visibilite-de-la-politisation-du-reseau
Je n'irai pas jusqu'à dire que, désormais, Linux est un jeu d'enfant et que la migration vers l'OS libre, en provenance d'un OS propriétaire, peut se produire en dix secondes chrono. Mais tout de même, il faut noter que j'ai installé la dernière version (dite instable) d'Ubuntu ([dapper drake)->https://wiki.ubuntu.com/DapperDrake] sur mes deux PC en un week-end: mon vieux Dell Dimension 2400 et mon tout neuf Sony Vaio TX2. <doc1063|left>Et, croyez-le ou non, j'ai installé et configuré ces machines comme un utilisateur basique. Bien entendu, désormais, j'ai quelques notions. Mais si peu! Et je me sers de ces machines, depuis, avec plaisir et confort. J'ai presque tous les raffinements dont j'ai besoin, c'est-à-dire du son et de l'image très bien adaptés à mon écran et à mon équipement multimedia, la possibilité de lire des MP3, des DVD, des DivX, des .avi, de gérer ma gigantesque bibliothèque de photos (ah, le redimensionnement par lots d'un simple clic!), de la messagerie instantanée (même en MSN Messenger, avec ma petite nièce indécrotable), du BitTorrent et de l'Emule, et bien sûr du web et du mail, à foison, up to date. Je ne suis pas sûr que le wifi marche sur mon Sony (pas testé), mais l'économie d'énergies marche très très bien. J'ai l'impression de ne plus être un apprenti-sorcier. <doc1062|left>Je conserve un dual boot pour faire fonctionner Age of mythology pour mon fils, mais je ne suis pas sûr me revenir un jour vers Windows de mon plein gré. La profusion de logiciels stables et libres est une des grandes forces de Linux, même si au début il est un peu difficile de s'y retrouver. Même la presse s'en même, car le génial [Linux pratique->http://www.linux-pratique.com/] me prend par la main, pour m'expliquer les vertus de tel ou tel logiciel. Contrairement au reste de la presse Linux, il se s'escrime pas à m'expliquer comment coder un noyau alternatif à Linux ou comment lancer une application sur BeOs. Il me prend pour ce que je suis: utilisateur réel de Linux, qui veut classer les photos de ses enfants, utiliser FlickR, communiquer avec le monde, rédiger un rapport, écouter de la musique, faire quelques graphiques et statistiques, faire un publipostage, bref, utiliser son ordinateur au quotidien, sans tournevis, sans ligne de code, sans recherche de l'extrême.
2006-05-13 17:28:11
Linux pratique
http://www.linux-pratique.com
J'écris ce minuscule billet depuis mon Vaio TX2, dans ma chambre, utilisant la connexion WIFI disponible dans mon appartement, à partir de Kubuntu. Je n'ai eu à fournir aucun effort de détection de périphérique ou de choix de pilote. La détection des réseaux disponibles s'est passée sans difficulté, j'ai tapé ma clé WEP et la connexion a fonctionné immédiatement. Un petit régal de simplicité.
2006-05-14 22:09:32
http://
La seule chose qui me manquait vraiment depuis que j'utilise uniquement Ubuntu pour mon informatique domestique c'était un agrégateur me permettant de m'abonner aux podcasts de mon choix. Ubuntu vous propose clés en main des dizaines voir des centaines de logiciels qu'il est très simple d'installer depuis l'interface graphique du système, mais pour les podcasts je n'avais rien trouvé dans ce foisonnement de logiciels. Heureusement le numéro d'avril du Linux Journal est venu combler ce manque grâce à un excellent et très drôle article de Marcel Gagné, [“Cooking with Linux : Podcast on the Menu”->http://www.linuxjournal.com/article/8796]. J'utilisais sous Window l'excellent [Juice->http://juicereceiver.sourceforge.net/] qui n'a pas encore été porté sous Linux. Sur les conseils de Marcel Gagné j'ai donc choisi [CastPodder->http://www.castpodder.net/] qui me permet enfin de retrouver [Coverville->http://www.coverville.com/], mon podcast préféré. En plus des indications de Marcel Gagné et n'étant ni un fan ni un habitué de la ligne de commande, j'ai dû apprendre à installer le logiciel sous la forme d'un packages DEB. C'est une opération qui se révèle finalement assez simple et très bien expliquée ici : [“Installer une application sous Linux”->http://www.commentcamarche.net/tutlinux/linrpm.php3]. Castpodder utilise XMMS ou Beep Media Player comme lecteur externe pour lire les podcasts reçus. Si vous ne possêdez pas ces logiciels, Il vous sera très facile de les installer en mode graphique avec Synaptic sous Gnome ou KDE. Tout cela m'a donné envie de lire le livre de Marcel [“Moving to Linux: Kiss the Blue Screen of Death Goodbye!”->http://www.amazon.fr/exec/obidos/ASIN/0321356403/qid=1148765054/sr=8-1/ref=sr_8_xs_ap_i1_xgl/403-2288378-1378041] avec [Radio Clash->http://www.mutantpop.net/radioclash/] en fond sonore via CastPodder.
2006-06-12 12:12:51
http://
J'utilise uniquement Ubuntu depuis plus d'un an pour mon informatique domestique et j'en suis totalement heureux, satisfait, comblé. J'ai commencé avec la version surnommé Hedgehog (hérisson) puis j'ai suivi l'évolution du système avec la version Badger (blaireau). Le passage entre ces deux versions avait été difficile et j'avais dû appeler au secours mes amis vrais-geeks-pour-de-bon pour réparer mon système qui avait perdu certaines de ces fonctionalités (surtout en ce qui concerne la lecture des mp3 et autres fichiers mutlimédias). Ubuntu est très solide et il restait alors toujours opérationnel pour l'essentiel : Web, courriel, traitement de texte. Hier mon blaireau domestique, pourtant en très bonne santé, m'a signalé qu'il pouvait maintenant passer le relais à un canard du nom de [Dapper Drake->http://www.ubuntu.com/news/606released]. J'ai hésité quelques minutes mais pouvant rarement résister à ce genre de proposition, j'ai cliqué sur le bouton fatidique de mise à jour de mon Ubuntu, so long Badger. Le système a téléchargé les nouveaux fichiers. La mise à jour s'est déroulée sans encombre et de façon totalement transparente. Un petit problème tout de même, à nouveau, avec la lecture des fichiers multimédias, j'en ai profité pour aller voir un site appelé [EasyUbuntu->http://easyubuntu.freecontrib.org/]. EasyUbuntu vous permet de compléter les fonctionalités multimédias de votre Ubuntu, son installation est simple même si elle nécessite l'utilisation tant redoutée par le nouvel utilisateur de Linux que je suis, de l'aride et sinistre ligne de commande. Je reviendrai plus tard sur la question d'Ubuntu et le multimédia. En attendant si vous êtes tenté par l'aventure d'un système libre, n'hésitez pas à profiter de l'occasion de la sortie de cette nouvelle version pour vous lancer, on vous explique tout [là->http://www.ubuntu-fr.org/]
2006-06-07 13:48:14
http://
Pour qui cherche à connaître l'état des savoirs sur une question, d'actualité ou non, l'utilisation d'un moteur de recherche généraliste est particulièrement décevante. Parcourant toutes sortes de sites sans distinction ni discernement, les Google, Yahoo et autres MSN renvoient des listes de résultats mêlant et mettant sur le même plan des sites publicitaires, des expressions partisanes ou sectaires, des articles scientifiques et des textes issus d'encyclopédie. Bien difficile de s'y retrouver pour le lecteur non averti, habitué à la présence de filtrages qui n'existent plus sur Internet, a fortiori pour l'étudiant ou le lycéen, dont l'armature intellectuelle n'est pas assurée. C'est à ce problème que répond [In Extenso->http://www.in-extenso.org], le moteur de recherche en sciences humaines et sociales récemment proposé par [Revues.org->http://www.revues.org] en version beta. Initialement conçu comme un instrument d'information scientifique pour les chercheurs professionnels, In extenso se révèle à l'usage un formidable outil pour les étudiants, les journalistes, les travailleurs sociaux et plus largement, tous ceux qui veulent mieux connaître et comprendre les phénomènes de société tels qu'ils sont expliqués par les historiens, géographes, sociologues ou philosophes. Ainsi, une requête sur la coupe du monde de football ne retournera pas la liste des résultats des derniers matchs, mais conduira vers des articles de Pascal Boniface sur la manière dont les relations internationales s'expriment à travers ce sport, de Christian Bromberger sur la sociologie des supporters de grands clubs européens, ou encore vers un dossier thématique (et historique) proposé par l'ADPF...entre autres. Le secret d'In Extenso et de la pertinence des résultats qu'il propose repose sur la sélection des sites qu'il indexe. C'est une équipe multidisciplinaire de chercheurs qui s'y colle, en triant pour le moteur le bon grain des sites qu'ils estiment relever des sciences humaines et sociales de l'ivraie du tout venant. Cette liste, consultable par ailleurs sous la forme d'un annuaire de sites (L'album des sciences sociales) est aujourd'hui riche de plus de 2000 références. In extenso propose pour finir une interface de recherche à deux étages permettant de distinguer les formes canoniques de la publication scientifique d'un côté (articles, actes de colloque), de l'ensemble de l'information disponible sur les sites web de l'Album. On relèvera d'ailleurs que l'efficacité d'une telle démarche s'est accrue récemment avec l'[accumulation->http://www.cairn.info] d'[initiatives->http://www.persee.fr] ayant pour objectif de mettre en ligne la plupart des articles publiés dans les revues de sciences humaines et sociales francophones d'une part, et le souci croissant du côté des équipes de recherche de restituer au public par l'intermédiaire de sites Web divers les connaissances qu'elles produisent. Au final, c'est un très bel ensemble de documents qui est aujourd'hui gratuitement disponible sur Internet pour aider le citoyen à exercer sa souveraineté de manière éclairée, aidé en cela par cet indispensable boussole que représente [In Extenso->http://www.in-extenso.org].
2006-07-01 00:40:05
In extenso
http://www.in-extenso.org
Que pensez des dispositifs [?RFID], c'est puces émetrices qui peuvent diffuser dans leur environnement immédiat toutes sortes d'informations sur les objets, vêtements ou même individus sur lesquels elles sont accrochées ? Permettant de mettre en place une foultitude de services, l'"Internet des objets" comme on dit provoque aussi de nombreuses inquiétudes, en matière de protection de la vie privée notamment. A partir du 3 juillet, l'Union Européenne ouvre [une consultation publique sur le sujet->http://www.rfidconsultation.eu/index.php], invitant tous les citoyens à donner leur avis et à formuler des suggestions afin d'aider la commission à élaborer les premières étapes d'une politique européenne pour les RFID. Il n'est pas certain, contrairement à ce qu'on pourrait croire, que ce genre de consultation, particulièrement sur ce genre de sujet, soit totalement inutile, les institutions européennes ayant, par le passé, fait la preuve d'[une certaine efficacité->http://www.export.gov/safeHarbor/index.html] en matière de protection de la vie privée.
2006-07-02 09:46:55
RFID consultation Website
http://www.rfidconsultation.eu/index.php
Adoptée le 30 juin dernier, la loi sur le droit d'auteur dans la société de l'information (DADVSI), comporte bien des facettes que l'on n'a pas fini d'analyser dans toutes leurs conséquences. Elle en a eu une pourtant, immédiate, sous la forme du retrait décidé par la revue [Etudes Photographiques->http://etudesphotographiques.revues.org/] de toute forme de diffusion en ligne. S'exprimant au nom du comité de rédaction de cette revue, André Gunthert, son rédacteur en chef précise sur le blog [Actualités de la recherche en histoire visuelle->http://www.arhv.lhivic.org/index.php/2006/06/30/198-etudes-photographiques-renonce-a-ledition-en-ligne] : «Devant le durcissement du dispositif légal concernant la publication sur internet, la rédaction de la revue Études photographiques a pris la décision de renoncer à son édition en ligne. Créé en 1996, la seule revue francophone consacrée à la recherche en photographie avait ouvert dès 1997 un site permettant d'accéder gratuitement à une sélection d'articles, avant de rejoindre en 2002 le portail d'édition électronique Revues.org. C'est avec le plus profond regret que nous abandonnons une possibilité que nous avions été parmi les premiers à explorer. Mais les conditions d'une édition électronique illustrée respectueuse à la fois des contraintes légales et des exigences scientifiques ne sont plus réunies. » La raison en est simple, explique-t-il : alors que dans le domaine de l'écrit le domaine public permet de reproduire un grand nombre d'oeuvre du patrimoine littéraire, dans le domaine de l'image, il en va tout autrement. Car l'extinction du droit d'auteur n'épuise pas le droit patrimonial qui permet à une galerie, un collectionneur ou une institution de refuser ou de monnayer la reproduction de l'image dont il est propriétaire. La rédaction d'Etudes photographiques comptait manifestement beaucoup sur l'exception au droit d'auteur aux fins d'enseignement et de recherche pour résoudre cette épineuse question. L'espoir a été déçu. Contrainte de payer des sommes substancielles pour avoir le droit de reproduire un certain nombre de photos dans la version papier de la revue, elle ne peut s'acquitter une deuxième fois d'une somme souvent supérieure (car calculée sur la base de décompte du papier) pour la diffusion en ligne. En l'absence de toute solution immédiate, la revue est donc contrainte de s'en tenir à une diffusion papier aux antipodes des antiennes reprises par tous sur la réduction de la fracture numérique et de la présence des contenus francophones sur les autoroutes de l'information.
2006-07-03 20:18:28
Etudes photographiques renonce à l'édition en ligne
http://www.arhv.lhivic.org/index.php/2006/06/30/198
Après la presse écrite, avec la mise en place de blogs et de stratégies de diffusion complémentaires, après les radios qui sont lancées à corps perdu dans le podcasting (ou balado-diffusion), c'est au tour des télévisions de prendre la mesure de la spécificité du média Internet et des modes de communication particuliers qui le caractérisent. La chaîne de télévision privée TF1 d'abord, a [récemment annoncé son entrée [(PDF)->http://www.tf1finance.fr/documents/publications/204.pdf] dans le capital d'une des principales plates-formes de blog françaises, Overblog, et est en train de lancer sa propre plate-forme communautaire de diffusion de contenus multimédias, [Wat.tv->http://www.wat.tv], sur laquelle tout un chacun peut proposer ses photos, vidéos et enregristrements audio, avec une promesse, pour certains d'entre eux, de bénéficier d'une diffusion sur les écrans de télévision. Avec [Wideo.fr->http://wideo.fr], la chaîne de télévision M6 adopte une stratégie similaire. Ces récentes prises de position doivent être comprises comme la réaction d'acteurs traditionnels de l'audio-visuel face au succès inattendu des plate-formes de diffusion de vidéos amateurs, comme [Google Vidéo->http://video.google.com] bien sûr, mais aussi [YouTube->http://www.youtube.com].
2006-07-04 09:33:21
We are Talented
http://www.wat.tv
La loi sur le droit d'auteur dans la société de l'information adoptée récemment comporte une disposition qui n'a pas fait l'objet de commentaires particuliers dans la presse spécialisée. On sait en effet que chercheurs et universitaires réclamaient depuis longtemps ce qu'on appelle une «exception pédagogique et de recherche» leur permettant d'utiliser librement des extraits d'oeuvres, ou bien pour faire l'objet d'études en classe (commentaires de textes ou d'oeuvres), ou bien pour mener des analyses scientifiques de type linguistiques par exemple, sur des corpus textuels en particulier, ou, sur des reproductions d'oeuvres d'art. Cette exception, qui correspond peu ou prou à la notion de fair use que le droit américain du copyright reconnaît depuis plus de trente ans, a d'abord été rejetée par le gouvernement et l'assemblée, avant d'être introduite dans le texte par le sénat. Sa portée a été fortement réduite en commision mixte juste avant adoption. Voici sa rédaction finale : ( Lorsque l'oeuvre a été divulguée, l'auteur ne peut interdire) : «La représentation ou la reproduction d'extraits d'œuvres, sous réserve des œuvres conçues à des fins pédagogiques, des partitions de musique et des œuvres réalisées pour une édition numérique de l'écrit, à des fins exclusives d'illustration dans le cadre de l'enseignement et de la recherche, à l'exclusion de toute activité ludique ou récréative, dès lors que le public auquel cette représentation ou cette reproduction est destinée est composé majoritairement d'élèves, d'étudiants, d'enseignants ou de chercheurs directement concernés, que l'utilisation de cette représentation ou cette reproduction ne donne lieu à aucune exploitation commerciale et qu'elle est compensée par une rémunération négociée sur une base forfaitaire sans préjudice de la cession du droit de reproduction par reprographie mentionnée à l'article L. 122-10.» La rédaction très contournée de l'article indique la volonté d'encadrer très strictement cette exception. Mais il faut s'arrêter sur les «réserves», en particulier celle qui concerne «des œuvres réalisées pour une édition numérique de l'écrit». Que peut donc bien signifier cette formulation ? Pour [Isabelle Vodjani->http://www.transactiv-exe.org/], interrogée à ce sujet sur la liste Escape-l, «par "les oeuvres elles-mêmes réalisées pour des éditions numériques de l'écrit" on doit comprendre les écrits initialement publiés pour un médium numérique (type CD Rom ou texte en ligne payant) Contrairement aux oeuvres sur papier que l'on peut reproduire par photocopie (moyennant redevance pour reprographie prélevée par le CFC), le médium numérique étant susceptible d'être verrouillé par des DRM, on devine qu'il s'agit de prévenir tout contournement des DRM au motif de l'exception pédagogique.» Voilà une exception dans l'exception bien intéressante. Car si on en tire les conséquences jusqu'au bout, elle signifie qu'un texte qui a d'abord été publié sur support papier puis a été mis en ligne dans un second temps bénéficie de l'exception pédagogique, contrairement à un texte qui est directement publié en ligne. Sur ce point particulier qui reflète bien l'état d'esprit général, le gouvernement semble avoir cherché à favoriser le passé (qui bénéficie d'un régime plus libéral) au détriment de l'avenir (sévèrement vérouillé). Les conséquences dans certains secteurs comme les revues scientifiques qui sont en train de basculer massivement vers un mode de diffusion exclusivement ou d'abord numérique, seront considérables. Plus finement, il faut sans doute reconnaître dans cette réserve, une intervention directe des éditeurs de contenus commerciaux qui, prêts à lâcher sur une part de leur activité qu'ils savent destinée à diminuer, se sont assurés de contrôler totalement l'édition électronique des textes, c'est-à-dire très exactement l'avenir de l'édition au détriment du bien public. Bien joué. Pour un suivi du feuilleton législatif de la DAVSI, lire les remarquables analyses publiées par Isabelle Vodjani : [Forum->http://www.transactiv-exe.org/archiveforum.php3?id_forum=997#forum1014] [Netlex1->http://www.netlexfrance.com/weblogs/?p=46] [Netlex2->http://www.netlexfrance.com/weblogs/?p=157]
2006-07-04 11:49:08
Isabelle Vodjani
http://www.transactiv-exe.org/archiveforum.php3?id_forum=997#forum1014
Si on se réfère aux documentations officielles des appareils photo numériques, force est de constater qu'ils limitent leur compatibilité à Microsoft Windows et Mac OS. C'est le cas de deux appareils testés pour vous par Linux pour de vrai: le E900 de Fuji (un compact numérique) et l'EOS 350D de Canon (reflex numérique). Est-il donc obligatoire de disposer de Windows ou d'un Macintosh pour utiliser ces appareils? Connecter un E900 à Ubuntu-Linux est trivial. Il suffit de réaliser le branchement physique, en utilisant un câble USB, puis d'attendre que le matériel soit reconnu, ce qui est immédiat. Il est dès lors monté par Ubuntu comme disque dur amovible. Sur mon KDE, il apparaît sagement sur le bureau. Selon vos réglages, il faudrait aller le consulter dans le dossier /media/. Ensuite, il suffit de repérer les images dans l'appareil et de les transférer sur votre disque dur. <doc1468|left> Connecter un appareil aussi élaboré qu'un [EOS 350D->http://fr.wikipedia.org/wiki/Canon_EOS_350D] est un tout petit peu moins direct. L'appareil est en effet monté normalement, comme le E900, mais il n'est pas possible de parcourir son contenu comme s'il s'agissait d'une vulgaire clé USB ou d'un disque dur. Mais il suffit de lancer l'excellent [DigiKam->http://fr.wikipedia.org/wiki/Digikam] (logiciel libre et gratuit, disponible par défaut dans Ubuntu). D'aller dans le menu "Appareil photo" puis "ajouter un appareil photographique", laisser le logiciel détecter celui qui est connecté. Joie, il détecte bien un EOS 350D. Il vous permet alors de récupérer, effacer, visionner rapidement l'ensemble des images présentes sur le disque. Bref, rien de sorcier ni même de miraculeux. C'est simplement la vie quotidienne d'un utilisateur de Linux, ce système d'exploitation qui est tous les jours un peu plus mûr pour le grand public. Mais patientons encore un peu, si vous le voulez bien. Chi va piano...
2006-07-23 14:24:32
http://
<img1587|left>J'y suis, j'y reste. Mon Linux est désormais un compagnon de route. Habituel. Régulier. Fiable. Oui, mais... parfois je peste, je tambourine, je fatigue. Et parfois je commets des infidélités. Les dernières en dates sont édifiantes et m'empêchent, pour l'heure, de recommander à mon entourage de passer à Linux. Tout d'abord, depuis la mise à jour 6.06 d'Ubuntu, impossible d'utiliser mon imprimante laser Brother HL 1250. Après plusieurs tentatives catastrophiques, force est de reconnaître que je ne peux plus imprimer que trois ou quatre carrés involontaires par page. Pourquoi? Je l'ignore. L'ancienne version fonctionnait parfaitement, de façon quasimet transparente. J'ai pensé un moment que mon imprimante avait eu un "coup de chaud" et qu'elle avait perdu la raison. Mais non... quand je démarre avec Windows, tout va bien. Oh rage, oh désespoir. Photo par <a href="http://flickr.com/photos/magic_fly/73180380/">Magic Fly</a>. Licence CC.
2006-08-11 13:01:54
http://flickr.com/photos/magic_fly/73180380/
http://flickr.com/photos/magic_fly/73180380/
Le dernier numéro de PC expert a un joli titre... Linux, plus fort que Vista !. Après SVM et SVM Mac, à quand SVM Linux ?
2006-08-11 13:32:56
http://
Les formats RAW sont nombreux (on parle de 200 formats différents). Chaque fabricant d'appareil photographique s'est fendu de son ou de ses formats. Foire d'empoigne où l'intérêt individuel semble primer sur l'intérêt collectif. On lira avec intérêt le billet de formats-ouverts au sujet des[ formats RAW incompatibles entre eux->http://formats-ouverts.org/blog/2005/11/04/600-les-formats-photo-raw], et des tentatives pour résoudre ce problème dans une logique ouverte ([DNG->http://fr.wikipedia.org/wiki/Format_DNG] d'Adobe, [OpenRaw->http://www.openraw.org/]). A Linux pour de vrai, nous tentons de confronter la réalité Linuxienne aux contraintes du quotidien. Un lecteur a demandé, dans un commentaire, si le format RAW était lu convenablement par Linux. Après des essais réalisés avec un Canon EOS 350D, je confirme que Digikam lit sans embage le format RAW, ne nécessite même pas de conversion du format pour afficher une vignette ou afficher l'image. Seule contrainte, si vous opérez des rotations ou redimenssionnements de l'image: il ne sauve pas au format RAW de Canon mais en PNG, JPG, TIFF, BMP. C'est assez normal, car Digikam n'est pas un logiciel destiné à faire de la retouche photographique. Pour autant, il rend bien des services. L'image qui accompagne ce billet était au format RAW et a été lue puis modifiée via Digikam. <doc1590>
2006-08-12 11:41:50
http://
A observer la multitude de nouveaux services que Microsoft est en train de mettre en place, on se rend vite compte qu'après avoir raté la révolution de l'Internet 1.0, la firme de Redmond n'entend pas se laisser distancer dans la course aux nouveaux usages du web connus sous la bannière fédératrice de "[?Web 2.0]". On pourra évoquer, par exemple, la plate-forme [Windows live->http://www.live.com], qui est essentiellement pour l'instant une page d'accueil personnalisable, dans le même esprit que l'excellent [Netvibes->http://www.netvibes.com], agrémentée, tout de même, d'un moteur de recherche très ergonomique, mais semble bien destinée à devenir le point d'accès de tout en ensemble de services en ligne énumérées sous le titre de [Windows Live ideas->http://ideas.live.com/]. A terme, il s'agit pour la firme de Bill Gates de prendre pied dans le secteur très convoité du Web communautaire grand public dont [les adolescents font exploser les usages->http://www.liberation.fr/actualite/evenement/evenement1/199405.FR.php]. Il s'agit ici de faire concurrence à des services comme [Yahoo! 360°->http://360.yahoo.com] ou [Myspace->http://www.myspace.com] récemment acheté par le groupe de [Rupert Murdoch->http://en.wikipedia.org/wiki/Rupert_Murdoch]. [Windows live spaces->http://spaces.live.com] sert cet objectif, en prenant le relais de MSN trop marqué, semble-t-il, par les services d'information, plutôt que de communication autour desquels il s'est construit. On a appris récemment que les utilisateurs de Windows live spaces, mais aussi des autres plate-formes de blogs, pouvait disposer d'un utilitaire d'aide à la rédaction offrant une interface simplifiée et nommé [Windows Live Writer->http://windowslivewriter.spaces.live.com/]. Le monde professionnel n'est pas en reste, avec l'ouverture récente de services en ligne spécialement conçus pour les affaires. [Microsoft Office live->http://officelive.microsoft.com/default.aspx], manifestement destiné aux petites entreprises s'organise autour de la mise en ligne de sites web corporate, de partage d'information et de documents et de gestion de projets. Certains de ces services sont gratuits, et apparemment destinés à le rester. C'est sans doute une véritable révolution culturelle que Microsoft est en train de vivre. La société, qui avait entièrement construit son modèle économique sur la vente de logiciels à licences payantes, semble s'investir dans le secteur très concurrentiel de la communication en ligne, où les modes de rémunération et même les conditions de domination du marché sont très différentes et presque à l'opposé. Cette évolution est sans doute sans commune mesure avec la diversification entamée il y a plusieurs années dans le secteur du jeu vidéo, avec la xbox. La [récente annonce->http://www.microsoft.com/presspass/press/2006/aug06/08-13XNAGameStudioPR.mspx] par la même société de la mise à disposition d'un kit de développement de jeux vidéo à faible coût destiné à démocratiser la création de jeux pour sa Xbox en dit long sur ce changement de mentalité. Microsoft 2.0 donc. Mais avec quelle profitabilité ?
2006-08-19 09:23:46
Microsoft
http://www.microsoft.com/
Le magasin en ligne de Carrefour, Boostore, propose une rubrique "[Ordinateurs Linux->http://www.boostore.com/carrefour/Catalog/micro-informatique/ordinateur-linux/]" Cette rubrique propose - une unité centrale de marque HP dotée de Windows et de Mandriva Linux Discovery. - une unité centrale sans marque, sur laquelle Linux est installé (sans précision sur la distribution) et avec laquelle est également livré Knoppix ([Kaella Knoppix Linux Azur (KLA))->http://www.framasoft.net/article2551.html]. A moins que le seul OS fourni avec la machine soit ce Live-CD? Ce serait décevant... - deux ordinateurs portables de marque HP, sur lesquels Mandriva est installé (et pas Windows, semble-t-il). - un disque dur externe USB (en fait, il n'a rien de spécifiquement "Linux", bien au contraire, car tous les périphériques de ce type se connectent à Linux, de 7 à 77 ans). - deux imprimantes, de marque Epson et HP. Peut-être ces imprimantes sont-elles bien gérées par Linux? A priori, il y a très peu de problèmes d'imprimantes avec Linux. Il y a même une longue page d'explication sur [ce qu'est Linux->http://www.boostore.com/carrefour/Editorial/Transverse/os_linux.htm]. Cette page a manifestement été écrite par un linuxien, dont la prose est quasiment trop technique (un comble, pour une chaîne aussi grand public que Carrefour) et parfois confuse : le passage le plus sensible contient manifestement une contradiction, sans doute liée à l'oubli d'un mot (que j'ajoute entre crochets). «Pour un non spécialiste en informatique, Linux est-t-il conseillé ? Pour quelqu'un qui n'a jamais utilisé d'informatique, certainement [pas]. Pour tous ceux qui aiment la collaboration, la qualité, la sécurité et qui sont attirés par la nouveauté, alors il est nécessaire d'évaluer très sérieusement l'opportunité d'une distribution Linux.» Alors, arnarque ou véritable mouvement en faveur de la vente de machines Linux inside?
2006-08-20 08:29:09
http://
C'est ce qui ressort de [l'enquête européenne Mediappro->http://www.clemi.org/international/mediappro/Mediappro_b.pdf] publiée en juin dernier. Cette enquête financée par la Communauté Européenne a recueilli les opinions de près de 9000 jeunes européens sur leurs pratiques de communication au moyen d'Internet et du téléphone portable. Il apparaît que globalement, ces jeunes utilisent massivement les nouveaux moyens de communication, qu'ils semblent bien avertis des dangers qui les y menacent éventuellement, mais surtout que leur pratique est avant tout personnelle, l'Ecole semblant particulièrement absente du tableau. Extrait de la conclusion du rapport : «La conclusion la plus frappante de l’ensemble de cette étude réside dans le fossé marqué entre les usages de l’Internet à la maison et à l’école. Dans tous les pays, Québec inclus, ce fossé s’impose en termes de fréquence d’utilisation, d’accès, de régulation, d’apprentissage et de développement d’aptitudes, et de type d’activités. Les données montrent que c’est un gouffre qui s’ouvre. Toutes les fonctions importantes pour les jeunes existent hors de l’école, comme l’essentiel de leurs apprentissages (surtout de l’auto-apprentissage et de l’apprentissage entre pairs). Dans le même temps, les écoles restreignent l’accès, interdisent certaines pratiques sans aucune nécessité, ne parviennent pas à comprendre la fonction communicationnelle d’Internet, et, pire que tout, échouent à transmettre les compétences de recherche documentaire, d’évaluation des sites, de recherche et de production créative qui devraient être les plus importantes pour elles. On note partout clairement que les jeunes ne peuvent pas acquérir les savoir-faire nécessaires dans de bonnes conditions. Alors que dans certains pays, ils se révèlent des usagers sophistiqués de l’Internet, comprenant bien les aspects moraux et culturels, en France en particulier, il existe des pays où ils sont beaucoup plus faibles, surtout en ce qui concerne les questions d’ordre légal qui sont liées à ces médias. En outre, il est évident dans tous les pays qu’ils surestiment leur propre capacité à évaluer. Ce sont des types de connaissances et de compétences critiques que seule l’école peut transmettre. Alors que la littérature académique discute beaucoup du potentiel créatif des nouveaux médias, on constate ici que le travail créatif est limité, et qu’une minorité de jeunes développent des sites personnels ou des blogs. De plus, ces objets peuvent facilement être laissés en sommeil. A nouveau, il y aurait un rôle évident à jouer pour les écoles dans le développement de ces aptitudes plus délicates à acquérir.»
2006-08-21 17:47:34
La Café pédagogique
http://www.cafepedagogique.net/disci/actutic/74.php
La multiplication des attaques juridiques et informatiques en provenance des détenteurs de droits contre les systèmes [?peer-to-peer], accusés de piratage, pousse ceux-ci à évoluer en permanence afin d'y échapper. D'une manière générale, les grands réseaux ouverts comme [?eDonkey] ou [?Gnutella] semblent avoir bien peu d'avenir et devoir passer progressivement la main à deux types de successeurs. D'un côté, des réseaux de grande ampleur, ouvert aussi, mais dont les données sont cryptées, ne permettant pas a priori d'identifier la nature des échanges et surtout de repérer ni leurs émetteurs, ni leurs destinataires. [Antsp2p->http://antsp2p.sourceforge.net/] et [Mute->http://mute-net.sourceforge.net/index.fr.shtml] semblent aujourd'hui constituer des alternatives sérieuses. De l'autre côté, on voir apparaître des applications permettant de partager ses fichiers très facilement au sein de cercles privés et fermés, susceptibles, a priori, à moins d'être compromis, d'échapper aux cerbères du copyright. [Hamachi->http://www.hamachi.cc/] est un premier exemple de ce type de service. Sur les rangs, on trouve cependant une application très prometteuse, qui a toutes les chances de rafler la mise ; il s'agit d'[Allpeers->http://www.allpeers.com/index_f.htm], qui permet, d'un simple clic au sein de son navigateur, de définir, fichier par fichier, ce qu'on souhaite partager, et avec qui exactement. Cette nouvelle pratique, privée, du peer-to-peer (elle repose sur la technologie [?BitTorrent]) constitue une réponse imparable à l'industrie du disque et du cinéma, qui ne pourrait y répondre qu'en installant des mouchards sur les ordinateurs des utilisateurs, en encourageant la délation contre forte récompense, ou plus vraisemblablement en contraignant les fournisseurs d'accès à bloquer les flux Bittorrent... Un des points forts d'Allpeers est par ailleurs la simplicité d'utilisation, qui tranche avec les innombrables difficultés techniques qu'entraîne en général l'installation et surtout le réglage d'un client peer-to-peer. Rien de tel ici, où tout se déroule de manière très transparente à l'intérieur du navigateur. Mais pas de n'importe quel navigateur. Allpeers est en effet une extension de [Firefox->http://www.mozilla-europe.org/fr/products/firefox/] et ne peut donc être utilisé qu'avec lui. C'est un des effets collatéraux non négligeables de cette innovation, que de relancer selon toute vraisemblance la montée en puissance du challenger d'Internet Explorer au moment précisément où Microsoft s'apprêtait à distribuer une nouvelle version de son navigateur dotée de la plupart des fonctionnalités qui lui faisaient défaut... Allpeers constitue un cas d'école de l'avantage que peut apporter un développement ouvert et communautaire sur un développement fermé et monopolistique. Edit : (24/08) Allpeers est désormais disponible ne béta publique et peut être téléchargé
2006-08-22 08:44:46
01net
http://www.01net.com/article/323931.html?rss
Tout a commencé avec [cet article : «Avec Freenas et NasLite, le PC se prend pour un serveur de fichiers»->http://www.01net.com/editorial/323920/reseau/avec-freenas-et-naslite-le-pc-se-prend-pour-un-serveur-de-fichiers/] : je cache dans ma cave une très vieille tour, grise et bourdonnante, un antique k6-2 sur lequel sont venus se greffer trois disques durs (4, 20 et 80 Giga), une carte firewire, un lecteur de DVD et un graveur de cd (en plus du lecteur d'origine), une carte usb2, deux cartes ethernets, deux barrettes émmoires de 128 Mo DIMM (of course), une carte de décompression, sans oublier la carte vidéo elle-même, une authentique Voodoo 3dfx (Phoenix) de la belle époque ; auxquels ils faut ajouter depuis peu un superbe disque externe USB de 160Go. Autant dire que cet ordinateur, même si, depuis, il a été remplacé dans mon quotidien par des successeurs autrement plus puissants, et surtout plus portables, n'a jamais cessé de tourner. C'est avec lui que tout a démarré, que j'ai tout fait, tout découvert. Bref, cette machine sale et vieille a pour moi une valeur affective ; il est hors de questions de la mettre au rebut. Et d'ailleurs, un ordinateur, ça ne se jette pas ; c'est un peu comme le cochon, on peut toujours en faire quelque chose. Mais alors, justement, qu'en faire ? Depuis pas mal de temps, il tourne en serveur de fichiers partagés et ftp sous un Windows XP pas vraiment genuine et bien trop mastoc pour ses faibles capacités. Ça rame, ça déconnecte, le ftp mange la moitié des fichiers au transfert, etc. Et puis, faire tourner Windows XP juste pour du partage d'espace disque, c'est un peu ballot. Je vois déjà tous les lecteurs de LPDV se précipiter sur leurs claviers pour me dire que Linux fait très bien cela. Et d'ailleurs, c'est une des qualités morales de cet OS que d'éviter le cimetiere aux vieux grognards du siècle dernier. Et je suis d'accord avec eux : Samba et ftpd, y a que ça de vrai... Les installs Linux, je m'en étais cogné un certain nombre dans l'ancien temps : toutes les Mandrakes de la 7 à la 10 y sont passées. Lorsque la dernière en date m'a fusillé sans sourciller un an de mail, j'ai décidé d'arrêter les frais. J'ai fait autre chose, j'ai redécouvert qu'il y avait une vie au delà de Lilo. J'ai vieilli sous Windows... jusqu'à ce que je tombe sur cet article. Pensez ! un mini système d'exploitation, entièrement construit autour des disques en réseau, il n'y a pas à hésiter ! Et j'ai replongé. Pour mon plus grand malheur. Demain, je vous raconterai comment 32Mo peuvent faire basculer la vie d'un homme.
2006-08-23 22:50:41
http://
Or donc, me voici lancé dans l'univers palpitant du [?NAS] en explorant [NasLite->http://www.serverelements.com/] et [Freenas->http://www.freenas.org/]. Je laisse vite tomber le premier, qui est en fait un logiciel payant et me perd dans toute sa déclinaison de versions, et me tourne vers Freenas : gratuit, codé en solo par un frenchy, léger (32 Mb) et reposant sur une base de FreeBsd, ce logiciel a tout pour inspirer la confiance. Et de fait, l'installation est simplissime et ultra-rapide, au moyen d'un cd de boot. Il ne reconnaît pas une de mes deux cartes réseau, il n'a pas reconnu mon lecteur de cd-rom, puis a fini par l'accepter à la troisième tentative sans que je comprenne pourquoi ; bref rien que de très normal jusque là. L'interface d'administration s'atteint via le Web, et elle est vraiment très bien faite : il faut d'abord ajouter chacun des disques dans le manager, puis les monter un à un. Ensuite, on ouvre les services : CIFS, NFS, FTP, RSync si on veut et on définit les utilisateurs. Tout se fait à chaud via le navigateur et ça fonctionne très bien... A l'usage, la situation est moins rose : le partage de fichiers sur réseau Windows est très lent. Un petit tour dans le forum m'apprendra que c'est [un problème connu->http://sourceforge.net/forum/message.php?msg_id=3681337]. Apparemment, tout le monde se creuse la tête pour comprendre pourquoi. Bon, si passer de Windows a autre chose entraîne une baisse de performance sur mon réseau domestique, c'est uun peu embêtant. Reste le ftp. Aha le ftp ! Le ftp marche très bien, a un petit détail prêt que j'aurais manqué si je n'avais consulté le forum du site du logiciel (épisodiquement indisponible d'ailleurs) : il est impossible de désactiver l'accès anonyme au serveur ! Du coup, tous mes disques sont ouverts aux 4 vents. Conclusion : à part le CIFS et le FTP, Freenas est tout à fait fonctionnel[[Je tiens ici à présenter d'avance mes excuses au concepteur de ce logiciel sur le dos duquel je fais de l'humour facile. J'ai conscience que son logiciel n'en est qu'à la version 0.6 et est promis à un brillant avenir lorsqu'il sera débuggué. L'idée, les bases et les solutions retenues sont en tout cas excellentes ; Freenas est un logiciel dont il faut suivre avec attention l'évolution et rendra bien des services dans l'avenir]] Exit Freenas donc. Puisqu'en j'en suis là (j'ai passé un certain temps à migrer toutes mes partitions de NTFS à FAT32 pour les rendre inscriptibles sous Linux ou BSD) et que de toute façon mon MBR est écrasé, autant explorer différentes solutions Linux. Je commence par [Knoppix->http://www.knoppix.org/], dont [Framasoft->http://www.framasoft.net/article1363.html] me vante les mérites et qui, d'ailleurs, vient de sortir une nouvelle version de son live-CD. Je télécharge et grave donc Knoppix. Je boote sur le CD et là...miracle, la plupart de mes périphériques sont reconnus. Je me logue sous Kde ; tout semble marcher ; même le réseau. Tout cela est bien beau (superbe même avec les semi-transparences de Kde2 que je m'empresse de désactiver à cause de ma configuration poussive), mais j'ai un ftp et un samba à lancer ;'ai pas l'temps de r'garder l' paysage, moi. Je commence par la carte réseau : je souhaite lui attribuer une adresse statique et non laisser faire le serveur DHCP. Je cherche donc l'outil de configuration des cartes réseaux . Apparemment, avec cette distribution, on passe vite de l'autre côté du décor. Je tombe sur une interface austère qui me parle à moitié en anglais, à moitié en allemand. Je tatonne : je n'arrive jamais à savoir, sur mes deux cartes réseaux, laquelle est eth0, laquelle eth1. Le temps de faire plusieurs essais et de me rendre compte que l'une des deux n'était pas reconnue (la moitié des essais pour rien donc), je finis par récupérer une connexion. Passons à Samba : dans le menu de démarrage, il y a une entrée "Knoppix" contenant un sous-menu "services" aboutissant à "start Samba". Je starte, et me précipite sur mon portable (sous Windows) pour voir si quelque chose à changé. Là, rires de commisération : pauvre fou qui croyait que tout allait marcher du premier coup, sans configuration particulière, et qui ne sait pas que Knoppix, c'est Debian, et que Debian, c'est la sé-cu-ri-té ; autrement dit que tout y est fermé, bouclé, cadenassé par défaut. Soit. Je veux bien. Mais alors, comment configurer Samba ? Y a-t-il un utilitaire graphique ? Là, rires de commisération : pauvre fou...etc. Sérieusement refroidi, je regarde si par hasard, il n'y aurait pas un moyen de configurer facilement ftpd ou autre serveur ftp ; pauvre fou...etc. Par curiosité je regarde un truc appelé "Samba neighborhood" (en fait un client Samba) qui m'ouvre une interface...entièrement en allemand. Exit Knoppix 1 (car il y aura un return, vous verrez). Je cherche donc une distribution simple, facile, tout-graphique, accessible, bref une distribution pour les humains. "Linux for human beings", ça ne vous dit rien ? Demain je vous expliquerai pourquoi Ubuntu pense que les humains sont très myopes et parlent en lignes de code.
2006-08-25 00:35:44
http://
En attendant de connaître la suite des tribulations estivales de Piottr, toujours enfermé dans sa cave, voici une initiative qui mérite d'être relayée le plus largement possible par les médias du monde libre : l'Université du Havre distribue à chaque étudiant , lors de son inscription, un cédé dit « Logiciels libres ». En effet, le CRI (Centre de Ressources Informatique) de l'Université du Havre a créé un « [Kit liberté->http://cri.univ-lehavre.fr/rubrique.php3?id_rubrique=29] », composé d'une sélection de logiciels libres utiles aux étudiants. Tout y est : système d'exploitation (Ubuntu en liveCD), bureautique, courriel, PAO, compression, FTP, multimédia. Les informaticiens de l'Université du Havre ont même pensé au temps libre des étudiants en y intégrant un jeu. Il est également spécifié qu'il est possible d'emprunter le cédé du « Kit liberté » à la bibliothèque universitaire du Havre. Si vous n'êtes pas étudiant au Havre, vous pouvez tout de même télécharger une image au format ISO sur le site du CRI du Havre pour tester le Kit et en graver autant de copies que vous le souhaitez pour l'offrir à votre famille et vos amis. Allez Piotrr, sors de ta cave et viens faire une partie de [Battle for Wesnoth->http://www.wesnoth.org] avec les étudiants de l'Université du Havre. Kit liberté, une sélection de logiciels libres : [http://cri.univ-lehavre.fr/rubrique.php3?id_rubrique=29->http://cri.univ-lehavre.fr/rubrique.php3?id_rubrique=29] Information obtenue via le flux de syndiacation de la liste Suplibre : [http://listes.cru.fr/sympa/arc/suplibre/->http://listes.cru.fr/sympa/arc/suplibre/]
2006-08-27 00:00:00
http://
En marge du vacarme que produit une industrie du disque agonisante, sinon sur le plan financier, du moins sur celui de l'innovation, quelques petites notes de musique très discrètes indiquent qu'un profond renouvellement est en cours dans ce secteur d'activité, pour qui sait tendre l'oreille. Premier exemple : [Artistshare->http://www.artistshare.com/home/default.aspx], remarqué il ya quelques mois par [Techdirt->http://techdirt.com/articles/20060208/1030213_F.shtml]. Cette société américaine, qui prend bien soin de préciser qu'elle n'est pas une entreprise classique (souvenez-vous du «We are not evil» de [Magnatune->http://www.homo-numericus.net/breve.php3?id_breve=453]), propose aux artistes une plate-forme sue laquelle ils peuvent proposer à leur fans un ensemble de prestations liées à leur activité de création. Il peut s'agir de morceaux inédits, d'enregistrements live, d'albums signés, de places privilégiées lors des concerts de l'artiste, ou plus astucieusement d'invitations à assister à des enregistrements ou des répétitions. Certains proposent même des cours particuliers. Il s'agit en fait pour eux de récolter des fonds leur permettant de produire leurs prochains albums ; une sorte de souscription publique revisitée par le Web. Il semble bien que le système soit viable pour certains artistes. Autre exemple, le label canadien [Nettwerk->http://www.nettwerk.com/] qui fait l'objet d'un [article élogieux->http://wired.com/wired/archive/14.09/nettwerk.html?pg=3&topic=nettwerk&topic_set=] dans le magazine Wired. Comme l'explique bien Terry McBride, le patron de cette jeune société, il s'agit pour l'industrie musicale aujourd'hui de ne plus vendre des disques, mais bien de la musique sous toutes ses formes. On pense bien sûr aux sonneries de téléphone, aux enregistrements live, aux inédits. Plus innovant, la mise à disposition de chacune des pistes d'un disque, librement réutilisable par tous pour effectuer de nouveaux mixages, de nouvelles compositions. Mais le plus important n'est pas là. Ce qui distingue Nettwerk, c'est qu'il n'y a pas de cession de copyright de la part des artistes. Nettwerk propose finalement tout un ensemble de services aux artistes qu'il choisit de soutenir et se rémunère en prélevant 20% des revenus générés. Le prochain terrain d'expérimentation de Nettwerk seront les réseaux p2p, annonce Wired. Si l'on ajoute l'efflorescence ces dernières années d'initiatives très intéressantes de distribution de musique ([Magnatune->http://magnatune.com/] aux Etats-Unis, [Jamendo->http://www.jamendo.com/fr/] en France par exemple), ou, plus classiquement de nouveaux diffuseurs, comme [eMusic->http://www.emusic.com/] qui vient d'ouvrir une branche européenne il n'est pas difficile de voir que le secteur musical est en train de se transformer en profondeur, et pas nécessairement sur une base non commerciale. Nul doute que ces nouveaux acteurs ne ringardisent à grande vitesse l'industrie traditionnelle du disque.
2006-08-28 10:43:55
Wired
http://wired.com/wired/archive/14.09/nettwerk.html?pg=3&topic=nettwerk&topic_set=
Après Freenas et Knoppix, passons donc à [Ubuntu->http://www.ubuntu.com] ; la distribution fashion du moment. Il est vrai qu'on ne peut qu'être favorablement impressionné par l'accueil chaleureux, très United colors of Benetton du site Web que présente cette distribution sud-africaine post-apartheid. Surtout être passé par le site de Knoppix dont le slogan pourrait être : Linux pour les pingouins germaniques. Donc, rip'n burn Ubuntu Dapper. Boot sur le cd et démarrage avec interface classieuse dans les tons savane africaine. Arrivé sur le bureau (Gnome), je trouve tout cela très beau, mais un peu gros. Un tour du côté de l'utilitaire de configuration de résolution m'apprend que je suis en 640*480, 60Hz. M'étonne pas que cela paraisse gros. Il y a un menu déroulant. Je clique pour changer la résolution ; rien ; pas d'autre résolution disponible. Bon ; ce n'est pas grave. Je subodore que si j'installe le système (là je suis en live CD), je pourrais peut-être faire quelque chose. Je lance l'utilitaire d'installation...qui m'ouvre des fenêtres énormes dépassant la largeur de mon écran. Petit inconvénient me dira-t-on. Oui, mais comment faire lorsque les boutons "précédent" "suivant" se trouvent en bas à droite des fenêtres, c'est à dire hors de portée de ma souris ? Et impossible de faire glisser la fenêtre à la souris ! Et bien riez si vous voulez, mais sachez que j'ai mis plus d'une heure à trouver qu'il fallait faire F7, puis bouger sa fenêtre aux flèches directionnelles pour attraper le "suivant" qui se trouve tout en bas à droite ; et une bonne autre pour faire toute cette gymnastique épuisante sur tout les écrans (pas besoin de préciser que lorsque j'ai sélectionné Bratislava au lieu de Paris en guise de localisation, je ne suis pas revenu en arrière). Reboot et, bien sûr, impossible de changer sa résolution. Un tour sur les forums Ubuntu m'apprennent qu'il s'agit d'un problème connu, facilement résoluble en allant éditer à la main Xorg.conf dans la section [Screen], à moins que ce ne soit [Monitor], selon les intervenants, pour y ajouter des instructions absconses[[Oui, je suis de mauvais foi, et j'assume]]. Conclusion : si Ubuntu est "la distribution pour les humains" et qu'elle bloque un nombre non négligeable de ses utilisateurs (au vu du nombre de messages portant sur ce sujet) au format loupe pour malvoyants, à moins qu'ils n'éditent à la main leur Xorg.conf, je trouve qu'on se fait une drôle d'idées de l'être humain, là-bas, au pays des Springboks. Sérieusement refroidi, je fais un vague tour dans le menu pour voir si on y parle de Samba ou d'un queconque serveur ftp. Pas la peine d'y penser. J'ai choisi la version "desktop" de cette distribution. Pas la version "server" ; il n'y a donc pas de serveur, c'est logique. Mais alors ; pourquoi ne pas avoir choisi la version serveur ? Pour ça : <blockquote> «Mounting a samba share Mounting a share on the local filesystem allows you to work around programs that do not yet use GnomeVFS to browse remote shares transparently. To mount a samba share, first install smbfs: sudo apt-get update sudo apt-get install smbfs To allow non root accounts to mount shares, change the permissions on the smbmnt program thus: sudo chmod u+s /usr/bin/smbmnt The following will mount the myshare folder on myserver to /home/yourusrname/mnt: smbmount //myserver/myshare /home/yourusrname/mnt In order to have a share mounted automatically every time you reboot, you need to do the following: Open a shell as root sudo -s Create a file containing your Windows/Samba user account details: vi /etc/samba/user ...it should contain two lines as follows: username = george password = secret Change the permissions on the file for security: chmod 0600 /etc/samba/user Now create a directory where you want to mount your share (e.g. /mnt/data): mkdir /mnt/data Now edit the file system table (/etc/fstab) and add a line as follows: //server/share /mnt/data smbfs credentials=/etc/samba/user,rw,uid=bob 0 0 ...where 'bob' is the non-root user you log into ubuntu with, 'server' is the name or address of the windows machine and 'share' is the name of the share. To mount the share now, just use the following command as root. It will mount automatically on subsequent reboots. mount /mnt/data to be continued...» </blockquote> Autrement dit, la version serveur n'a pas d'interface graphique et se configure entièrement à la ligne de commande. Il est vrai que dans ce cas, je n'aurais pas eu de problème de résolution. Demain, je terminerai ma saga en vous racontant comment je suis revenu aux pingouins germanophones, en compagnie de compatriotes qui aiment Apache
2006-08-28 15:54:09
http://
«Irrépressible (irrepressible) adj. Qu’on ne peut réprimer ou contenir.». C'est sous cette bannière qu'[?Amnesty International], la célèbre association de défense des droits civiques dans le monde, a choisi de placer [sa nouvelle campagne->http://irrepressible.info/]. Il s'agit tout simplement de défendre la liberté d'expression sur Internet en signant un manifeste, ou, éventuellement, en plaçant sur son site ou son blog, une petite bannière publicitaire qui, au lieu de vanter les mérites de tel ou tel produit commercial, affiche tout simplement un extrait d'un des nombreux textes qui ont été censurés du fait de gouvernements autoritaires. Cette campagne est un signe important. Elle indique qu'après des années d'indifférence, les acteurs traditionnels de la défense des droits de l'homme commencent à prendre conscience des enjeux que le Réseau porte sur cette question. En France, l'association [Reporters Sans Frontière->http://www.rsf.org/rubrique.php3?id_rubrique=272] par exemple a, plus tôt que les autres, compris qu'Internet constituait un moyen très puissant pour les dissidents de nombreux pays de diffuser informations et opinions. A contrario, la [Ligue des Droits de l'Homme->http://www.ldh-france.org/docu_hommeliber2.cfm?idhomme=541] s'est constamment méfié d'un media qu'elle a identifié pendant très longtemps uniquement comme vecteur de propagande néo-nazi. On imagine que les associations spécialisées, comme l'[Electronic Frontier Foundation->http://www.eff.org/Censorship/], qui se bat sur ce front depuis des annédes, peuvent se réjouir d'être rejointes enfin par des porte-paroles plus populaires et prestigieux de la conscience internationale.
2006-08-29 09:21:16
Amnesty International
http://efai.amnesty.org/
Cela fait un certain temps que l'on parle, dans les milieux avertis, des puces dites TPM (pour Trusted Computing Module) et de l'informatique dite de confiance : [?TCPA]. Concrètement, cet acronyme désigne habituellement l'insertion au coeur des ordinateurs de processeurs spécifiques contrôlant de manière systématique la signature de chacun des éléments, matériels ou logiciels, au moment d'être activé ou lancé. Pour cela, la puce TPM est en relation avec un tiers de confiance auprès duquel tout périphérique ou tout programme doit être dûment enregistré. L'intérêt du dispositif est qu'il repose sur un élément matériel dont l'activité est antérieure à toute autre au sein de l'ordinateur. Il ne peut donc logiquement y avoir corruption de ce dernier par un quelconque virus ou programme malveillant ; de la même manière, les entreprises participant à ce programme (le [Trusted Computing Group->https://www.trustedcomputinggroup.org/home] : Microsoft, Sun, Apple, IBM, Intel, AMD, etc.) espèrent ainsi produire une parade absolue au piratage. D'un autre côté, un certain nombre de voix, émanant le plus souvent du logiciel libre, ont émis de [sérieuses réserves->http://www.lebars.org/sec/tcpa-faq.fr.html]. On craint en effet que l'industrie du logiciel n'en profite pour verrouiller son marché aux nouveaux acteurs, en rendant difficile et coûteux d'enregistrer son programme par exemple (c'est particulièrement vrai pour les logiciels libres dont bon nombre sont produits sur des bases organisationnelles informelles). D'autres observateurs s'inquiètent des conséquences qu'un tel système pourrait avoir sur la protection de la vie privée, puisque des informations sont transmises par la puce sans le contrôle de l'utilisateur. Le programme TCPA ne fait pas l'objet d'une grande communication auprès du public. Pourtant, son déploiement est bien avancé, fait remarquer [Benoar->http://linuxfr.org/2006/08/06/21170.html], un contributeur du magazine en ligne Linuxfr. Faisant tout simplement le tour des catalogues des principaux fabricants d'ordinateurs, il a vérifié, pour chacun des modèles s'il est doté ou non d'une puce TPM. Sa conclusion est sans appel. TCPA est aujourd'hui présent sur la plupart des modèles haut et moyen de gamme professionnels, par l'intermédiaire notamment des processeurs Intel Duocore qui les équipent. C'est le cas en particulier des ordinateurs vendus sous la marque Apple, passés depuis peu sous architecture Intel. Comme Benoar le fait remarquer, les enjeux d'une telle technologie sont suffisamment importants pour qu'on juge nécessaire d'en débattre. Il faut peut-être s'inquiéter qu'elle se diffuse ainsi rapidement en silence sans qu'une réelle prise de conscience l'accompagne.
2006-08-30 17:22:21
Journal de Benoar
http://linuxfr.org/~benoar/22337.html
Le service de partage de photos en ligne [Flickr->http://www.flickr.com], récemment racheté par Yahoo! a ouvert il y a quelques jours une nouvelle application permettant a tous ses membres de géolocaliser ses photos sur une carte interactive. On peut lire aujourd'hui [sur le blog de Flickr->http://blog.flickr.com/flickrblog/2006/08/geotagging_one_.html] qu'en 24 heures, c'est un peu plus d'un million deux cent mille photos qui auraient été ainsi géolocalisés par l'ensemble des utilisateurs. Cet événement montre combien, à l'heure où les medias grand public commencent à [s'intéresser au Web 2.0->http://www.liberation.fr/actualite/evenement/evenement1/201216.FR.php], les logiciels sociaux de cette nature sont capables, lorsqu'ils réussissent, de mobiliser instantanément des forces collectives considérables qu'aucune organisation classique n'aurait eu la capacité d'assembler. Il faut dire que les possiblités offertes par [Flickr Map->http://flickr.com/map] sont fascinantes. L'interface de navigation, particulièrement bien faite (quoiqu'assez lente mais on comprend pourquoi), permet de croiser une navigation géospatiale à la souris (comme sur une carte classique Google ou Yahoo Maps) et des critères de recherche par mots-clés. Des points roses permettent au clic de prévisualiser les photos directement sur la carte. Saluons aussi la simplicité de l'interface de saisie qui permet au détenteur d'un compte Flickr de faire glisser ses photos directement sur la carte à partir d'une sorte de planche-contact juxtaposée à la carte en mode édition.
2006-08-30 18:06:35
Flickr Blog
http://blog.flickr.com/
«[Linux et les Choses->http://linuxetleschoses.tuxfamily.org/] est un site d'information sur l'emploi des logiciels libres dans la recherche et l'enseignement (spécialisé sciences humaines). Il fut lancé en janvier 2006 et n'a pas de prétention particulière sauf d'informer un public bien particulier, souvent composé de néophytes, sur l'intérêt d'utiliser des logiciels libres plutôt que des logiciels propriétaires. Vous l'aurez compris, Linux et les Choses n'est pas un recensement de tous les logiciels libres. D'autres sites font cela très bien, tel le célèbre [Framasoft->http://framasoft.net]. Le site entend démontrer que les logiciels libres devraient être considérés comme des outils de premier ordre pour la production et la diffusion des connaissances. L'objectif est donc de diffuser des informations susceptibles de favoriser l'adoption de logiciels libres et d'influencer les projets pour un travail de recherche classique en sciences humaines et sociales. La production et la diffusion des connaissances scientifiques dépend aujourd'hui de manière vitale de l'outil informatique. L'accessibilité, l'appartenance et la composition des systèmes d'exploitations et des logiciels grâce auxquels les connaissances accèdent à un support numérique, sont des enjeux fondamentaux pour plusieurs raisons : * leur coût, * leur intégration dans les pratiques scientifiques, * leur utilité dans le transfert des connaissances, * leur appartenance ou non à un monopole privé, * leur diffusion. ... Bref tout ce qui fait qu'un outil scientifique, tout comme la connaissance qu'il contribue à produire, doit lui aussi se diffuser de manière rapide et libre de toute pression économique ou politique. On n'apprend rien de nouveau : Galilée en avait déjà fait l'expérience avec sa lunette astronomique. L'accord-cadre entre le MENRT ( Le Ministère de l'Education Nationale, de la Recherche et de la Technologie) et l'AFUL (Association Francophone des Utilisateurs de Linux) est un exemple d'une prise de conscience amorcée officiellement dès 1998. Si les avantages des logiciels libres ne sont plus à démontrer du côté des sciences de la nature (logiciels d'astronomie, calculs en tous genres, [?LaTex], etc.), ce n'est pas exactement le cas de la visibilité des logiciels libres et de l'intérêt de Linux pour les sciences humaines. En effet, le plus souvent par habitude et non par conviction, la plupart des enseignants et chercheurs dans ces domaines utilisent des systèmes et logiciels propriétaires. Leurs outils de travail sont ainsi soumis à un coût, à une licence et aux inconvénients (la protection des données, l'apprentissage) inhérents à une méconnaissance des possibilités offertes par le "Libre", alors même que leurs besoins en matière d'informatique pourraient être entièrement comblés par des logiciels libres. [Linux et les Choses->http://linuxetleschoses.tuxfamily.org/] fait donc le pari de proposer un éventail du libre susceptible d'intéresser un tel public.» [Christophe Masutti->http://christophe.masutti.club.fr/Perso/index.html] (merci à [Jean-Christophe->http://www.revues.org/index.html?/apropos/equipe/comite-de-redaction/280-jean-christophe-peyssard] )
2006-08-31 12:51:58
CNRS - EDSH
http://marengo.dsi.cnrs.fr/forum/index.php?bn=edsh_informations&action=view&key=1156960198
Il paraît que [j'ai trollé->http://www.homo-numericus.net/breve805.html]. Je veux bien. Mea Culpa. Il n'empêche que mon bref passage en 640*480 chez nos amis les humains (d'Ubuntu) m'a fait une drôle d'impression. Il n'y a pas qu'à moi apparemment : «There was a problem with a recent Ubuntu update. If you are no longer able to log in to your Ubuntu system or you updated your system on Monday, August 21st or Tuesday, August 22nd, please read these instructions» peut-on lire sur la [page d'accueil->http://www.ubuntu.com] du site de la distribution. Mais, si je ne peux me loguer sur mon système, comment suis-je censé pouvoir lire cette page? mmmh ? c'erst vrai : Linux rend sociable. Pour ma part, en désespoir de cause, j'en suis revenu à Knoppix. Retour à la case départ donc...mais cette fois-ci, en allant plus loin ; car pour configurer mon serveur ftp et samba, Webmin est mon ami. [Webmin->http://www.webmin.com/] est une interface Web permettant d'administrer sa machine (et surtout les services de sa machine) à distance. Un passage par l'installeur de paquets [synaptic->http://www.nongnu.org/synaptic/] me permet de la mettre en place. Sitôt fait, je me précipite sur mon portable (sous Windows XP genuine) et ouvre Webmin via Firefox. Aahh que ça fait du bien d'accéder à Linux avec un bureau Windows ! Vite, je me précipite sur la page d'administration de Samba. Webmin me dit que le module est mal configuré : il cherche le fichier de configuration dans /samba/ alors qu'il se trouve dans /etc/samba/. Pas grave. Ensuite, l'interface de configuration est plus complexe. On est toujours un peu désapointé devant des pages qui vous posent plusieurs fois ce qui a l'apparence d'être la même question (il faut penser à ouvrir plusieurs sortes de droits (sur le partage lui-même, mais aussi sur les fichiers qu'il contient) pour que cela fonctionne). J'y arrive quand même. Passons au ftp. Un passage par synaptic me permet de l'installer (penser à jeter un coup d'oeil dans la console, car en plein milieu de l'installation, on se voit poser un question métaphysique : "do you want to run proftpd as inetd or standalone server" ? Pas de panique, choisissez n'importe laquelle des réponses : aucune ne fonctionne). Je vous passe les détails, installs et réinstalls n'y font rien ; ça ne tourne pas. C'est à ce moment qu'intervient mon deuxième allié : [Xampp->http://www.apachefriends.org/fr/xampp.html]. Ce logiciel est une sorte de gros paquet qui contient : un serveur Web Apache, un serveur Mysql et, bien sûr, un serveur Proftpd. Je l'ai utilisé à plusieurs reprises sous Windows. Un des gros avantages de ce paquet, c'est qu'il est totalement autosuffisant : car, quand on le décompresse, il s'installe dans un seul dossier qui contient tout. Il suffit alors de lancer le logiciel et tout se lance d'un coup. Or, il se trouve qu'il en existe une version pour Linux qui fonctionne de la même manière ; ce qui est très appréciable. Ceux qui se sont amusés à compiler et installer des serveurs Apache (mod_quelque chose) et Mysql sur un système Linux me comprendront. Fini les dépendances non satisfaites, les conflits de version, de langues, les multiples fichiers de configuration, les innombrables téléchargements et retéléchargements. Avec Xampp, sous Linux comme sous Windows, il suffit de décompresser l'archive ; on peut alors lancer les serveurs en une ligne de commande (qui peut être configurée pour être automatique via Webmin). Pour ma part, il m'a suffit d'aller modifier le fichier de configuration de Proftpd dans le dossier de Xampp pour faire pointer la racine du serveur sur la partition que je souhaite partager, et le problème était réglé. Hurra ! me voici arrivé au bout de mon périple ; victorieux ; harrassé mais victorieux. Certes, j'ai mis 24 heures à mettre en place ce qui se fait en une demi-heure sous Windows, mais voilà, je suis sous Linux, ce n'est pas donné à tout le monde. Je suis le roi du monde avec mon Knoppix dernier cri, et je flotte béatement entre mes trois disques durs, que ce soit en partage Windows ou en ftp. Bon allez, pour fêter ça, je m'en vais m'imprimer [The Wealth of networks->http://www.benkler.org/wealth_of_networks/index.php/Main_Page] qui m'attends sagement sur mon bureau (Windows) depuis tout ce temps et que je veux lire tranquillement dans mon canapé... Imprimer ? (un jour je vous raconterai comment la rencontre entre mon HP Deskjet 710C et CUPS avec Webmin et Samba en arbitres fit couler le sang dans ma cave et faillit me faire basculer de l'autre côté du miroir)
2006-09-01 18:46:08
http://
La grande vague du Web 2.0 a tendance à occulter l'autre grande mutation du réseau : l'émergence du [journalisme citoyen->http://www.economist.com/surveys/displaystory.cfm?story_id=6794240] (citizen journalism). Popularisée aux Etats-Unis par [Dan Gillmor->http://www.homo-numericus.net/blog/Grassroot-journalism-un-concept-d.html] dans son livre [We the media->http://wethemedia.oreilly.com/], cette pratique s'est à ce point répandue qu'elle a permis de construire dans plusieurs pays de véritables médias entièrement alimenté par des contenus provenant de sources amateures. En France par exemple, le portail [Agoravox->http://www.agoravox.fr/] constitue une alternative intéressante aux quotidiens nationaux dont le lectorat va faiblissant. Aux Etats-Unis, Dans Gillmor a lui-même tenté l'expérience avec Bayosphère, dont le récent échec montre bien que la question du modèle économique n'est pas encore résolue. C'est en Corée pourtant qu'il faut aller cherche le modèle le plus abouti de ce que permet le journalisme citoyen. Fondé en 2000 par [?Oh Yeon Ho], un spécialiste des médias, le portail [Ohmynews->http://english.ohmynews.com/] tient aujourd'hui une place non négligeable dans le paysage médiatique coréen. Basé sur les contributions volontaires de milliers de journalistes autoproclamés, le journal construit sa une sur la base de la sélection des meilleurs articles proposés. Le succès du journal est considérable[[Lire [les explications de Ronda Hauben->http://english.ohmynews.com/articleview/article_view.asp?no=309880&rel_no=1] sur ce succès qui doit beaucoup aux particularités coréennes]]. Ainsi est-il réputé avoir joué un rôle non négligeable au cours des élections de 2002 qui ont vu l'arrivée au pouvoir de [?Roh Moo Hyun]. Plus récemment, Ohmynews, qui possède déjà une édition internationale en Anglais a pris pied [au Japon->http://www.ohmynews.co.jp/]. En juillet dernier, il a organisé une [conférence internationale->http://english.ohmynews.com/english/eng_section.asp?article_class=11] sur le journalisme citoyen rassemblant des intervenants venus de plus de vingt pays. Des figures comme Craig Newmark, de [Craigslist->http://sfbay.craigslist.org/], Dan Gillmor, J.D. Lasica pour [Ourmedia.org->http://ourmedia.org/], Tim Lord de [Slashdot.org->http://www.slashdot.org] ou Ethan Zuckerman de [Globalvoices->http://www.globalvoicesonline.org/] y ont été entendus. Il est difficile de douter que les portails de journalisme citoyen comme celui-ci viennent prendre place aux côtés de plus classiques agrégateurs de news pour concurrencer encore un peu plus le journalisme professionnel. Certains de ses représentants répondent d'ailleurs en interrogeant la qualité de l'information produite par [ce journalisme sans journalistes->http://www.newyorker.com/fact/content/articles/060807fa_fact1].
2006-09-02 23:37:20
The Economist
http://www.economist.com/surveys/displaystory.cfm?story_id=6794240
Homo Numericus, portail d'information sur les relations entre technologies numériques et société lance aujourd'hui son premier [?podcast], intitulé Digitalia. D'une fréquence hebdomadaire, Digitalia offre chaque lundi une revue de presse sur les questions de société liées à la diffusion des usages des technologies numériques. Il s'agit en 5 minutes environ de faire le tour des principales nouvelles, d'identifier les grandes tendances qui ont pu émerger à travers tel ou tel événement. Volntiers synthétique, Digitalia n'a pas vocation à être exhaustif. Largement alimenté des nouvelles publiées sur le portail ou au sein de son réseau proche, Digitalia s'adresse aux non spécialistes. Très vite, la chronique devrait intégrer une rubrique agenda permettant de se tenir au courant des événements ou rencontres du domaine. Digitalia peut faire l'objet d'un [abonnement->http://www.homo-numericus.net/spiptunes.php3?id_rubrique=31] via [itunes->http://www.apple.com/itunes/] ou tout autre client de podcast (comme [Juice->http://juicereceiver.sourceforge.net/], Winamp, [Doppler->http://www.dopplerradio.net/] ou [Nimiq->http://www.nimiq.nl/]. Pour télécharger directement le fichier sonore, [cliquer ici->http://www.homo-numericus.net/IMG/mp3/digitalia1.mp3].
2006-09-03 22:35:13
Digitalia
http://www.homo-numericus.net/spiptunes.php3?id_rubrique=31
C'est la question à laquelle tente de [répondre dans son blog->http://www.aaronsw.com/weblog/whowriteswikipedia], Aaron Swartz, un des membres de la communauté Wikipedia, la célèbre encyclopédie en ligne collaborative. A première vue, la charte de fonctionnement de Wikipedia semble simple : chacun dispose de droits équivalents pour créer ou modifier les articles de l'encyclopédie. On imagine donc que ces articles sont le résultat d'une collaboration égale entre un très grand nombre de participants. [?Jimmy Wales], le fondateur de l'encyclopédie en ligne répète pourtant assez souvent que Wikipedia avance grâce au dévouement d'un nombre très restreint d'éditeurs (le noyau dur : près de 500) qui font le gros du travail, tandis qu'un nombre considérable de lecteurs modifie apporte très peu de modifications. C'est une structure en pelure d'oignon très célèbre parmi les communauté en ligne, que ce soit pour le développement de logiciels, ou même simplement sur les listes de discussion où l'on voit émerger un tout petit noyau qui écrit beaucoup, entouré d'un grand nombre d'inscrits qui ne font en fait qu'observer (on les appelle des [lurkers->http://www.internetactu.net/?p=6353]). En ce qui concerne Wikipedia, Swartz a repis les archives de l'encyclopédie, et a appliqué un logiciel d'analyse permettant de savoir non pas le nombre d'actes d'édition faits par chacun des contributeurs (c'est ce qu'on mesure habituellement) mais la quantité de texte apporté par chacun. Dans ce cas, a-t-il découvert, la situation est très différente : un grand nombre d'éditeurs occasionnels semblent en effet avoir apporté une grande quantité de textes (en un nombre réduit d'actes d'édition), tandis que les éditeurs du noyau ont beaucoup édité, mais sans apporter énormément de texte (ni d'information finalement). Cette situation est logique, explique-t-il : dans le fonctionnement d'une encyclopédie, on a un grand nombre de rédacteurs qui possède chacun une connaissance pointue sur un sujet particulier ; et puis une équipe centrale d'éditeurs, qui ont des connaissances plus générales et reprennent les contributions de chacun pour les vérifier, les corriger, les préciser, les améliorer sur le plan de l'expression, etc. Pourquoi cette discussion ? tout simplement parce que la fondation Wikimedia est entrée (elle aussi) en [période électorale->http://meta.wikimedia.org/wiki/Elections_for_the_Board_of_Trustees_of_the_Wikimedia_Foundation%2C_2006/En] pour renouveler 1 siège de son comité directeur. Cette différence de perception quant au rôle que joue chacun, argumente Swartz - qui est candidat à ces élections - modifie considérablement la manière dont pourra être conduite à l'avenir la politique de l'encyclopédie.
2006-09-04 22:18:33
Who writes Wikipedia ?
http://www.aaronsw.com/weblog/
Une des grandes constantes du débat sur la protection de la vie privée pour ce qui concerne les nouvelles technologies, c'est la décalage entre un discours théorique souvent très sourcilleux et prudent, et la pratique quotidienne de la plupart des utilisateurs qui communiquent des informations stratégiques sur eux-mêmes sans s'en rendre compte ou en imaginer les conséquences. Jay White, du blog Little Dumb Man [fait la démontration->http://dumblittleman.blogspot.com/2006/09/how-to-get-robbed-killed-or-stalked-by.html] de manière très convaincante, que les agendas partagés, proposés par Google, Yahoo, MSN et d'autres portails, qui sont souvent librement accessibles sur le réseau, constituent de véritables mines de renseignement sur les personnes qui les alimentent. A partir de là, il est très facile, argumente-t-il preuve à l'appui, de déduire à quel moment par exemple quelqu'un s'absentera de chez lui, offrant sa maison aux cambrioleurs. Et pour enfoncer le clou, il montre à ceux qui croient qu'il suffit de cacher son véritable nom en utilisant un pseudo, qu'avec un peu de jugeotte et à l'aide des renseignements téléphoniques, il est très facile de reconnaître l'identité d'une personne qui se cache derrière un pseudo. On apprendra en finissant la lecture de ce billet, comment régler les options de [Google Calendar->http://www.google.com/calendar] permettant de garder privé son agenda en ligne. A bon entendeur...
2006-09-05 10:12:06
Slashdot
http://yro.slashdot.org/article.pl?sid=06/09/04/1328229
Lu dans la lettre d'information du Forum des Droits de l'Internet : «Le Forum des droits sur l'internet et le quotidien Metro lancent un espace de discussion commun sur le thème de la Net campagne. Sur fond de pré-campagne 2007/2008, ce forum est l'occasion d'engager une discussion entre internautes sur l'utilisation, la place et le rôle du web dans les élections. Ce forum propose plusieurs thèmes de discussion et s’enrichira au fil des débats : - Le web sera-t-il réellement un lieu de débat politique pour les élections ? - Web ou médias traditionnels : quel canal d'information choisir ? - Les nouvelles technologies permettront-elles une plus grande implication du public dans la vie politique ? Sans être un lieu de débat politique, ce forum permet aux internautes d’exprimer leurs attentes, interrogations ou craintes face au développement de ces nouveaux outils et espaces de la vie publique.» Concrètement, il s'agit simplement d'un [sujet de discussion ouvert dans le forum du quotidien gratuit Metro->http://www.metrofrance.com/forum/]. Un premier message, posté par un opérateur du journal est censé lancer le débat. Il est difficile de voir ce qu'apporte dans cette initiative, un FDI qui nous avait jusqu'ici habitués à produire des interventions de grande qualité.
2006-09-05 23:25:56
FDI
http://www.foruminternet.org/
L'[?ICANN] dérape. L'Internet Corporation for Assigned Names and Numbers qui établit les règles d'attribution des [?noms de domaine] est en train de proposer de nouvelles règles pour ce qui concerne les noms se terminant par .biz, .info et .org. Jusqu'à présent en effet, les organismes procédant à l'enregistrement de ces noms étaient contraints d'appliquer un tarif uniforme à tous les noms de domaine. Par exemple, le coût d'achat de fdsfjhbvcvxc.net (que personne ne veut acheter), est exactement le même que celui de musique.org que l'on imagine très prisé. D'où la règle qui a toujours prévalu jusqu'ici, du «premier arrivé, premier servi», fortement tempéré par l'application du droit des marques. En droit, le système actuel d'enregistrement de noms de domaines garantit une égalité formelle entre tous les usagers en donnant à l'adolescent désargenté les mêmes chances qu'à la grosse corporation d'acheter le nom de domaine qui l'intéresse, pourvu qu'il soit le premier à le faire. Les nouvelles règles d'attribution proposées par l'ICANN brisent cette égalité, en autorisant les société d'enregistrement à appliquer [des tarifs variable->http://www.icann.org/announcements/announcement-2-28jul06.htm]s selon la nature du nom de domaine. Nul doute qu'ils réussissent par là à écarter durablement les acteurs les moins fortunés ou les moins puissants du marché des noms de domaine les plus populaires. Ce changement en profondeur provoque des [levées de bouclier->http://forum.icann.org/lists/org-tld-agreement/] ; [aux Etat-Unis->http://www.icannwatch.org/article.pl?sid=06/08/24/1857218] et en [Europe->http://log.does-not-exist.org/archives/2006/09/01/2082_on_registry_pricing_persistence_and_stability.html] (et même [en France->http://www.agoravox.fr/article.php3?id_article=13054], y compris chez [les professionnels->http://www.lebardegandi.net/post/2006/08/29/Levolution-du-marche-des-noms-de-domaine]), mais il n'est pas sûr que les protestations aient un quelconque effet. [Depuis la tentative avortée de mise en place d'une gouvernance démocratique->http://www.google.fr/custom?domains=homo-numericus.net&q=ICANN&sitesearch=homo-numericus.net&sa=Recherche+Google&client=pub-0092074903709305&forid=1&ie=ISO-8859-1&oe=ISO-8859-1&cof=GALT%3A%23008000%3BGL%3A1%3BDIV%3A%23336699%3BVLC%3A663399%3BAH%3Acenter%3BBGC%3AFFFFFF%3BLBGC%3A336699%3BALC%3A0000FF%3BLC%3A0000FF%3BT%3A000000%3BGFNT%3A0000FF%3BGIMP%3A0000FF%3BLH%3A59%3BLW%3A464%3BL%3Ahttp%3A%2F%2Fwww.homo-numericus.net%2Fimages%2Flogogoogle.gif%3BS%3Ahttp%3A%2F%2Fwww.homo-numericus.net%3BFORID%3A1%3B&hl=fr] en effet, l'ICANN s'est de plus en plus isolée du peuple de l'Internet en s'enfermant dans des procédures bureaucratiques où les intérêts financiers des plus puissants jouent un rôle de premier plan.
2006-09-06 01:00:45
ALAC
http://icannalac.org/index.php?option=com_content&task=view&id=126&Itemid=88
Au moment où [Amazon.com->http://www.amazon.com/] lance son service de téléchargement de films et que [iTunes->http://www.apple.com/fr/itunes/] s'apprête à ouvrir le sien la semaine prochaine, il peut être utile de lire plusieurs publication récemment parues sur la question de la diffusion du film a l'ère numérique. Un premier rapport, rendu cet été par Daniel Goudineau au Centre National de la Cinématographie sur [la projection numérique en salle->http://www.cnc.fr/Site/Template/T1.aspx?SELECTID=1921&ID=1226], et résumé récemment par [le site Ratiatum->http://www.ratiatum.com/news3591_Quand_les_DRM_s_invitent_dans_les_salles_de_cinema.html], met en évidence les nombreuses difficultés que rencontre ce mode de distribution. Ainsi, la peur du piratage incite-t-elle les diffuseurs a utiliser systématiquement des systèmes de DRM sur leurs films, afin qu'aucune fuite ne soit possible. La conséquence, renforcée par le coût très élevé des équipements et leur manque d'interopérabilité est un renforcement de l'intégration verticale du système de distribution, avec un faible nombre d'acteurs, diminuant encore un peu plus l'indépendance des salles. Si la situation du numérique en salle est encore faiblement développée (seules 150 salles dans le monde sont équipées en D-Cinéma), la distribution de films par Internet n'est pas beaucoup plus explorée. [Un article publié par Sophie Boudet-Dalbin dans la revue Sens-Public->http://www.sens-public.org/article.php3?id_article=321] fait le point sur cette question. Elle insiste en particulier sur la situation européenne, en montrant que la politique audiovisuelle de l'Union semblent décalée par rapport aux possiblités qu'offre en théorie ce mode de distribution. Pour finir, on peut s'interroger sur la réalité des usages correspondant à la distribution payante de films de cinéma sur Internet. [Un article de Wired->http://www.wired.com/news/culture/0,71717-0.html] tend à montrer que dans le domaine de l'audio-visuel, comme pour le texte finalement, et c'est ce qui est intéressant, la forme courte l'emporte sur la forme longue. Le succès des clips vidéos, qu'ils soient musicaux, d'actualités ou produits par des amateurs en est la preuve. D'un autre côté, selon une enquête récente analysée par Wired, un nombre relativement faible d'internautes ont jusqu'à présent téléchargé un film complet contre paiement.
2006-09-07 14:04:17
Ratiatum
http://www.ratiatum.com/news3591_Quand_les_DRM_s_invitent_dans_les_salles_de_cinema.html
L'approche des élections présidentielles provoque une multiplication de commentaires, [remarque Pointblog->http://www.pointblog.com/past/2006/09/07/internet_et_politique_dans_le_monde_et_la_croix.htm], à propos de l'utilisation d'Internet comme moyen de communication politique. Au Parti Socialiste, la «méthode Royal», qui repose, dans les intentions affichées en tout cas, sur un dialogue constant avec un électorat potentiel par l'intermédaire d'[un site web conçu comme un forum->http://www.desirsdavenir.org/], fait régulièrement l'objet de commentaires méprisants de la part des plus âgés, à l'exemple de Lionel Jospin déclarant récemment que [les tuyaux ne donnaient pas le contenu->http://www.lemonde.fr/web/article/0,1-0@2-3224,36-806770,0.html]. A l'UMP, c'est la mise en oeuvre de méthodes marketing risquées, comme [l'achat de liens sponsorisés Adword->http://www.atelier.fr/article.php?artid=31390] ou [le spaming->http://www.sarkospam.net/], qui est remarquable. On y reconnaît la marque de fabrique d'une [agence de communication spécialisée->http://www.lenchanteur.com/] connue pour son agressivité dans le domaine. Au delà, ce qui frappe dans la campagne qui s'annonce, c'est la banalisation de l'utilisation de ces outils par l'ensemble de la classe politique. Blog, sites, forums, chat sont autant de passages obligés aujourd'hui pour chacun des candidats, même potentiels... A un autre niveau, l'invitation de blogueurs identifiés comme influents au côté de la presse que l'on n'ose plus qualifier de dominante étant donné son état de délabrement avancé, est passée dans les moeurs. La [complaisance dont font preuve ces invités d'un genre nouveau->http://www.bigbangblog.net/article.php3?id_article=425] à l'égard de leur hôte est paradoxalement aussi un puissant ressort de la banalisation. La croyance en effet à un [5ème pouvoir->http://www.news.fr/actualite/medias/0,3800002047,39362908,00.htm?xtor=1], citoyen, libre et indépendant, et qui le serait par la seule vertu du support technologique qui le caractérise, est en train de s'effondrer d'elle-même. Les épisodes malheureux de [la DADVSI->http://www.nanoblog.com/past/2006/01/au_ministre_de_la_culture.htm], de [l'interview du Ministre de l'intérieur par Loïc Lemeur->http://www.loiclemeur.com/france/2005/12/nicolas_sarkozy_1.html], et plus récemment, du congrès de l'UMP dissipent totalement les nuées de la démocratie technologique. Blogueurs et internautes, netizen et adeptes de la démocratie électronique semblent découvrir progressivement que la liberté de parole qui permet de revendiquer légitimement le statut de contre-pouvoir n'est pas donnée immédiatement mais s'acquiert progressivement en instaurant difficilement - et en prenant des risques aussi -, un véritables rapport de forces avec les pouvoirs dominants.
2006-09-08 21:46:35
Poinblog
http://www.pointblog.com/past/2006/09/07/internet_et_politique_dans_le_monde_et_la_croix.htm
Comment mettre en place un dialogue de niveau mondial pour répondre aux questions les plus importantes de notre époque ? C'est la question à laquelle tente de répondre aujourd'hui l'ONG [Dropping Knowledge->http://www.droppingknowledge.org/] en organisant une immense table-ronde à Berlin réunissant 112 artistes, intellectuels et scientifiques venus de l'ensemble de la planète. Depuis plus d'un an, quiconque peut venir déposer la question qui lui semble la plus importante, sur le site de Dropping Knowledge. Parmi les 25000 questions ainsi récoltées, un certain nombre ont été sélectionnées pour demander aux invités d'y répondre. Assis en cercle autour d'une immense table installée sur Bebelplatz à Berlin, ceux-ci ont trois minutes pour exprimer leur opinion sur chacune d'elle face à une caméra enregistreuse ; l'ensemble des clips ainsi obtenus constitueront une immense base de données sur tous les sujets possibles librement accessible et navigable, à partir de laquelle, espèrent les organisateurs, de nouveaux dialogue se développeront. On ne peut qu'être impressionné par la sophistication des moyens de communication et la qualité rhétorique des présentations de cette initiative. Afin de s'établir à un tel niveau de globalisation, celle-ci ne peut d'ailleurs faire autrement que de s'appuyer massivement sur les réseaux et technologies numériques (Site Web, base de données en visualisation graphique, enregistrements numériques, forums et formulaires en ligne, etc.). On peut en revanche s'interroger sur la réalité d'un dialogue ainsi organisé : chaque invité est par exemple prié de répondre seul, face à la caméra, aux questions qui lui sont posées. Dans ce cas, pourquoi avoir réunis autant de personnalités en un même lieu sans possibilité d'échanger entre eux ? Financé en particulier par le groupe d'assurances allemandes Allianz, Dropping Knowledge est né de la volonté d'artistes et d'humanitaires allemands et américains.
2006-09-09 14:30:30
Dropping Knowledge
http://www.droppingknowledge.org
Au menu de la seconde édition du podcast proposé par Homo Numericus : tarification des noms de domaine, mode de fonctionnement de Wikipedia, pédagogie du format RDF. Et une surprise en prime. Bonne écoute ! [Cliquez ici->http://www.homo-numericus.net/IMG/mp3/Digitalia2.mp3] pour télécharger le fichier mp3
2006-09-10 23:14:40
Téléchargement
http://www.homo-numericus.net/IMG/mp3/Digitalia2.mp3
Piotrr pourra se gausser. Il n'est pas toujours facile de se contenter de l'interface graphique d'Ubuntu. Les geeks finissent toujours par vous dire : "mais pourquoi tu ne passes pas en ligne de commande? Les interfaces graphiques ce n'est pas très fiable!". Il faut reconnaître que, parfois, une application ne veut pas s'ouvrir. En fait, elle affiche des erreurs dans un terminal. Et vous ne voyez pas les erreurs s'afficher. Mais votre logiciel ne démarre pas pour autant. Aujourd'hui, j'ai cherché sans succès à repasser du gestionnaire de sessions GDM à KDM, c'est-à-dire de celui de Gnome à celui de KDE. Pour une raison obscure, l'application Gnome permettant cela refuse de s'exécuter. Rage. Désespoir. Alors je suis allé sur les forums Ubuntu, j'ai tapé "KDM" et j'ai trouvé un petit homme sympa qui m'a indiqué la marche à suivre. Il "suffit" d'écrire ça dans une ligne de commande shell : sudo dpkg-reconfigure kdm Hop, ça marche.
2006-09-17 08:15:28
http://
Je suis toujours aussi séduit par le look et la simplicité de Gnome... et par les applications et le caractère configurable de KDE... Alors je tente de passer de KDE à Gnome, me disant que -de toutes façons- KDE et Gnome sont des bureaux Linux, compatibles entre eux. Mais sur Gnome, le menu affichant les logiciels graphiques dissimule KflickR, application décisive pour moi. Pas grave, je la lance en ligne de commande. Hop, elle se lance, tout va bien. Oui, mais le glisser-déposer entre Digikam et KflickR marche mal... pour ne pas dire pas du tout. C'est précisément là que réside la cohérence d'un environnement: que toutes les applications communiquent de façon transparente. Alors je reviens sur KDE, si laid, si pratique.
2006-09-17 08:34:57
http://
Mathias Klang, le responsable du projet [Creative Commons pour la Suède->http://www.creativecommons.se/] vient de rendre publique sa thèse d'informatique en utilisant une des licences proposées par le projet. Les licences Creative Commons permettent aux auteurs de créations intellectuelles, quelle qu'en soit la nature, de déterminer finement les droits d'utilisation qu'ils accordent au public sur leur travail, le minimum étant toujours d'autoriser la copie et le rediffusion dans un cadre non commercial. Intitulée [«Disruptive Technology, Effects of Technology Regulation on Democracy»->http://www.ituniv.se/%7Eklang/web/thesis/klang_thesis2.pdf], la thèse de Mathias Klang, préparée à l'Université de Göteborg, s'interroge sur les relations entre démocratie et régulation technique des réseaux, dans une tradition de recherche désormais bien balisée. Les thèses sont typiquement des objets pour lesquels les licences Creative Commons couplées à une stratégie de diffusion en ligne sont utiles. Elles permettent au doctorant de protéger son travail sans empêcher sa circulation large dans les milieux académiques en particulier. C'est ce qu'a bien compris l'Université Lyon 2 qui propose à ses étudiants un service de diffusion des thèses ven ligne et [les incite->http://www.cybertheses.org/statut_theses.php#CC] à utiliser une licence Creative Commons. (via [fmf->http://www.voxinternet.org/])
2006-09-28 10:36:31
Mathias Klang
http://www.ituniv.se/%7Eklang/
Excellente idée qu'a eu Natacha Quester-Séméon, du collectif [Les Humains Associés->http://www.humains-associes.org/], que d'[interroger le sociologue des sciences Pierre Lagrange à l'occasion du 5ème anniversaire du 11 septembre->http://www.memoire-vive.org/archives/001196.php]. Issu du célèbre Centre de Sociologie de l'Innovation à l'Ecole des Mines, Pierre Lagrange s'est en effet intéressé aux para-sciences, comme la parapsychologie et l'ufologie, en particulier pour montrer que le partage entre sciences et «fausses» sciences ne recouvrait pas l'opposition rationnel-irrationnel mais était le résultat de constructions historiques et collectives. C'est sur l'importance qu'ont prises les théories du complot à propos du 11 septembre, en particulier sur Internet, qu'il est ici interrogé. En 38 minutes d'explications denses, il montre comment Internet, en renforçant une démocratisation des opportunités de prise de parole publique accélère l'effondrement du cadre rationnaliste classique. Plutôt que sur une vision binaire rationnel/irrationnel, c'est bien plutôt en prenant en compte une multiplicité de représentations particulières du monde qu'il estime nécessaire de construire le débat public aujourd'hui.
2006-09-28 22:44:04
11 septembre - Internet et conspirationnisme Interview de Pierre Lagrange
http://www.memoire-vive.org/archives/001196.php
Titre historique de la presse spécialisée sur les nouvelles technologies, [Internet Actu->http://www.internetactu.net/] annonce aujourd'hui être financièrement soutenu par un club de 14 partenaires, acteurs de l'innovation et de la recherche qui ont signé une convention avec son éditeur, la [FING->http://www.fing.org]. Parmi eux, on retrouve par exemple les réseaux de recherche RIAM et RNRT, les écoles de télécommunication, le laboratoire Marsouin ou encore la Caisse des dépôts et consignations. Internet Actu est un outil de veille indispensable pour les chercheurs, innovateurs et développeurs de services en matière de technologies de l'information et de la communication, mais aussi pour tout citoyen un peu concerné par les enjeux de la société de l'information. A l'heure où la presse en général peine à renouveler son modèle économique, on ne peut que se réjouir de voir ce titre se pérenniser sur un mode de diffusion gratuit pour tous et sous licence Creative Commons...
2006-09-28 23:14:51
Le communiqué
http://www.internetactu.net/?p=6590
La gouvernance de l'Internet est une affaire trop sérieuse pour être laissée aux mains des seuls gouvernants. C'est ce que doivent se dire en ce moment les savants qui organisent en ce moment même la [première conférence du réseau académique pour la gouvernance de l'Internet (Global Internet Governance Academic Network)->http://www.internetgovernance.org/events.html], à Athènes en Grèce. Alors que la plupart des conflits et problèmes qui traversent le réseau mondial ne sont toujours pas résolus, la question de la gouvernance de l'Internet fait l'objet de recherches chaque jour plus développées. En France par exemple, le programme [Vox Internet->http://www.voxinternet.org/] rassemble des chercheurs de plusieurs disciplines ainsi que des acteurs sur la question. Aux Etats-Unis, [Milton Mueller->http://istweb.syr.edu/~mueller/], professeur à l'Université de Syracuse et auteur d'un [essai remarqué->http://www.homo-numericus.net/article.php3?id_article=198] sur les enjeux politico-économiques liés à l'attribution des noms de domaine est aussi particulièrement actif. C'est lui qui est d'ailleurs à l'initiative du réseau académique qui se réunira à Athènes à la fin du mois d'octobre. Ces questions, parfois très techniques, n'intéressent pas uniquement les fondus d'informatique contrairement à ce qu'on pourrait croire. L'étude des problèmes de coordination, de gestion et de gouvernance d'un réseau globalisé est particulièrement féconde lorsqu'on aborde les problématiques de gouvernance mondiale dans d'autres domaines comme le réchauffement climatique ou les politiques économiques.
2006-09-29 10:37:20
Internet Governance Forum
http://www.igfgreece2006.gr/
<doc1845|left>[Linux pratique->http://www.linux-pratique.com/] vient de sortir un numéro hors-série dédié aux logiciels libres de dessin vectoriel. Au programme, Inkscape, Skencil, Xara Xtreme (et son équivalent libre : Xara LX), OOoDraw ou encore QCad. Une bonne initiative, dont la lecture est instructive. On regrettera l'absence, dans ce numéro, d'un tableau comparatif des fonctionnalités et des vertus des outils propriétaires, comparés aux outils libres alternatifs. Nous avons besoin d'indicateurs simples et percurants.
2006-10-01 09:55:47
http://
En ce moment même, le projet [Science Commons->http://sciencecommons.org/] (qui est dérivé de la plus large initiative [Creative Commons->http://creativecommons.org/]), organise une conférence à Washington sur le thème de [l'accès aux données de la recherche->http://www.spatial.maine.edu/icfs/index.html]. En effet, la situation de l'accès aux résultats de la recherche, c'est-à-dire aux publications, a fortement évolué ces dernières années. La plupart des publication scientifiques sont aujourd'hui diffusées sur les réseaux numériques, et le mouvement pour le libre accès a contribué à lever bon nombre d'obstacles à la libre circulation de ces publications. Récemment encore, les [presses de l'Université d'Oxford->http://www.oxfordjournals.org/oxfordopen/] décidaient de mettre en oeuvre un modèle de publication dit hybride, où les auteurs peuvent choisir de rendre immédiatement disponible leurs articles pour tous, gratuitement. Aujourd'hui, et pour de multiples raisons, la réflexion se porte davantage vers l'accès aux données brutes produites par les recherches et sur lesquelles les publications sont construites. Un certain nombre de [textes proposés comme base de discussion de cette conférence->http://www.spatial.maine.edu/icfs/papers.html] pointent les multiples obstacles, juridiques, politiques, techniques qui parsèment la route de ce qu'on appelle désormais «e-science». E-science représente, à la suite du modèle centralisé et industriel popularisé sous le thème de «big science», un mode d'organisation de la recherche qui repose sur une mise en réseau généralisée des travaux de recherche et en partiulier bien sûr des données qu'ils produisent. Il s'agit bien évidemment dans ce cadre, de transcender les frontières institutionnelles, nationales, mais aussi disciplinaires qui empêchent cette circulation. Très excitant sur le papier, et dans les [présentations->http://berlin4.aei.mpg.de/presentations/Luce_OA06.pdf] qu'on peut en voir, le programme e-science comporte malgré tout un sérieux point aveugle : une quasi-absence de réflexion épistémologique sur ce que peut bien être le statut d'une donnée sortie du cadre de la recherche pour laquelle elle a été produite, et a fortiori de la discipline qui lui confère sa validité. Via [Affordance->http://affordance.typepad.com/mon_weblog/2006/10/la_science_comm.html]
2006-10-05 11:44:49
La science comme bien commun
http://http://affordance.typepad.com/mon_weblog/2006/10/la_science_comm.html
La question peut paraître saugrenue, si l'on a en tête le marché des ordinateurs personnels. Elle l'est beaucoup moins si on regarde celui de la distribution numérique de musique. Plusieurs observateurs font en effet remarquer que la firme de Cuppertino semble vouloir profiter de la domination de son balladeur numérique Ipod sur ses concurrents, pour améliorer sa position à d'autres niveaux de la chaîne industrielle. Le couple Ipod-Itunes en effet est très verrouillé. Récemment, le [Mercury News->http://www.mercurynews.com/mld/mercurynews/business/technology/14692913.htm] n'hésitait pas à comparer Apple à Microsoft sur ce terrain. Il est vrai qu'à l'analyse, Itunes peut être considérée comme une très intéressante boîte noire : à la fois lecteur multimédia, interface d'accès à la boutique Music Store et d'achat des différents morceaux inscrits au catalogue, gestionnaire de bibliothèque personnelle multimedia (il va par exemple, réorganiser et renommer les fichiers), et gestionnaire pour finir de l'Ipod. Plus récemment, Apple a fait preuve d'une agressivité encore plus marquée en [cherchant à empêcher l'ensemble des acteurs commerciaux d'utiliser le terme podcast ou podcasting->http://scobleizer.wordpress.com/2006/09/23/will-apple-sue-podtechnet-my-employer/] au motif que le suffixe pod renvoie à une marque déposée. C'est l'occasion de remarquer que par exemple, l'annuaire le plus populaire de podcasts, n'est autre qu'une sous-partie de la boutique de musique en ligne détenue par Apple et que le podcasting, qui s'est développé à une vitesse fulgurante et de manière assez spontanée, n'est pas sans poser quelques questions politiques en terme de format, de technologies, d'outils, et bien sûr d'usages. Via jcp.
2006-10-05 12:51:27
Wired blog
http://blog.wired.com/music/index.blog?entry_id=1561308
Les jeux vidéos sont en pleine expansion ; surtout lorsqu'ils sont «massivement multijoueurs», comme on dit. [World of Warcraft->http://www.wow-europe.com/fr/] est un de ces jeux récents qui a le plus contribué à permettre aux mondes virtuels de se lester de réalité, en se perpétuant et se développant de manière quasiment autonome, et en reconstruisant en son sein un véritable ordre social, économique et politique. Mais à bien des égards, World of Warcraft reste un jeu de rôles traditionnel où sont menées des quêtes très classiques pour un jeu d'heroic-fantasy. Second Life représente un pas supplémentaire dans la séparation entre le jeu à proprement parler et les mondes virtuels. Second Life, qui présente un monde à la fois abstrait et proche du nôtre, n'assigne pas de mission particulière à ses joueurs. A eux de vivre leur vie et y faire ce que bon leur semble. Du coup, on assiste à un renversement où le monde virtuel du jeu prend une réalité qui lui vient du monde physique. C'est ainsi par exemple que [la chanteuse Susan Vega y a fait une sorte de come back récemment->http://nwn.blogs.com/nwn/2006/07/virtual_vega.html], et qu'aujourd'hui plusieurs entreprises y prennent pied pour mener différentes activités (publicitaires d'abord, évidemment). Des créateurs viennent proposer leurs oeuvres, à l'exemple de [ce documentaire->http://www.futureofthebook.org/blog/archives/2006/08/documentary_licensed_through_c.html], diffusé pour la première fois dans second Life. Depuis plusieurs mois enfin, une société hôtelière habituée à construire de véritables hôtels s'est implanté dans le jeu avec un de ses fleurons nommé [Virtual Aloft->http://www.virtualaloft.com/]. On pourrait penser que le concept n'a rien de nouveau. Cela fait longtemps que sont proposés des mondes virtuels, par exemple, mais dans lesquels on pouvait simplement se promener et discuter avec d'autre joueurs. Le passage par les véritables jeux multijoueurs aurait donc permis à des univers comme Second Life d'élargir considérablement la palette d'action et donc d'enrichir l'expérience des joueurs, puisque ceux-ci peuvent construire, accumuler, utiliser des objets, des outils, des bâtiments. Il constitue donc une expérience vertigineuse qui repose sur la démultiplication quasiment infinie des espaces de l'action. Maheureusement, on ne peut en dire autant du temps qui n'est pas démultiplié, lui.
2006-10-05 22:16:56
Virtual Aloft
http://www.virtualaloft.com/
Changement de doctrine à l'[agence photographique de la Réunion des Musées Nationaux->http://www.photo.rmn.fr/]. Dans une [récente émission->http://www.radiofrance.fr/chaines/france-culture2/emissions/minuit_dix/] diffusée sur France Culture, Jean-Paul Bessières-Orsoni a déclaré que l'agence qu'il dirige autorisait toute utilisation non commerciale, et en tout cas privée des photographies qu'elle diffuse sur son site Internet. Alors que ce site est équipé d'un système de paiement essentiellement destiné aux professionnels, il semble bien qu'il soit possible pour un internaute d'afficher sur son blog personnel quelques une des 350 000 reproductions photographiques des oeuvres exposées dans les musées nationaux, de manière totalement libre. L'information n'est pas négligeable, remarque André Gunthert, chercheur à l'EHESS, [sur le blog du Laboratoire d'Histoire Visuelle Contemporaine->http://www.arhv.lhivic.org/index.php/2006/10/07/225-france-culture-et-le-droit-des-images]. Même s'il ne s'agit pas d'une politique aussi libérale que celle qui est pratiquée aux Etat-Unis pour les productions financées sur fonds fédraux, il est clair que la RMN, habituellement perçue comme un acteur plutôt privatif et peu partageur sur la question des droits liées aux photographies des oeuvres conservées par les musées publics, entamerait là une évolution remarquable. Rest que pour le moment rien n'a changé sur le site de l'agence photographique de la RMN, dont les [conditions générales d'utilisation->http://www.rmnphoto.com/Static/French/Conditions_Generales.pdf] ne renvoient pas directement à cette fameuse notion d'usage non commercial. Gageons que d'ici peu, l'Agence mettra ses textes en accord avec les fortes annonces de son directeur.
2006-10-08 22:36:35
RMN
http://www.rmn.fr/
Pas facile de s'y retrouver dans le foisonnement de blogs toujours plus spécialisés et pointus dans le domaine des nouvelles technologies. C'est pour cette raison que l'initiative de Pierre Giraud, professeur documentaliste, est bienvenue : [Metaodos.doc->http://metaodos.doc.free.fr/dotclear/], son blog offre une présentation synthétique des grandes problématiques liées à la notion de société de l'information. Ses premiers billets portent sur la dématérialisation de l'écrit ou les bibliothèques numériques. Ils constituent des portes d'entrée bien pratiques sur des questions qui font l'objet d'une énorme littérature spécialisée. Une sélection de ressources de langue française sur chaque thème permet de pousser plus loin ses investigations.
2006-10-10 08:31:46
Metaodos
http://metaodos.doc.free.fr/dotclear/
Le mouvement des archives ouvertes, qui vise à garantir le libre accès aux résultats de la recherche grâce à la mise en ligne de bases d'articles scientifiques que les chercheurs alimentent eux-mêmes, prend de l'ampleur en France. L'ensemble des organismes de recherche et d'enseignement supérieur, viennent en effet de signer [un protocole d'accord->http://hal.ccsd.cnrs.fr/more/Communique_de_presse_11_10.pdf] pour mettre en place une plate-forme commune de publications, étendue au niveau national. De fait, la plate-forme existe déjà. Il s'agit de l'[archive ouverte HAL->http://hal.ccsd.cnrs.fr/] (pour Hyper Article en Ligne), développée par une unité lyonnaise du CNRS, le Centre pour la Communication Scientifique Directe, depuis 2001. A l'origine, HAL devait être un miroir français de la grande base de publication internationale en physique des hautes énergies, baptisée [ArXiv->http://arxiv.org/]. Mais, au fil des années, l'initiative a su susciter l'intérêt d'autres disciplines (y compris dans les sciences humaines et sociales, aboutissant à la déclinaison [HAL SHS->http://halshs.ccsd.cnrs.fr/]) et de plusieurs établissements de recherche (comme [l'INRA->http://hal.ccsd.cnrs.fr/INRA/fr/] ou l'INSERM). De nombreux enjeux s'accumulent autour de cette archive. Il s'agit, bien sûr, dans un premier temps, d'assurer un libre accès à la part la plus étendue possible des publications scientifiques issues de la recherche publique, dans le droit fil de la [Public Library of Science->http://www.plos.org/about/index.html], puis des déclarations de [Budapest->http://www.soros.org/openaccess/fr/index.shtml], [Bethesda->http://www.earlham.edu/~peters/fos/bethesda.htm] et [Berlin->http://oa.mpg.de/openaccess-berlin/berlindeclaration.html]. Mais il s'agit aussi clairement d'améliorer la visibilité de la recherche française dans un contexte marqué par l'intensification de la compétition internationale dont le classement de Shangaï est le symptôme le plus évident. Il s'agit peut-être aussi en dernier lieu pour les institutions partenaires, de disposer d'un outil d'évaluation de leurs équipes de recherche dans une perspective davantage bibliométrique dont les contours ne sont pas encore véritablement définis.
2006-10-12 16:15:59
Dossier de presse
http://hal.ccsd.cnrs.fr/more/Communique_de_presse_11_10.pdf
Que ferez-vous le 17 octobre prochain ? Si vous êtes libre et britannique, vous aurez la possibilité d'inscrire votre journal de bord de ce jour banal dans un [blog collectif->http://www.historymatters.org.uk/output/Page1.asp] que diverses institutions de conservation du patrimoine ont ouvert pour l'occasion. L'objectif ? Prendre une photographie d'une tranche de vie de la nation un jour ordinaire de ce début de 21ème siècle, et l'archiver comme témoignage de notre temps. Parce que l'Histoire compte, clame le titre de l'opération. Plusieurs milliers de contributions sont attendues. Elles seront archivées sur un support que la British Library aura pour mission de conserver.
2006-10-15 16:42:25
One day in history
http://www.historymatters.org.uk/output/Page1.asp
Le rachat, en fin de semaine dernière du service de partage de vidéos en ligne [YouTube->http://www.youtube.com/] par Google a suscité de nombreux commentaires. Il faut dire que YouTube était [en mauvaise posture->http://news.com.com/2100-1026_3-6121034.html], son service n'ayant pas fait la démonstration de sa profitabilité, et, par ailleurs, semblant violer massivement les droits de propriétés intellectuelles de chaînes de télévision, producteurs de cinéma et autres labels musicaux. Du coup, le destin de cette entreprise était devenu emblématique de l'ensemble de ces nouveaux services en ligne, basés sur le partage d'informations de toutes natures entre utilisateurs. L'amplification considérable ces derniers mois qu'ont connue les applications en ligne de ce type a conduit [nombre d'analystes à prédire l'explosion d'une bulle spéculative->http://fr.techcrunch.com/tag/Bulle2.0/], dont la chute de YouTube devait signifier le début. L'action de [rachat par Google->http://www.lemonde.fr/web/article/0,1-0@2-651865,36-821697,0.html?xtor=RSS-3208] écarte le danger et retourne peut-être durablement la situation. Assis sur le trésor accumulé grâce à son moteur de recherche, Google agit là comme une sorte de caution financière, le banquier pour ainsi dire, de toute une galaxie de petites entreprises défrichant le secteur des nouveaux usages sociaux du Web. Que ces entreprises gagnent de l'argent ou non n'a aucune importance, puisqu'elles sont destinées à être rachetées, [à l'exemple de Writely->http://www.homo-numericus.net/blog/L-unite-documentaire-de-Google-c.html], et absorbées pour enrichir les multiples services que propose désormais Google. Le [krach de 2000->http://fr.wikipedia.org/wiki/Bulle_Internet] semble définitivement absorbé, et une nouvelle «nouvelle économie» semble bien sur le point d'émerger, sur des bases que personne, [ou presque->http://www.cyberpresse.ca/article/20061016/CPARTS03/610160879/5020/CPARTS03], n'avait pu prévoir il y a 6 ans.
2006-10-15 20:01:45
YouTube
http://www.youtube.com/
Devons-nous confier nos bulletins de vote à des machines électroniques ? Depuis que les machines à voter existent, la question n'est toujours pas résolue. En usage depuis longtemps dans plusieurs pays du monde, dont les Etat-Unis par exemple, ces machines permettraient de diminuer les coûts et d'accélérer le dépouillement. Malgré tout, leur fiabilité n'est pas incontestable et il n'est pas rare que des disfonctionnements aparaissent là où elles sont utilisées. En Hollande par exemple, récemment où, une association a [fait la démonstration->http://it.slashdot.org/article.pl?sid=06/10/05/1310235] à un mois des élections générales de la facilité avec laquelle ces machines pouvaient être trompées. Dans ce pays, c'est près de 90% des votes qui sont exprimées par l'intermédiaire de ces machines. Le scandale est si important que le gouvernement a dû demander le changement en urgence des logiciels qui les font fonctionner. La France ne semble pas épargnée puisqu'elle utilise localement, et dans une proportion bien moindre, ce type de machines. L'adjoint au maire de Grenoble vient cependant de [prendre fortement position contre elles->http://www.recul-democratique.org/Communique-de-presse-de-Gilles.html]. Une des raisons qui le motive, est l'inacessibilité du code informatique, propriétaire, qui ne permet ni aux autorités locales, ni au simple citoyen, de vérifier l'absence de manipulation. Ce type de situation, où la transparence (matérielle et métaphorique) n'est pas assurée, conduit un certain de nombre de personnes, comme Hubert Guillaud, rédacteur en chef d'Internet Actu, mais aussi créateur du blog [Le Romanais->http://leromanais.free.fr/] qui traite de politique locale, à demander qu'on [stoppe les machines->http://www.internetactu.net/?p=6616]...du moins jusqu'à ce qu'une solution soit trouvée. Pragmatique, le magazine Wired est allé demander à deux spécialistes de l'Université de Berkeley de [formuler leur recommandations pour la conception de ces machines->http://www.wired.com/news/politics/evote/0,71957-0.html]. Il faut dire que les Etats-Unis entrent bientôt en période électorale de mid-term et que les dernières élections s'y sont fort mal déroulées, en Floride particulièrement où les systèmes mécaniques de vote (par perforation) ne se sont pas montrés à la hauteur. Les recommandations des experts semblent de bon sens : simplicité et transparence du code, interdiction des cartes mémoire amovibles, verrouillage matériel des logiciels chargés, etc. D'autres ne sont pas si modérés et pensent que c'est [l'idée même de vote électronique qui est à rejeter->http://padawan.info/fr/politique/halte_au_vote_electronique_.html]. On peut en effet se demander quelle est l'utilité d'une telle débauche d'énergie, alors que la traditionnelle technique de vote par bulletin papier fonctionne toujours bien... Via [Padawan->http://padawan.info/fr/vote_electronique/le_scandale_du_vote_electronique_eclate_en_hollande.html]
2006-10-18 19:17:19
Le scandale du vote électronique élcate en Hollande
http://padawan.info/fr/vote_electronique/le_scandale_du_vote_electronique_eclate_en_hollande.html
En février prochain, la ville de Romans-sur-Isère, dans la Drôme, accueillera la première édition du [«Festival Romans de la création sur Internet»->http://www.ginisty.com/festival/]. Organisant un concours autour de plusieurs catégories artistiques (littérature, vidéo, musique, littérature, etc.), ce festival a pour objectif de contrebalancer le déséquilibre en faveur des technologies au dépend des usages qui caractérise l'image d'Internet auprès du grand public. Une catégorie "expression citoyenne" est aussi prévue, destinée à distinguer des blogs prenant part aux débats de société et contribuant à animer le débat public. Les internautes sont invités à voter à partir du mois de novembre pour permettre à leur favori d'être sélectionné. Un jury désignera ensuite le vainqueur. Là n'est sans doute pas le plus important, malgré tout. [Le dossier de presse->http://www.ginisty.com/festival/files/dp1_festival_de_romans.pdf] du festival annonce en effet un nombre impressionnant d'événements au cours des trois jours et nuits que durera le festival : démonstrations, conférences et ateliers devraient en faire un événement riche en découvertes.
2006-10-18 20:13:57
Festival de Romans
http://www.ginisty.com/festival/
Les échéances électorales se rapprochent. Comme d'habitude, l'utilisation des nouvelles technologies par les candidats semble être plus intensive, plus profonde que lors des précédentes. Mais cette intensification ne va pas sans susciter des questions, en particulier sur le cadre réglementaire dans lequel elle s'inscrit. Il est en effet important de préserver une égalité formelle entre tous les candidats afin que les règles du jeu démocratique ne soient pas biaisées. Le Forum des droits sur l'Internet vient de publier [une recommandation sur le sujet->http://www.foruminternet.org/activites_evenements/lire.phtml?id=148]. S'il estime que la protection du pluralisme n'a pas besoin de faire l'objet d'attentions particulières, contrairement à la presse classique, en raison de la facilité avec laquelle on peut diffuser son opinion sur le réseau, l'organisme parapublic montre en revanche que sur la plupart des autres sujets (fin de campagne officielle, publication des sondages, comptes de campagne), il convient d'appliquer la loi générale aux sites de campagne des candidats. Un observatoire de la Web campagne va être mis en place, qui rendra compte de la manière dont celle-ci se déroule. Mais la campagne électorale ne se déroule pas uniquement sur le web ; c'est même plutôt par le moyen du courrier électronique qu'elle risque d'être la plus virulente, comme en témoigne l'affaire du [sarkospam->http://blog2.lemondeinformatique.fr/management_du_si/2005/10/sarkospam_les_l.html] qui a fait grand bruit en son temps. Prenant cette fois les devants, la CNIL vient d'émettre à son tour [une recommandation->http://www.cnil.fr/index.php?id=2132&news[uid]=391&cHash=1cca7d85ed] sur l'utilisation des fichiers commerciaux à des fins politiques. L'idée générale est qu'on ne peut adresser un courrier de propagande politique à une personne que si elle a été prévenue que la communication de son adresse pouvait être utilisée à cette fin. Ainsi, les détenteurs de bases commerciales ne pourront utiliser ces bases à des fins politiques qu'après avoir demandé l'autorisation aux personnes dont elles détiennent les coordonnées Via [Mad's blog->http://www.couchet.org/blog/index.php?2006/10/18/199-spam-politique-cnil-ne-dit-mot-consent]
2006-10-21 19:34:22
Mad's blog
http://www.couchet.org/blog/index.php?2006/10/18/199-spam-politique-cnil-ne-dit-mot-consent
Demain, mardi 24 octobre, la fondation Mozilla [lancera en fanfare la version 2.0 de son célèbre navigateur web->http://www.silicon.fr/fr/silicon/news/2006/10/22/firefox-2-0-annonc-24-octobre] Firefox. Des festivités sont prévues [un peu partout dans le monde->http://www.firefoxparty.com/], et donc [aussi en France->http://soiree.mozilla-europe.org/liste/], pour célébrer la diffusion d'une nouvelle mouture, annoncée comme plus performante et ergonomique dans la gestion des onglets de navigation et des flux RSS, la sécurisation des données personnelles ou encore l'intégration d'outils de recherche d'information. Firefox est considéré comme l'alternative la plus menaçante pour Internet Explorer, le navigateur de Microsoft, qui lui, n'a pas connu de nouvelle version majeure [depuis 5 ans->http://en.wikipedia.org/wiki/History_of_Internet_Explorer]. Aiguillonnée par cette soudaine concurrence, la firme dirigée par Bill Gates a réuni de nouveau une équipe de développeurs pour mettre au point Internet Explorer 7, diffusé récemment en version finale. «Je vous ai compris», lançait le général de Gaulle au balcon du gouvernement général d'Alger le 4 juin 1958. [«We heard you» réplique Microsoft à ses critiques->http://www.microsoft.com/windows/ie/default.mspx] sur le site dédié à son logiciel. Le rapprochement historique entre les deux messages n'est peut-être pas si impertinent après tout. Tristan Nitot, de parti-pris il est vrai, puisqu'il dirige la branche européenne de Mozilla, [dresse la liste des articles de presse->http://standblog.org/blog/2006/10/20/93114931-actu-microsoft] pointant les faiblesses en terme d'ergonomie, de stabilité et surtout de sécurité que cette version recèle. Des tests plus approfondis ont aussi révélés q[u'Internet Explorer 7 n'était pas totalement conforme aux standards de la communication sur le web->http://www.zdnet.fr/actualites/internet/0,39020774,39364147,00.htm?xtor=1], comme son prédécesseur, de sorte qu'un site Web ne se présente pas de la même manière s'il est visualisé sur l'un ou l'autre des navigateurs. Pire, le rendu est différent, selon qu'il est visualisé sur l'une ou l'autre des versions d'Internet Explorer (5, 6 ou 7) ! Les pauvres webmasters n'ont pas fini de s'arracher les cheveux. La plupart des analystes le reconnaissent maintenant : la sortie d'Internet Explorer 7 [ne changera rien à la supériorité qualitative sur tous les plans de son concurrent Firefox->http://www.readwriteweb.com/archives/internet_explorer7_review.php]. Il est peu probable malgré tout, que la sortie de Firefox 2.0 change quoi que ce soit à la supériorité quantitative d'Internet Explorer qui domine toujours son secteur avec [plus de 80% de part de marché->http://en.wikipedia.org/wiki/Usage_share_of_web_browsers], [malgré les efforts de son concurrent->http://www.readwriteweb.com/archives/firefox2_marketing.php]. La raison ? Il est préinstallé sur tous les systèmes Windows. Rien de nouveau sous le soleil qui éclaire d'un jour triste la guerre des navigateurs.
2006-10-23 12:11:09
Mozilla Firefox
http://www.mozilla-europe.org/fr/products/firefox/
Une nouvelle génération est en train de se former. Née à l'ère du tout-numérique, elle acquiert sa formation intellectuelle en [utilisant massivement les technologies de l'information et de la communication->http://www.homo-numericus.net/breve714.html]. Une récente étude a montré que cet apprentissage n'était pas accompagné d'une transmission intergénérationnelle, que ce soit au sein de la famille, [ou même à l'Ecole->http://www.homo-numericus.net/breve799.html]. Olivier Ertzscheid, spécialiste des processus cognitifs liés aux nouvelles technologies, remarque sur son site que Google, principale source d'information pour cette génération, renforce l'effet de rupture en [privilégiant les liens en provenance de Wikipedia et MySpace->http://affordance.typepad.com/mon_weblog/2006/10/liens_affinitai.html], deux sites dont les fournisseurs de contenus sont majoritairement...des adolescents et de jeunes adultes. Autrement dit, la génération des ["digital natives"->http://en.wikipedia.org/wiki/Digital_native] comme commencent à les appeler un certain nombre de sociologues, construit sa propre base de connaissances par référence à des sources d'information qu'elle alimente elle-même. On ne saurait mieux illustrer le fossé entre générations qui est en train de se creuser. Une récente rencontre organisée par l'Institut National de la Recherche Pédagogique [dont le compte rendu est lisible en ligne->http://www.inrp.fr/blogs/vst/index.php/2006/10/24/p208#more208] fait le point sur le sujet. Le fossé générationnel ne se creuse pas uniquement sur le plan cognitif d'ailleurs. On sait que l'environnement numérique pervasif et connecté en permanence qui est en train de se construire autour de nous (logiciels sociaux, réseaux wifi et puces [?RFID] à l'appui) n'est pas sans conséquence sur les mécanismes de construction et de représentation de l'identité. [Fred Cavazza->http://www.fredcavazza.net/index.php?2006/10/22/1310-quest-ce-que-lindente-numerique] s'est récemment attelé à en explorer les contours de manière intuitive. Jean-Michel Salaün, spécialiste reconnu du document numérique faisait récemment remarquer que sur ce plan aussi, [la nouvelle génération semblait développer une attitude bien différente de celle qui la précède->http://grds04.ebsi.umontreal.ca/jms/index.php/2006/10/23/100-identite-trace-et-post-modernite], sans qu'il soit encore possible d'en tirer des conclusions définitives. De toute évidence, les indigènes du numérique sont en train de construire discrètement une société différente de celle que nous connaissons, fondée sur des processus cognitifs, des types de relations sociales et sans doute aussi des pratiques économiques d'un genre nouveau. Il n'est pas sûr qu'elle ne connaisse pas, elle aussi, sa propre fracture numérique rappelle Mimi Ito, une anthropologue dont [Internet Actu présente les recherches->http://www.internetactu.net/?p=6631]. La familiarité avec les outils numériques dépend d'un grand nombre de conditions qui doivent être réunis dès le plus jeune âge, rappelle-t-elle, dont tous les enfants, loin de là, ne bénéficient pas. Comment gèrera-t-elle la catastrophe sociale qui se prépare ? On peut dès maintenant l'y aider en développant des actions spécifiques en direction des plus défavorisés. [Certains s'y emploient déjà->http://reso.blogs.com/crealiens/2006/10/accs_lectroniqu.html].
2006-10-26 09:03:16
Internet Actu
http://www.internetactu.net/?p=6631
<p>La première session de l’<i>Internet Governance Forum,</i> créé à l’issue de la phase de Tunis du SMSI, s’est tenue à Athènes du 30 octobre au 2 novembre. Plus de 1200 participants, 4 sessions plénières et une quarantaine d’ateliers en parallèle ont tenté de concrétiser le « multipartenariat » censé apporter les réponses aux innombrables questions (techniques, politiques, économiques, culturelles et linguistiques) sous-jacentes à la définition « large » de la gouvernance de l’internet élaborée dans le cadre du Sommet Mondial sur la Société de l’Information des Nations-Unies. </p> <p> Rappel : Extrait du Rapport du Groupe de travail sur la gouvernance de l’internet du SMSI (juin 2005) : <i>Il faut entendre par « gouvernance de l’Internet » l’élaboration et l’application par les États, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes, règles, procédures de prise de décisions et programmes communs propres à modeler l’évolution et l’utilisation de l’Internet.</i> </p> <p> Revendiquée comme une victoire de la société civile, la création de l’IGF a surtout offert une porte de sortie au Sommet de Tunis qui avait échoué à lever le contrôle américain sur les ressources-clés de l’internet (l’allocation d’adresses et le management du système des noms de domaine restent du ressort exclusif de l’IANA et de l’ICANN suite au renouvellement des accords avec le <i>Department of Commerce</i> intervenus en mai et août 2006). Instance de dialogue multipartite dépourvue d’un quelconque pouvoir de décision (même l’option des « recommandations » n’a pas trouvé preneur à Athènes), l’IGF a un mandat de 5 ans et les habitués du SMSI se préparent pour Rio l’an prochain, et ensuite l’Inde et l’Egypte. Il y a même des pays candidats pour l’accueillir en 2010 … </p> <p> Au crédit de cette rencontre, on peut porter : une participation internationale assez diversifiée (et une traduction <i>live</i> en 7 langues pour les plénières, les ateliers se déroulant – évidemment – en anglais), des échanges relativement dépourvus de « langue de bois » ainsi qu’une présence plus visible de deux des composantes de la « société civile » que l’Agenda et l’Engagement de Tunis mentionnaient explicitement, à savoir les milieux « technos » et les « académiques ». Si les officiels (cadres de l’ONU, représentants des gouvernements et des Parlements) sont apparus plutôt satisfaits du caractère non contraignant des débats (Nitin Desai, représentant de Kofi Anan, a loué le cadre de l’« open house » et les tout premiers préliminaires d’un futur « mariage »), c’est peut-être que les choses sérieuses (par exemple la notion de « coopération renforcée ») étant pour l’instant hors de portée, rien n’empêchait de traiter sur un pied d’égalité avec les ONG et le monde du business pour les quatre grands thèmes mis à l’ordre du jour, cad l’ouverture, l’accès, la diversité et la sécurité. Hormis lors de la séance d’ouverture, les interventions de la salle ont effectivement été favorisées (via petits billets, e-mails et textos permettant de lister les demandes de prise de paroles) par le journaliste-animateur (de <i>The Economist</i> ou de la BBC). </p> <p> On notera toutefois que le cadre de la rencontre (un 5 étoiles en bord de mer) et certains ratés de la communication <i>online</i> ont heurté les tenants d’un partenariat plus « inclusif », cad ceux (et celles) qui n’oublient pas que les usagers actifs de l’internet ne sont pas tous, loin s’en faut, en mesure de se déplacer pour comprendre de quoi il retourne. <br />Le prochain remplacement du secrétaire général de l’ONU (sans parler des élections présidentielles françaises, puis américaines) a sans doute permis que l’atmosphère soit ainsi globalement à l’attentisme souriant.</p> <p>Les <i>verbatim</i> des sessions et la présentation des ateliers sont disponibles sur le site <a title="Le site de lIGF" href="http://www.igf.org">www.igf.org</a>. Nous retiendrons quelques moments forts : Vint Cerf (parlant au nom de Google et non de l’ICANN) et Fred Tipson (Microsoft) volant au secours de la Chine malmenée par les défenseurs des Droits de l’Homme et Catherine Trautmann rappelant fermement combien la phase de Tunis du SMSI avait été entachée sur ce plan. Un délégué chinois vantant en retour les charmes touristiques de son pays et un Iranien la bonne moralité du sien. La liberté de ton du secrétaire général de l’IUT (en fin de mandat), plaidant pour un minimum de centralisation et une gouvernance de l’internet « la plus proche possible de l’usager … différente pour chaque société et chaque économie ». L’insistance du Premier Ministre grec sur les « sans domicile numérique ». Un délégué du Pakistan reconnaissant le rôle de <i>capacity-building</i> de l’IGF mais réaffirmant la nécessité d’une plateforme de dialogue intergouvernementale. </p> <p> Dans tous les débats, la recherche du compromis entre <i>business</i> et éthique, sécurité et <i>privacy</i>, stabilité et innovation, responsabilités locales et développement mondial, est restée un horizon lointain. C’est sur la question du multilinguisme que les options ont été les plus clairement exprimées, entre retard de l’IDN et solutions alternatives (cf le projet coréen NEPTIA auquel est associé Louis Pouzin). Parmi les autres suggestions émises ici et là : une taxe sur les adresses IPv6 pour financer les objectifs du Millenium, un décalque du fonctionnement de l’IETF pour créer du consensus sur les thématiques de la gouvernance d’internet, l’établissement d’un <i>Internet Bill of Rights</i> pour la fonder sur des principes admis internationalement. D’autres propositions tout aussi diverses vont sans doute apparaître d’ici Rio. L’exercice d’Athènes a « re-boosté » le milieu et les revendications de co-régulation semblent reprendre du poil de la bête … <br />Un nouveau « concept » est ainsi apparu au cours de cette première réunion de l’IGF : celui de « coalition dynamique » … Pourtant il nous est apparu que l’on parlait plutôt de l’internet d’hier que de celui de demain, là où les appétits s’aiguisent et les alliances se nouent, loin de l’agora athénienne ! </p> <p> Mais l’impression la plus forte qui nous reste de cette réunion est la « professionnalisation » des experts issus de la société civile : depuis 2003, début de la préparation du SMSI, des champions de la politique procédurale confortent leur lobbying, gagnent des positions dans les instances organisatrices et ne jouent l’ouverture que pour se renforcer – sans jamais expliciter leurs points de départ ni d’arrivée. Quelques nouveaux entrants particulièrement déterminés arrivent à se faufiler, mais il semble à ce jour que les options les moins claires en matière de gouvernance de l’internet se retrouvent au sein même de la société civile : comme si l’exigence de délibération ne débouchait que sur l’autoproclamation d’une nouvelle méritocratie ! Piège ultime du <i>multistakeholderism</i> ou maladie de jeunesse ? À suivre … car la spécialisation des multiples thématiques et le fort accent mis (enfin) sur le lien entre techniques, industries et politiques peut au moins servir à clarifier les intérêts en présence : on jouerait alors de la dialectique des conflits (localisés et articulés) plutôt que de rêver de consensus (global et inopérant). </p> Homo Numericus remercie Françoise Massit-Folléa pour ce reportage athénien écrit sur le vif que nous espérons être le premier d'une longue série !
2006-11-09 11:17:05
Internet Governance Forum
http://www.igf.org
Depuis le [dernier épisode de mes aventures estivales avec Linux->http://www.homo-numericus.net/spip.php?page=lpdv&date=2006-09-1er&id_breve=810#810], il s'est passé toute une odyssée dont je vous fait grâce. Fortuna rotat disent les romains et dans le cycle infernal Ubuntu-Knoppix-Debian sec-Freenas désynchronisé avec le petit braquet CUPS-HP-Samba-Proftpd-USB, la roue de la fortune a fini par s'arrêter sur Ubuntu, [la distribution pour les myopes->http://www.homo-numericus.net/spip.php?page=lpdv&date=2006-08-28&id_breve=805#805] ; pardon les "human beings". Je ne sais pas si Ubuntu aime les human beings que nous sommes, mais en tout cas, il n'aime vraiment pas le X ; pardon le [fameux serveur graphique X11->http://www.x.org/] qui permet à Linux d'être piloté à la souris et avec un bureau, un peu de la même manière qu'un certain système d'exploitation que vous connaissez peut-être et que je ne citerai pas ici. J'avais raconté comment Ubuntu a une manière très particulière de vous faire croire que votre écran ne peut afficher qu'une résolution de 640*480, à moins d'aller bidouiller dans le tréfond du fichier de configuration xorg.conf, avec le risque, en cas de raté, de se retrouver sans affichage aucun, bien sûr. Malgré tout, à force de chercher dans les forums, j'étais arrivé à récupérer une résolution potable (si vous voulez savoir comment faire, c'est [ici->http://doc.ubuntu-fr.org/materiel/fix_problemes_resolution]). Tout allait donc bien, jusqu'à ce que, sensible aux multiples sollicitations que mon système préféré m'envoie à chaque fois que je me logue, j'ai eu l'imprudence de mettre à jour ma version en téléchargeant la dernière en date, intitulée "Edgy Eft" : au reboot, impossible de se loguer. La procédure de chargement se termine invariablement par un retour forcé et frustrant à l'écran de connexion. Après quelques recherches (petit truc : lorsqu'une nouvelle version est diffusée, vous pouvez bien sûr aller voir les "[exciting new features->https://wiki.ubuntu.com/EdgyReleaseNotes]", mais il est plus prudent de prendre d'abord connaissance des "[known issues->https://wiki.ubuntu.com/EdgyKnownIssues]"), je découvre que le problème vient du ... serveur X bien sûr ! et qu'il faut aller modifier le fichier...xorg.conf évidemment, pour qu'il accepte ma carte graphique 3dfx. Je pose donc la question : y at-il quelqu'un chez Ubuntu qui fait une névrose sur le serveur X ?et qui plante systématiquement la configuration? parce que là, ça fait beaucoup tout de même, pour un élément aussi essentiel qui permet, rappelons-le, de faire quelque chose avec Linux sans être cantonné à la ligne de commande !
2006-11-09 22:29:17
Piotrr est agacé par ses déboires avec Ubuntu Linux, ça se comprend. Les problèmes qu'il décrit existent. Mais son agacement le pousse à confondre son matériel avec le cas général. Pour avoir installé récemment trois Ubuntu sur trois machines différentes, je dois dire que je n'ai pas rencontré de problèmes de carte vidéo. Pour mémoire, il s'agit d'un vieux Dell dimension 4550, d'un Dell beaucoup plus récent (des précisions bientôt) et de mon Sony ultraportable. Cela ne veut pas dire que tout est rose. C'est d'ailleurs bien l'objectif de ce blog, que de faire l'état d'expériences concrètes. Je voudrais simplement que nous évitions de généraliser nos cas particuliers, dans un sens comme dans l'autre. Et, pour être totalement constructif, je propose d'éviter les galères en testant son matériel via le Live CD. Désormais, tous les Ubuntu sont aussi des LiveCD, c'est-à-dire qu'on peut exécuter Linux sur un CD sans avoir à l'installer sur son disque dur. Du coup, on peut vérifier qu'il n'y a pas de problème d'affichage, de son et de réseau. Un plaisir. Pour se consoler, [LinuxFr.org->http://linuxfr.org/2006/11/17/21644.html] confirme que la presse s'intéresse de plus en plus au logiciel libre : <img2054|left>«Dans le cadre de ses dix ans l'APRIL a noué un partenariat avec 01 Informatique. Le numéro 1881 du 17 novembre 2006 de 01 Informatique est ainsi un numéro spécial sur le logiciel libre. Son titre «Spécial Libre, un modèle approuvé». C'est une belle opération pour promouvoir le logiciel libre auprès des professionnels et cela confirme la maturité du logiciel libre. [L'ensemble du numéro de 01 informatique->http://www.01net.com/editorial/333202/editorial/libre-et-juste/] est axé sur le logiciel libre. Espérons que cela entraîne un changement important du comportement de la presse spécialisée à grand tirage vis à vis des logiciels libres. À retenir, la carte blanche de Richard Stallman qui revient sur les notions d'économie de marché et de société de marché. En expliquant qu'il est contre « la société de marché » mais favorable à l'« économie de marché » »
2006-11-18 18:48:14
01net
http://www.01net.com/editorial/333202/editorial/libre-et-juste/
Les Etats membres de l'Union européenne se sont réunis lundi 13 novembre pour débattre de la [rénovation de la directive Télévision sans Frontières (TSF)->http://www.ddm.gouv.fr/rubrique.php3?id_rubrique=94]. L'orientation générale qui en est sortie doit être transformée en accord définitif après décision du Parlement européen, d'ici au 16 décembre. Alors que certain craignent une télévision à l'américaine envahie de publicité et le sacrifice de l'exception culturelle, les eurodéputés semblent être parvenus à un concensus. Cependant, la polémique sur la place faite à la publicité dans les programmes reste d'actualité. La directive TSF, datant de 1989 et révisée en 1997, a pour but de promouvoir la distribution et la production de programmes audiovisuels européens. Comme toute directive, elle n'est qu'une coordination a minima, les Etats membres restant libres de prévoir des règles plus strictes et leur mise en application. Ce remaniement vise à adapter la législation aux nouveaux modes de diffusion que sont Internet et les téléphones portables. Deux points essentiels ont été négociés. Le placement de produit (présence des marques dans les programmes moyennant finance) est explicitement interdit. Cependant, chaque Etat est libre de déroger à cette interdiction en l'autorisant au niveau national, selon le principe de subsidiarité. Par ailleurs le placement de produit sans rémunération est toléré. Cet assouplissement de la publicité est aussi notable en ce qui concerne les coupures durant les programmes, qui passe d'une autorisation de coupure toutes les 45 minutes à toutes les 30 minutes, pour les films et les journeaux télévisés. Par ailleurs, le verrou saute pour les feuilletons et fictions courtes, que les diffuseurs peuvent couper autant qu'ils le souhaitent. En échange de ces assouplissements, quelques contreparties. La nouvelle directive propose de réglementer les nouveaux services audiovisuels dits "non linéaires", comme la vidéo à la demande (VOD). Ils devront alors, "quand c'est possible", participer au financement des œuvres et garantir la bonne exposition des productions indépendantes nationales et européennes, à l'image des quotas déjà mis en place. Par ailleurs, pour lutter contre la délocalisation des chaînes de télévision dans des pays à la réglementation trop souple, la notion de pays d'établissement d'une télévision est précisée. Ce sont les règles du pays où les chaînes réalisent la majorité de leur chiffre d'affaire qui s'appliqueront. Pour Viviane Reding, commissaire européenne chargée de la société de l'information et des médias, nous sommes encore loin de la télévision à l'américaine, qui autorise des interruptions commerciales toutes les deux ou trois minutes.
2006-11-21 08:04:56
Vers une télévision à l'américaine ?
http://dalbin.canalblog.com/archives/2006/11/18/3199560.html
Françoise Paquienséguy est professeure de sciences de l'information et de la communication à l'Université Paris 8 à Vincennes. Dans une série de publications, dont [une en particulier->http://archivesic.ccsd.cnrs.fr/docs/00/10/42/88/HTML/index.html] expose très clairement ses arguments, elle propose de ne plus parler de "nouvelles technologies de l'information et de la communication", expression utilisée à partir des années 80, pour s'intéresser désormais aux "technologies de l'information et de la communication numériques". Derrière les mots, c'est en fait une nouvelle approche qu'elle défend dans cet article. Numérique : voilà le pivot d'une véritable rupture pour comprendre les usages d'objets - téléphones portables, appareils photos, pda, ordinateurs portables - qui sont très différents de leurs prédécesseurs analogiques. En ce sens, ils démarrent une nouvelle lignée d'objets techniques qui se distinguent par quatre caractéristiques : la polyvalence, l'ouverture, l'interconnexion, et la perte de fonction dominante. De ces quatre caractéristiques, c'est la dernière qui est la plus nouvelle et la plus intéressante. Elle renvoie à ce que Françoise Paquenséguy appelle des "migrations des fonctions" qui font que ces objets à plusieurs faces deviennent totalement hybrides que ce soit dans leur configuration technique ou l'environnement commercial dans lequel ils sont distribués. Il semble bien que ce soit le contexte qui détermine l'usage à tel ou tel moment. Gaston Lagaffe, excellent penseur des techniques, a filmé toutes ses vacances avec une perceuse, déclenchant l'hilarité de Prunelle. Nul ne s'étonne aujourd'hui de faire la même chose avec un téléphone...
2006-11-21 12:02:34
Les TIC aujourd'hui : constats, questionnements et hypothèses
http://archivesic.ccsd.cnrs.fr/docs/00/10/42/88/HTML/index.html
Première d'un cycle de six conférences données à [l'ENS Lettres et Sciences humaines->http://www.ens-lsh.fr] sur l'«économie politique de l'édition numérique» : jeudi 30 novembre de 17h30 à 19h30, à l'ENS LSH, parvis René Descartes, Lyon 7ème, Métro Debourg. Entrée libre Présentation : Les réseaux numériques entrent dans l'âge éditorial. Des stratégies de mise à disposition sont à l'oeuvre tant du coté des acteurs publics que du coté de l'édition privée . Les logiques de l'offre, avec la constitution de pôles spécialisés du côté des grands éditeurs scientifiques, se voient contrecarrées par des politiques publiques visant à répondre à des besoins par la mise en place de consortiums universitaires, comme le Canada l'esquisse actuellement . L'édition numérique est-elle en passe de prendre durablement le relais des institutions liées à la diffusion « papier » ? L'alternance des supports signale-t-elle la différence entre la circulation des recherches et la diffusion des connaissances ? Les moteurs de recherche donnent à ces discussions scientifiques une profondeur de champ démultipliée par les requêtes de chacun. Cependant, les objectifs cognitifs de moteurs de recherche tels Google sont limités, comme l'ont déjà souligné plusieurs scientifiques. De plus, les évolutions en cours prennent en compte les choix économiques des éditeurs, qui conditionnent leur approche de la mise en ligne des contenus. Quelles positions les institutions publiques peuvent-elles assumer ? La BNF a ouvert le débat en France. La question est également posée aux universités. Invités : Gérard Boismenu (Université de Montréal, consortium Erudit); Jean Kempf (Université Lyon 2, Presses Universitaires de Lyon); Patrick Bazin (Directeur de la Bibliothèque municipale de Lyon).
2006-11-23 10:07:52
ENS Lettres et Sciences humaines
http://www.ens-lsh.fr
<img2055|left>La migration vers des applications libres ne doit pas être une prophétie, pas plus qu'un sacerdoce. Le problème se pose, en particulier, pour les applications professionnelles sensibles. Dans de nombreux métiers tertiaires, le courrier électronique est une clé de voûte professionnelle. Le cahier des charges est simple: - la masse des courriels reçus et envoyés est importante, - la masse des pourriels reçus augmente de façon exponentielle et doit être traitée efficacement (pas de faux positifs, peu de faux négatifs), - l'historique des courriels constitue une base de connaissances dont la valeur est décisive, - la capacité de classements et d'indexation est fondamentale, ce qui donne une valeur particulière aux filtres créés pour classer proprement les messages. Face à un tel cahier des charges, l'absence de formats ouverts permettant de passer d'une application de courrier électronique à une autre représente un coût considérable. Existe-t-il un format permettant de récupérer les courriels, les filtres, l'historique des spams et les dossiers de classements? A ma connaissance, non. Même dans le monde libre. Voici quelques formats, tous incompatibles entre eux : - PST : MS Outlook - DBX : Outlook Express - MBX : Eudora Mail - MSB : The Bat - etc. En passant d'Eudora à Thunderbird, j'ai tenté plusieurs fois d'importer mes courriers, sans succès. J'ai trop de courriers à importer, me dit-on. Sans doute, mais je ne vais pas réduire ma correspondance professionnelle uniquement parce qu'un script d'importation marche mal. Pour passer de Thunderbird à Evolution, j'ai bien peur de rencontrer le même problème.
2006-11-25 11:35:53
<img2056|left>Disons-le, Thunderbird n'a pas les qualités de son frère de sang, Firefox. Autant Firefox est innovant, modulaire, complet, performant, autant Thunderbird est décevant. Si ce logiciel permet de gérer une correspondance de petite taille, dès qu'on atteint un seuil critique, le logiciel a beaucoup de mal à s'en sortir. Le bug le plus fréquent est l'impossibilité de sauvegarder un brouillon de courrier. Lorsque le problème survient, il touche également la sauvegarde des messages envoyés. Le logiciel part en boucle en vous demandant d'attendre lors de la sauvegarde. J'ai fait l'essai: même une nuit n'y suffit pas. On me dira que ce problème est lié à mon installation, mais je peux certifier que non : j'ai réinstallé et reconfiguré le logiciel n fois, sur Windows comme sur Linux, et j'ai toujours fini par rencontrer le problème. Avec l'augmentation du nombre de courriels reçus, la fréquence augmente: une fois par semaine, une fois par jour, une fois par heure... bref. Il devient impossible de se servir de cet oiseau de malheur [[je passe sous silence l'accroissement exponentiel de la taille du dossier contenant les courriels, rendant tout backup délicat ainsi que la gestion vraiment peu intuitive du transfert des comptes d'une machine à l'autre]]. Je précise qu'il s'agit d'une utilisation professionnelle du logiciel (quelques centaines de filtres et de dossiers). Qu'à cela ne tienne : je vais changer d'outil. J'ai pourtant longtemps résisté, car Thunderbird présente l'immense avantage de fonctionner sur tous les systèmes d'exploitation de référence (Max OS X, Windows, Linux). Je tente [Évolution,->http://fr.wikipedia.org/wiki/Novell_Evolution] qui présente l'avantage de constituer un vrai petit groupware (support LDAP, calendrier, carnet d'adresse, etc.). Ce n'est pas gagné. Sa configuration est plutôt plus facile et plus complète que celle de Thunderbird, mais le filtrage des pourriels pose problème, car il ne fonctionne pas du tout, alors que c'est une des fonctionnalités très efficace de Thunderird. Je ne suis pas le seul à avoir ce problème [[A lire sur la documentation officielle d'Ubuntu : "On [Ubuntu 6.06->https://help.ubuntu.com/community/HowToEnableSpamFilteringInEvolution?highlight=%28evolution%29] the bogofilter plug-in (another plug-in intended to filter out spam), which is enabled by default, does not seem to work. Furthermore, having the bogofilter plugin enabled seems to prevent spamassassin from working. The solution is to go to Edit -> Plugins (within Evolution) and disable the bogofilter plug-in, then restart Evolution."]], mais les solutions semblent inefficaces. La galère continue. A suivre.
2006-12-03 13:16:07
Mouvements de fond dans les industries culturelles. Malgré des prises de position publiques qui restent arc-boutées sur la défense d'un modèle économique périmé, les grands producteurs de produits culturels s'essaient de plus en plus à la mise en oeuvre de modes de rémunération alternatifs. Le dernier en date est la rémunération par la publicité, que plusieurs sociétés de vente de musique en ligne proposent au même moment. Remarqué par [le site Ratatium->http://www.ratiatum.com/news5016_SpiralFrog_les_1eres_impressions.html], SpiralFrog est disponible en version bêta au Canada. C'est en fait essentiellement le catalogue de la société Universal Music qui serait disponible sur cette plate-forme. Verrouillés au moyen de systèmes de protection anti-copie ( [?DRM] ), les fichiers seraient audibles pendant trente jours. Le mois prochain, une autre plate-forme, [baptisée we7->http://www.we7.com/index.html] et lancée par le chanteur Peter Gabriel, lui fera concurrence. Celle-ci devrait fonctionner sans les fameux DRM, qui, dans les faits, rendent souvent difficile la simple écoute de fichiers musicaux. C'est Ratiatum encore, qui [attire l'attention->http://www.ratiatum.com/breve5005_Airtist_quel_modele_economique_du_gratuit_remunere_par_la_pub.html] sur le lancement de la plate-forme française Airtist. [Airtist->http://www.airtist.com/], qui fonctionne sur le même principe, se veut «éthique», pour les artistes en particulier, à qui elle garantit une rémunération de 12 centimes d'euros par chanson téléchargée. Les fichiers sont eux aussi, libres de tout système anti-copie. Cette question des DRM, est devenue véritablement essentielle. Aujourd'hui, les grands distributeurs de musique en ligne, conscients des difficultés en terme d'usage que leur imposition entraîne pour les produits qu'ils distribuent, tentent de s'en débarrasser. Amazon en est un dernier et récent exemple. le blog Read Write Web [a récemment tenté->http://www.readwriteweb.com/archives/amazon_to_offer.php] d'établir une chronologie des différents mouvements sur la question. On y voit bien que le reflux est relativement général. Du côté du cinéma, la situation semble aussi évoluer rapidement. Alors que le groupe MK2 [lance sa plate-forme de vidéo à la demande->http://www.mk2vod.com/], et pas seulement sur son catalogue, le site en ligne [Allocine->http://www.ratiatum.com/news5033_Allocine_lance_la_VOD_gratuite_financee_par_la_publicite.html] fait un premier pas vers la distribution de vidéo à la demande gratuite, c'est-à-dire financée par la publicité. Dans un autre domaine, le nouveau venu Joost, promet de rassembler le meilleur de la télévision et d'Internet. [Joost->http://www.joost.com/] est un système de diffusion de chaînes de télévision par Internet (et plus précisément par [?Peer-to-peer] ) fonctionnant par l'intermédiaire d'un logiciel spécifique. Intégrant des fonctionnalités de réseaux sociaux venant du [?Web 2.0], il permet aux téléspectateurs de communiquer entre eux à partir des programmes qu'ils regardent. C'est sans doute un des aspects les plus importantes et intéressants des mutations en cours : les nouveaux modes de distribution des produits culturels et les nouveaux modèles économiques sur lesquels ils devraient reposer à l'avenir, placent les consommateurs dans une position nouvelle dans le système. Le rédacteur en chef du magazine Wired, théoricien et vulgarisateur de la notion d'«[économie de la longue traîne->http://www.thelongtail.com/]», interprète le phénomène comme une sorte de «libération» par rapport au système médiatique traditionnel. Il s'en explique dans un entretien [qu'il a accordé au journal Le Monde.->http://www.lemonde.fr/web/article/0,1-0@2-3238,36-912299,0.html?xtor=RSS-3208]
2007-05-23 00:22:19
Ratiatum
http://www.ratiatum.com/
Avec [23% de parts de marché->http://www.xitimonitor.com/fr-FR/Technique/Firefox_Novembre_2006/index-1-1-3-68.html], le navigateur web Mozilla Firefox continue sa percée en Europe. Selon la société Xiti, fournisseur de services statistiques pour le Web, le principal concurrent à Internet Explorer aurait donc été utilisé dans 20% des cas en France, 33% en Allemagne et jusqu'à 40% en Slovénie au cours du mois passé. L'Espagne, l'Italie et le Portugal en revanche, constituent une sorte de front de résistance latin où le navigateur proposé par Microsoft détient encore plus de 85% de parts de marché. Cette situation, et la tendance qu'elle révèle, pourrait constituer une bonne nouvelle pour la fondation Mozilla qui promeut son logiciel, mais aussi pour l'ensemble du secteur. Ce dernier en effet, longtemps dominé à plus de 90% par un seul acteur semblait bloqué dans une situation monopolistique avec les conséquences négatives qui sont habituelles dans ce cas : absence d'innovation, baisse de qualité des produits et augmentation des externalités négatives pour les secteurs en amont (systèmes d'exploitation) et surtout en aval (concepteurs de sites Web). Ainsi, les coûts de développement nécessaire à la mise en place d'un site Web sont-il augmentés d'autant de versions que connaît Internet Explorer puisqu'aucune d'entre elles n'interprète le code html de la même manière. La percée de Mozilla Firefox conduit certains observateurs à espérer un retour à la normale pour le secteur des navigateurs Web. A terme, c'est une élévation de qualité des produits et un mouvement général vers une standardisation du comportement des logiciels qu'on serait en droit d'espérer, pour le plus grand bénéfice des consommateurs.
2006-12-10 08:10:40
Le cap des 23% d’utilisation de Firefox est franchi en Europe
http://www.xitimonitor.com/fr-FR/Technique/Firefox_Novembre_2006/index-1-1-3-68.html
André Gunthert, Maître de Conférences à l'EHESS et rédacteur en chef de la revue Etudes photographiques, spécialiste de l'histoire de la photographie, tire le bilan d'un an de fonctionnement de son blog, [Actualités de la Recherche en Histoire Visuelle->http://www.arhv.lhivic.org/index.php/]. L'entretien qu'il a accordé à cette occasion à l'[Observatoire Critique des ressources numériques en histoire de l'art et archéologie->http://www.observatoire-critique.org/article.php3?id_article=89] constitue une remarquable mise au point sur la manière dont un blog peut être utilisé à la fois dans le cadre d'un enseignement, mais aussi comme outil de veille et de recherche. Plus généralement, il prend position sur la manière dont un chercheur en sciences humaines peut aborder la révolution numérique au moment même où elle modifie son objet d'étude : «J’expérimente par immersion : c’est la seule manière que je connaisse, lorsqu’un phénomène est en cours et qu’on ne peut pas savoir à l’avance les directions qu’il va prendre. Cette démarche est à la fois une auto-pédagogie, qui me permet de mieux comprendre les outils en les manipulant. Elle est aussi adaptée au rythme rapide du changement et au fait que la mémoire du réseau est terriblement labile. L’état d’un nœud de réseau à un moment T s’efface en moins de quelques semaines. Ceux qui n’auront pas été sur le pont pour observer ces phénomènes pendant qu’ils se produisent n’auront plus aucun moyen de reconstituer l’économie des parcours et des logiques à l’œuvre. Il s’agit donc bien d’une méthode, même si celle-ci se construit en marchant.»
2006-12-10 09:28:50
"J’expérimente par immersion"
http://www.observatoire-critique.org/article.php3?id_article=89
Sur mes trois machines équipées d'Ubuntu, la mise à jour de "Breezy" vers "Dapper" a provoqué un problème d'impression. Impossible d'installer une nouvelle imprimante sans obtenir une régulière, somptueuse et agaçante erreur de type "Ubuntu is unable to load requested driver"... Tristesse! En fait, je ne suis pas le seul à avoir rencontré ce problème. Mais un [être généreux->http://www.linuxquestions.org/questions/showthread.php?t=452459] nous a indiqué une solution simple : il faut ouvrir un terminal et taper : sudo foomatic-cleanupdrivers. C'est simple, c'est rapide, ça fonctionne. Bonne année.
2007-01-01 18:16:26
A lire dans le magazine de vulgarisation du MIT Technology Review, [un bon article de synthèse->http://www.technologyreview.com/BizTech/17904/page1/] sur l'évolution de la distribution de contenus sur Internet. Le développement des plate-formes de téléchargement de vidéos comme Youtube et DailyMotion entraîne une augmentation considérable de trafic sur le réseau des réseaux menaçant celui-ci de congestion permanente. Mais les Cassandre prédisant un effondrement prochain du réseau ont jusqu'à présent toujours été démenties, en particulier parce qu'on a toujours trouvé un moyen technique d'éviter l'engorgement. Le prochain sauveur d'Internet n'est autre que le Peer-to-Peer, selon Technology Review. Cette technologie, très décriée voire réprimée du fait de ses utilisations illégales, permet de répartir égalitairement le transfert de données entre tous les utilisateurs. C'est un moyen de distribution de lourds fichiers multimédia bien plus efficace que la distribution centralisée. Or, constate-t-on, cette technologie est de plus en plus utilisée dans le cadre d'offres commerciales légales. Reste à trouver un système de financement adapté. La plate-forme [Peer Impact->http://www.peerimpact.com/mediaCenter/index.html] est très astucieuse de ce point de vue. Car elle rémunère les internautes qui ayant téléchargé (après avoir payé) un film ou un album sur la plate-forme, mettent à disposition pour les autres utilisateurs leurs fichiers en téléchargement. Il y a donc renversement de la situation classique : le partage n'est plus un acte criminel, mais une contribution qui est récompensée comme telle. Dernier avantage des technologies Peer-to-peer selon cet article : il permettrait aux propriétaires de réseau et fournisseurs d'accès de discriminer le type de données qui circulent dans le trafic global, et d'établir, au moyen de logiciels appropriés, des politiques de priorité leur permettant de réguler au mieux ce trafic.
2006-12-16 08:56:35
P2P : from Internet scourge to Savior
http://www.technologyreview.com/BizTech/17904/page1/
<img2058|left>Une Canon LBP 2900, c'est une imprimante personnelle laser bête comme chou, mais si un linuxien débutant essaie de la brancher sur Ubuntu, il aura une mauvaise surprise. L'imprimante n'est pas connue par le système et il semble impossible de l'utiliser. Gênant. On a souvent dit, dans Linux pour de vrai, que le matériel était un vrai obstacle au développement de Linux, dans la mesure où les constructeurs ne facilitent en général pas de pilotes pour Linux, et ne diffusent pas de spécifications permettant d'en développer... Cependant, pour qui n'a pas peur de se pencher un peu sur le problème, une solution existe pour la LBP 2900. Elle a été soigneusement rédigée dans [une documentation->https://help.ubuntu.com/community/HardwareSupportComponentsPrinters/CanonPrinters/Canon_LBP_2900] écrite dans le site d'Ubuntu. En la suivant pas à pas, il n'est pas difficile de faire fonctionner l'imprimante récalcitrante. Sauvé.
2007-01-07 21:28:17
Agacé par les critiques formulées dans les commentaires de Linux pour de vrai, j'ai repris mon bâton de pélerin et jeté, littéralement jeté, l'ensemble de mes filtres et dossiers, et suis reparti à zéro. J'ai repris mon utilisation intensive. Le problème détecté sur Thunderbird a disparu. Littéralement. A la maison, sur mon Linux comme sur mon Windows, le problème est toujours là. Les données viennent probablement d'une très vieille et très buguée version de Thunderbird, qui provoquait une frigidarisation intempestive de mon logiciel de courrier électronique, même mis à jour... Sans doute un octet désagréable trainait-il, de version en version, de migration en migration, depuis lustres et soleils. Me voici donc l'heureux possesseur d'un Thunderbird fonctionnel... salivant face à l'annonce de Thunderbird 2.0, [qui ne devrait plus tarder désormais->http://www.mozillazine-fr.org/archive.phtml?article=20338]. Promis, je n'utilise pas la version Beta en situation de vie réelle, histoire de ne pas avoir, ensuite, à trainer des dizaines de milliers de courriels faisant buguer le plus robuste des courrielleurs. Oh hisse.
2007-02-12 13:55:32
Netflix, le géant américain de la<a href="http://www.netflix.com/">location de films sur Internet</a> , a annoncé dans un <a href="http://www.netflix.com/MediaCenter?id=5384">communiqué de presse</a>, le 16 janvier dernier, qu'il allait proposer à ses abonnés à partir de début juin, un service de visionnage de films et séries TV en streaming pour PC. Pour l'instant, il ne s'agit pas d'une nouvelle source de revenu mais d'un moyen d'élargir publics et plates-formes de distribution. Malgré quelques restrictions (service disponible exclusivement aux Etats-Unis et pas encore accessible aux utilisateurs de Mac OS), l'enjeu est de taille. Le service est gratuit. Ce n'est que du bonus pour les clients. Les heures de visionnage en streaming sont fonction du prix de l'abonnement. Par exemple, avec le forfait le plus populaire de Netflix, l'abonné, qui paie 18 dollars par mois pour une location illimitée de DVD avec la possibilité de louer trois films à la fois, pourra, pour le même prix, visionner jusqu'à 18 heures de films par mois. Netflix a opté pour le mode de distribution instantanée offert par la technologie du streaming qui permet de commencer à visionner le film avant que la totalité du programme ait été téléchargée. Les abonnés peuvent alors sauter des passages ou arrêter s'ils n'aiment pas, ne sera décompter que ce qu'ils auront réellement visionné. Le système, conviviale et flexible, permet donc aux internautes de tester et découvrir les films du catalogue. Comme la plupart des services de distribution électronique, le service commence toutefois avec un catalogue limité ; environ 1000 films et émissions TV, ce qui représente une infime partie des 70 000 titres que Netflix propose à la location. L'objectif à court et moyen terme est d'élargir le catalogue et de rendre le service accessible sur d'autres supports, comme des set-top-box, écrans TV ou autres périphériques mobiles. Netflix rentre dans un marché de niche déjà surchargé avec des acteurs comme Apple et Amazon, mais aussi <a href="http://www.movielink.com/">MovieLink</a>, <a href="http://www.cinemanow.com/">CinemaNow</a> et les services de vidéo à la demande du câble. Mais l'entreprise veut s'assurer de faire partie des précurseurs du monde embryonnaire que représente la distribution de films par Internet. Avec son modèle économique basé sur la gratuité, il s'assure un avantage comparatif face à ses concurrents. Mais la distribution de DVD reste le marché prioritaire. La distribution en ligne de films doit encore résoudre des problèmes technologiques (formats, compatibilité, convergence) et juridiques (piratage), qui freinent l'évolution de ce nouveau marché.
2007-01-24 21:18:10
Jeudi 15 février à 17h, se tiendra à Lyon une nouvelle séance du séminaire Edition Numérique. On traitera en particulier de la question de la «convergence texte-son-image». Internet et le Web extraient l'écrit du superbe isolement dans lequel pouvait le tenir le livre imprimé. La convergence de l'oral et de l'écrit, du texte, de l'image et du son, devient chaque jour plus aisée à mettre en oeuvre, en particulier du fait de la démocratisation des outils d'édition. Le "multimédia", tenu à première vue pour un embellissement, une illustration de la publication jouera un rôle stratégique : il rend disponibles les matériaux, les sources du travail intellectuel. Les possibles techniques recoupent ainsi les données et corpus des sciences humaines. Intervenants : Daniel Bouillot (Université de Savoie - G-SICA - [CITIA->http://www.citia.info/]) et Corinne Welger-Barboza (Université Paris 1 - [Observatoire critique des ressources numériques en histoire de l'art et archéologie->http://www.observatoire-critique.org/]) Animateur : Marc Veyrat (Université de Savoie - G-SICA - [Société imateriel->http://www.imateriel.info]) Jeudi 15 février, 17h00-19h00 Salle F08. Entrée ouverte à tous. On peut désormais retrouver la présentation et l'enregistrement (audio) des séance sur le portail [Ecole Ouverte->http://ecole-ouverte.ens-lsh.fr/article.php3?id_article=750]
2007-02-08 10:05:17
Ecole Ouverte
http://ecole-ouverte.ens-lsh.fr
Virginmega ne progresse pas. Sur Macintosh comme sur Linux, il n'est pas possible d'aller acheter de la musique : <doc2067|left> «Bienvenue sur VirginMega.fr ! Les navigateurs adaptés au surf sur ce site ne sont pas encore disponible pour le système d'exploitation que vous utilisez. Voici la liste des plate-formes permettant d'accéder à toutes les fonctionnalités du site : - Plateforme Windows (98 SE et supérieur)» Note que la liste des plateformes permettant de visiter ce megasite est en fait la liste d'une plateforme.
2007-02-23 23:05:36
Depuis lundi, il est possible de télécharger des films en toute légalité sur le site de <a href="http://www.bittorrent.com/">BitTorrent</a>. La compagnie a finalement réussi à convaincre les studios hollywoodiens de sa bonne foi, moyennant tout de même quelques concessions. L'offre de distribution numérique de films ne semble pas encore prête à s'ajuster à la demande. Le site BitTorent.com propose plus de 3.000 films, issus des catalogues de la <a href="http://fr.wikipedia.org/wiki/20th_Century_Fox">20th Century Fox</a>, <a href="http://fr.wikipedia.org/wiki/Paramount">Paramount</a>, <a href="http://fr.wikipedia.org/wiki/Warner_Brothers">Warner Brothers</a> et <a href="http://fr.wikipedia.org/wiki/Metro-Goldwyn-Mayer">MGM</a>, disponibles légalement, moyennant 3,99 dollars pour les nouveautés et 2,99 dollars pour les films plus anciens, comme "Reservoir Dogs". Une fois le film sur l'ordinateur, il expire sous 30 jours suivant l'achat ou 24 heures après le début du visionnage. Il s'agit d'un service de location. Pas d'achat possible. Les majors en auraient exigé un prix trop élevé pour être attractif. L'avantage de BitTorrent réside dans sa rapidité de téléchargement. Cette technologie peer-to-peer (P2P), introduite par M. Cohen en 2001, permet le transfert depuis différents "pairs" pour un même fichier (multisourcing) et le morcellement du fichier en blocs. Le réseau montre toute son efficacité lorsqu'il y a beaucoup d'utilisateurs. Plus il y a de monde qui télécharge, plus il y a de monde qui partage. Dans son dernier <a href="http://www.bittorrent.com/about/press/bittorrent-inc-launches-the-bittorrent-entertainment-network">communiqué de presse</a>, la société dénombre 135 millions clients existants. Reste à savoir si ces anciens utilisateurs, habitués à se servir de BitTorrent pour obtenir gratuitement des films pirates, seront massivement séduits par cette nouvelle formule payante. Le peu d'utilisateurs du service pourraient alors atténuer l'avantage comparatif de BitTorrent sur ses concurrents. Le marché de la distribution de films par Internet commence à prendre forme. Certains sites de vidéo à la demande (VOD), proposent les films à la location et à l'achat (<a href="http://www.amazon.com/b/?&node=16261631">Amazon Unbox</a>, <a href="http://www.movielink.com/">Movielink</a>), avec des formules d'abonnement (<a href="http://www.movieflix.com/">MovieFlix</a>, <a href="http://www.vongo.com/">Vongo</a>), avec la possibilité de graver le film sur DVD (<a href="http://www.cinemanow.com/?affid=830">CinemaNow</a>). D'autres sites se définissent plutôt comme des magasins en ligne, avec système et terminal de lecture propriétaires (<a href="http://www.apple.com/fr/itunes/store/">iTunes Store</a>, <a href="http://www.xbox.com/en-US/live/marketplace/">Xbox Live Marketplace</a>). Des acteurs hybrides (<a href="http://www.blockbuster.com/">Blockbuster</a>, <a href="http://www.netflix.com/">Netflix</a>) proposent aussi un système d'abonnement, de location et d'achat de DVD en ligne, mais avec distribution postale. Enfin, des portails vidéos offrent du contenu posté par les internautes (à l'image du désormais célèbre <a href="http://www.youtube.com/">YouTube</a>), avec du contenu professionnel à l'achat ou à la location (<a href="http://video.google.com/">Google Video</a>). Les modèles économiques varient donc sensiblement. Mais BitTorrent et ses rivaux ont tous en commun un même défi : prouver à l'internaute que louer un film en ligne est plus convivial et moins contraignant que de se déplacer au vidéo club. Ils doivent également rivaliser avec le téléchargement illégal, qui demeure important. Mais comment convaincre des internautes habitués à obtenir les films gratuitement, à choisir dans un vaste catalogue, à pouvoir lire les vidéos sur n'importe quel terminal et les échanger avec leur entourage en toute liberté. Selon BitTorrent, 34 pour cent des utilisateurs de leur système seraient prêts à payer pour un service légal garantissant la qualité des fichiers. Cependant, les handicaps demeurent. Les DRM imposées par les studios ne permettent de visionner le film téléchargé que sur un seul ordinateur. Pas de possibilité de transférer le ficher par Internet, vers un autre poste ou même vers un baladeur numérique. Des solutions de distribution sans DRM (à l'image de <a href="http://www.lexpansion.com/art/32.0.154943.0.html">l'initiative de Warner Music France</a>) seraient à l'étude avec les partenaires. Mais rien n'est encore fait. En outre, la pauvreté du catalogue, l'absence de médiation œuvre-public, le manque de contenu gratuit, laissent à penser que l'offre n'a pas réellement cherché à comprendre la demande. BitTorrent arrive tout de même à innover en s'appuyant de manière paradoxale sur le réseau P2P pour proposer une offre payante, tout comme <a href="http://www2.peerimpact.com/mediaCenter/index.html">Peer Impact</a> le fait depuis août 2005. Même si des firmes non-affiliées à BitTorent continuent à proposer des films pirates via des versions et des sites Internet du logiciel open source, l'entreprise californienne entend bien gagner en respectabilité et vendre la technologie à d'autres magasins de films en ligne ou directement aux studios. BitTorrent permet en effet de transmettre des fichiers lourds pour un coût très inférieur à celui des autres systèmes actuellement sur le marché. Les studios hollywoodiens, quant à eux, entendent bien remettre les pirates sur le droit chemin de l'offre légale. L'essentiel n'est-il pas de participer ! Reste à voir si le public suivra.
2007-03-09 14:11:23
Certains contributeurs de <a href="http://www.youtube.com/">YouTube</a> sont devenus de vraies stars, démarchées par les sites concurrents, qui leurs offrent des garanties d'exposition et/ou un partage des revenus publicitaires. Les producteurs-amateurs les plus populaires génèrent des millions de visites et des dizaines de centaines d'inscriptions au site. Il apparaît légitime que les stars de YouTube aient leur part du gâteau. Les portails vidéos, comme YouTube, <a href="http://video.google.com/">Google Video</a> ou <a href="http://revvers.magnify.net/">Revvers</a>, qui récoltent des revenus publicitaires, ne pouvaient pas continuer à exploiter ainsi un contenu amateur de qualité sans le rétribuer. En janvier dernier, Chad Hurly, co-fondateur de YouTube, a ainsi <a href="http://www.ratiatum.com/breve4259_YouTube_commencera_a_partager_des_revenus_dans_quelques_mois.html">annoncé</a> que l'entreprise allait dans les mois à venir partager ses revenus publicitaires avec les contributeurs. En attendant, la concurrence s'active. Dans un <a href="http://query.nytimes.com/gst/fullpage.html?res=950CE6D6113EF935A15751C0A9619C8B63">article</a> du 26 février dernier, le New York Times révèle que <a href="http://www.metacafe.com/">Metacafe</a> propose 5 dollars tous les 1 000 visionnages. Ce qui peut représenter des dizaines de milliers de dollars pour les vidéos les plus visionnées. YouTube pourrait quant à lui partager environs 20 pour cent des recettes publicitaires obtenues pour chaque clip avec son producteur. En attendant, le célèbre portail vidéo a été piqué à vif par le départ de certains de ses contributeurs les plus populaires. <a href="http://www.youtube.com/profile?user=lonelygirl15">Lonelygirl15</a>, véritable buzz, auteur d'une série de vidéos en forme de journal intime d'une adolescente, est parti sur Revver, qui donne la moitié de tous ses revenus publicitaires à ses producteurs. Le duo comique <a href="http://www.smosh.com/">Smosh</a> est désormais en exclusivité sur <a href="http://www.livevideo.com/">Live Video</a>. Tout comme les réseaux TV, les studios de cinéma et les labels de musique le font depuis toujours, les sites de partage de vidéos tentent ainsi de signer les talents de façon pro-active. YouTube est de loin le portail vidéo le plus populaire, avec environs 26 millions de visites en décembre, selon le service de mesure sur Internet <a href="http://www.comscore.com/">comScore Media Metrix</a>. <a href="http://video.search.yahoo.com/">Yahoo Video</a> arrive en deuxième position, avec 22 millions. Quand au site indépendant le plus important, il s'agit de <a href="http://www.heavy.com/">Heavy</a>, avec 6,5 millons de visiteurs. YouTube peut s'attendre à ce que ses concurrents emploient les grands moyens étant donné les enjeux financiers. Mais aucun concurrent ne peut se vanter d'attirer des millions d'internautes en moins d'une semaine. Les autres sites doivent alors payer cash. De l'argent qui provient des publicités. Et ce que veulent les publicitaires, c'est avoir une audience de millions d'internautes. Revvers l'a bien compris. le site, qui perçoit ses revenus publicitaires sur la base du nombre de visionnage des clips, encourage ses contributeurs à distribuer leurs vidéos sur le plus grand nombre de sites possible, sans exclusivité. La stratégie est de rentrer en contact avec les stars de YouTube et de leur montrer que les portails concurrents marchent tout aussi bien. Ce que recherchent ces producteurs-amateurs, c'est principalement le succès. La fortune vient après. Les portails vidéos leur apportent visibilité et feed-back de la part du public. Ils peuvent ainsi "se faire la main" et acquérir une certaine expérience. En attendant qu'il soit possible de faire carrière dans le "video blogging", espérons que YouTube fera une proposition profitable pour tout le monde.
2007-03-09 14:11:03
Intéressant palmarès que celui établi par [Daily Wireless->http://www.dailywireless.com/features/most-connected-cities-030607/], qui tente d'établir un Top10 des villes les plus connectées dans le monde, que ce soit du point de vue du taux de pénétration de l'Internet au débit ou de celui de la couverture wifi de l'espace public. C'est Séoul qui arrive en tête de ce palmarès, suivi de près par Taiwan, puis Tokyo, Hong Kong et Singapour. Les villes asiatiques semblent donc ouvrir la voie à une connectivité permanente et en tous lieux qui distance largement ce qui existe dans les villes européennes ou ... nord-américaines. On est assez surpris en effet, de voir des zones célèbres de la Silicon Valley apparaître en queue de classement. Paris s'en sort honorablement en 8ème position où le programme de cablâge gratuit en fibre optique proposé par Free fait forte impression.
2007-03-09 14:23:04
Daily Wireless
http://www.dailywireless.com
La démultiplication des moyens de d'enregistrement photographique ou vidéo sur les téléphones portables a engendré une nouvelle forme de délinquance particulièrement perverse, connu sous le nom de happy slapping. Pratiquée essentiellement par des adolescents, le happy slapping consiste à frapper gratuitement un individu quelconque (rencontré au hasard ou non), afin d'enregistrer la scène et la diffuser par l'intermédiaire des réseaux de téléphone portable ou par Internet. Soucieux de combattre le plus rapidement possible toute nouvelle forme de délinquance, l'actuel Ministre de l'Intérieur, par ailleurs candidat aux élections présidentielles, a rédigé un article spécialement consacré à ce phénomène de société dans sa récente loi sur la délinquance. Cet article assimile en effet le fait d'enregistrer et de diffuser une séquence vidéo montrant des actes violents comme une forme de complicité, punie de 5 ans d'emprisonnement, à moins d'être journaliste professionnel. Cette disposition a des effets de bord considérable sur la liberté d'expression, et en particulier la pratique du journalisme citoyen, appelé à se développer avec Internet. Il apparaît donc par exemple, au grand étonnement [des média étrangers->http://news.google.com/news?hl=en&ned=us&ie=UTF-8&ncl=1114211836], que le fait de filmer des violences policières, à moins d'être professionnel, peut entrainer des poursuites. Avec la loi Sarkozi, l'affaire Rodney King aurait abouti à l'emprisonnement du filmeur plutôt que des policiers. L'article anti-slapping, que le Conseil Constitutionnel a jugé valide, provoque un nombre considérable de débats...à l'étranger pour la plupart. En France, c'est une association représentant les internautes, [la Ligue Odebi->http://www.odebi.org/new2/?p=223], qui oppose pour l'essentiel une certaine résistance. [Reporters Sans Frontières->http://www.rsf.org/article.php3?id_article=21232] s'est récemment associé à la protestation et dénonce une forme d'attaque contre le journalisme citoyen et l'information citoyenne
2007-03-09 15:10:41
Ligue Odebi
http://www.odebi.org/new2/?p=223
Pour la prochaine séance du séminaire "Economie politique de l'édition numérique" à l'ENS LSH, Hervé Le Crosnier, maître de conférences à l'Université de Caen, interviendra sur la question des systèmes de gestion des droits pour les oeuvres numériques. Voici une courte présentation de son intervention : «L'industrie de la musique, et plus généralement les industries culturelles ont vécu la proposition de "mesures techniques de protection comme une aubaine. Ces industries pensaient ainsi introduire de la "rareté" dans un système économique marqué par la chute drastique du coût marginal de reproduction, une qualité de l'internet et du numérique. Or les promesses sont absentes au moment du rendez-vous. Steve Jobs a montré l'incapacité technique à verrouiller correctement les documents numériques, et l'inflexion des pratiques des majors de la musique depuis quelques mois nous indique que le music business ne peut continuer à perdre la confiance de ses clients en limitant les usages. Nous devons maintenant comprendre les raisons d'un tel emballement des industries culturelles, puis des politiques (Loi DADVSI) ? Les systèmes "clé-verrou" modifient profondément la relation des produits avec les usages, et remplacent les conditions spécifiques, réglées par la Loi, par des systèmes automatiques, avec toutes les conséquences citoyennes sur les formes de mainmise sur les individus. Au travers l'exemple des DRM dans le domaine musical, nous pouvons nous attacher à comprendre les contradictions nouvelles qui sont posées par le système technique de l'internet et du numérique. Il est temps d'en finir avec l'idéologie qui a animé les principaux acteurs des industries culturelles et informatique et de regarder avec lucidité l'émergence de nouveaux modèles d'affaire d'une part et de nouveaux rapports de production d'autre part.» Cette séance, ouverte à tous, se déroulera le Jeudi 29 mars à 17h00 à l' ENS Lettres et Sciences humaines Parvis René Descarte Lyon 7ème. Métro Debourg On peut retrouver la présentation du séminaire et l'enregistrement audio des séances passées sur le [portail Ecole Ouverte->http://ecole-ouverte.ens-lsh.fr/article.php3?id_article=750].
2007-03-20 05:49:08
Ecole Ouverte
http://ecole-ouverte.ens-lsh.fr
La nouvelle est tombée jeudi 22 mars. <a href="http://www.nbc.com/">NBC</a> et <a href="http://www.newscorp.com/index2.html">News Corp</a>, les deux géants américains des médias, s'allient pour créer un nouveau réseau de diffusion de leurs contenus vidéos sur Internet. Le projet a été annoncé à peine une semaine après que Viacom ait déposé plainte contre YouTube pour violation des droits d'auteur. Dans le conflit qui oppose nouveaux et anciens médias, les actions fusent. Le marché de la vidéo en ligne s'organise. Les alliances se forment. La loi américaine relative au droit d'auteur à l'ère numérique (la DMCA de 98) est sur la sellette. Mais une chose est sûre, un modèle économique est en train de s'imposer sur Internet : le contenu vidéo gratuit, financé par la publicité. Le lancement de la plate-forme de diffusion est prévue pour le début de l'été 2007, outre-Atlantique. Le projet n'a pas encore de nom définitif. NBC et News Corp distribueront également leur contenu sur plusieurs portails Internet, comme AOL (Time Warner), MSN (Microsoft), MySpace (News Corp) et Yahoo. Programmes télévisés, vidéo-clips et films (Universal Picture et 20th Century Fox) des deux groupes seront disponibles gratuitement en streaming. Certain films pourront être téléchargés et conservés contre paiement, à l'image de l'iTunes Store d'Apple. De plus, les internautes auront la possibilité de mettre en ligne leurs propres vidéos. Selon le modèle envisagé, la plate-forme sera donc financée par la publicité qui apparaîtra sur les portails. Peut-on qualifier cet accord de "riposte anti-YouTube" ? Peter Chermin, directeur exécutif de News Corp, certifie le contraire. Il a d'ailleurs contacté Eric Schmidt, le patron de Google (propriétaire de YouTube), pour lui proposer de se joindre à l'initiative. Le résultat des négociations est encore inconnu. L'objectif semble être une diffusion sur le plus de supports possibles. La qualité de l'image sur les sites partenaires pourrait faire la différence. Cependant, même avec des vidéos de moindre qualité, l'hégémonie de YouTube peut-elle vraiment être contrebalancée ? Et est-ce vraiment le propos ?
2007-03-27 00:00:00
Dans l'administration, écrire un blog peut conduire à des fortunes diverses : publier un livre chez un éditeur connu ou faire l'objet d'une procédure disciplinaire pour manquement au devoir de réserve. Deux blogueurs en font l'expérience ces jours-ci. L'une est policière. Elle s'appelle Bénédicte Desforges et vient de sortir son livre, [Flic : Chroniques de la police ordinaire->http://www.amazon.fr/gp/product/2841863816?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2841863816], aux Editions Michalon, écrit à partir de [son blog->http://police.etc.over-blog.net/]. L'autre est prof en ZEP. On ne connaît pas son nom, ni son établissement d'exercice, mais il est poursuivi par son chef d'établissement qui lui reproche d'avoir manqué à son devoir de réserve. Depuis, il a [fermé son blog->http://www.blogprof.fr/].Une [pétition de soutien->http://ecotez.free.fr/article.php3?id_article=183] est en cours de signature. Les règles en matière de divulgation publique sur un blog d'informations liées à un milieu professionnel, sont loin d'être claires. Tout dépend donc des réactions, très diverses, que les supérieurs hiérarchiques du blogueur peuvent avoir en prenant connaissance de la publication. Ainsi plusieurs blogs, de policiers aussi, ont été fermés en catastrophe et ont valu des ennuis à leurs auteurs. L'Education Nationale semble se distinguer en la matière. On se souvient de[ l'affaire Garfield->http://www.homo-numericus.net/breve733.html] qui avait vu un proviseur de lycée manquer être destitué pour avoir raconté son travail quotidien sur un blog. Au delà de l'évident talent personnel de Bénédicte Desforges, la réussite de "[Police, le blog d'un flic->http://police.etc.over-blog.net/]" est aussi à mettre en relation avec une administration bien plus ouverte qu'on ne peut le préjuger en matière de communication avec le public par l'intermédiaire des nouvelles technologies. Un petit coup d'oeil au [site de recrutement de la Police Nationale->http://www.blog-police-recrutement.com/] est instructif et montre comment on peut tirer parti de ces outils de communication pour informer au mieux le public sur la réalité quotidienne d'un métier. Rien de tel dans l'Education Nationale, apparemment terrifiée à l'idée d'une communication non contrôlée de ses agents avec le public. Les expériences de blogs mis en place et soutenus par l'institution sont extrêmement rares et limitées, preuve supplémentaire du décalage impressionnant entre une société qui a profondément évolué et une institution éducative qui semble toujours vivre sur des modèles du siècle dernier. Plus profondément, on peut se demander si ces sanctions ne sont pas le signe d'une administration développant le syndrome du bunker ; tout se passe comme s'il ne fallait pas que le public sache ce qui se passe réellement dans les classes et les établissements, comme s'il fallait préserver à tout prix l'apparence d'un mythe auquel plus personne ne croit par ailleurs.
2007-03-10 13:10:27
Blogprof
http://www.blogprof.fr/
Après,[ le 4ème pouvoir->http://www.cultsock.ndirect.co.uk/MUHome/cshtml/index.html], qui désigne habituellement la presse, et la capacité qu'elle peut avoir de contrebalancer le pouvoir politique, on commence depuis quelques années à parler de 5ème pouvoir à propos des pratiques d'information amateurs qui se développent sur Internet par l'intermédiaire des blogs, sites personnels et autres magazines en ligne. L'expression de journalisme citoyen est aussi fréquemment utilisée pour mettre en évidence la démocratisation de l'accès aux outils d'expression et de dissémination de l'information. L'agrégation d'informations en provenance de sources aussi diverses et nombreuses peut être faite de manière automatique par des robots, comme [Google news->http://news.google.fr], ou manuellement, jusqu'à pouvoir produire de véritables journaux en ligne dont la richesse et la diversité de l'information concurrence l'offre professionnelle. En Corée, le célèbre portail OhMynews (qui dispose désormais d'une [version internationale->http://english.ohmynews.com/]) en est un très bel exemple. En France, l'initiative [Agoravox->http://www.agoravox.fr] prétend faire de même. De la même manière, alors qu'OhMyNews avait organisé à Séoul l'année dernière une [rencontre internationale->http://english.ohmynews.com/english/eng_section.asp?article_class=11] de grande ampleur sur ce thème du journalisme citoyen, Agoravox propose samedi prochain, 24 mars, à Saint-Denis, les [«Premières rencontres du 5ème pouvoir».->http://www.agoravox.fr/rubrique.php3?id_rubrique=23] [Au programme->http://www.agoravox.fr/journee.php3?id_article=19548], on pourra écouter Joel de Rosnay et Carlo Revelli, fondateurs d'Agoravox, mais aussi Nicolas Voisin, Natacha Quester-Séméon ou Christophe Grébert qui, à des titres divers, sont de bons observateurs ou des acteurs important de ce journalisme citoyen en France censé contrebalancer l'univocité des médias traditionnels.
2007-03-13 01:13:26
Agoravox
http://www.agoravox.fr/rubrique.php3?id_rubrique=23
Un milliard de dollars de dommages et intérêts. Une injonction de cesser de violer les droits d'auteur à l'avenir. C'est ce que réclame <a href="http://www.viacom.com/">Viacom</a>, le géant des médias américains. Mardi 13 mars, Viacom a déposé plainte contre <a href="http://www.youtube.com/">YouTube</a> pour "violation massive et intentionnelle des droits d'auteur". Depuis que <a href="http://fr.wikipedia.org/wiki/Google">Google</a> a racheté YouTube en octobre dernier, le géant des médias en ligne a tenté de conclure des accords avec les majors afin de pouvoir diffuser leur contenu sur son site de partage vidéo. Les tensions entre nouveaux et anciens médias sont désormais apparentes. Dans un <a href="http://www.viacom.com/view_release.jhtml?inID=10000040&inReleaseID=227614">communiqué de presse</a>, Viacom (MTV, Paramount, DreamWorks, Comedy Central, Nickelodeon, etc.) accuse Google de développer un "modèle économique clairement illégal", exploitant la dévotion des fans et bénéficiant de recettes publicitaires en partie induites par du contenu piraté. Environ 160 000 vidéos du contenu de Viacom auraient été mises en ligne sur le site de partage vidéo et visionnées plus de 1,5 milliards de fois. Dans la bataille économico-philosophique que se livrent les nouveaux médias et les industries du divertissement, Viacom lance une offensive qui pourrait se révéler décisive pour le futur de la distribution de contenu audiovisuel en ligne. Google ne cache pas son ambition de devenir le leader de la vidéo en ligne, à l'image de l'<a href="http://www.apple.com/fr/itunes/store/">iTunes Store d'Apple</a> pour la musique. La vaste audience de YouTube combinée à sa maîtrise de la publicité en ligne représentent pour Google un commerce lucratif, dont il envisage de partager les revenus avec les grandes industries des médias et autres créateurs de contenu. YouTube a déjà noué plus de mille partenariats de diffusion (avec notamment la <a href="http://www.bbc.co.uk/">BBC</a>, <a href="http://www.cbs.com/">CBS</a>, <a href="http://www.fox.com/home.htm">Fox</a>, <a href="http://www.nbcuni.com/">NBC Universal</a>, <a href="http://www.timewarner.com/corp/">Time Warner</a> et la <a href="http://www.nba.com/">NBA</a>). Certaines majors ont ainsi autorisé la diffusion légale de leur contenu sur YouTube en échange d'un partage des revenus publicitaires. Elles préfèrent trouver un accord pour une compensation financière car le célèbre site de partage vidéo demeure un formidable outil promotionnel. Mais les accords sont difficiles à finaliser et la prolifération sur YouTube de vidéos protégées par les droits d'auteur ne fait qu'augmenter la colère des majors. Celles-ci doivent en effet quotidiennement passer en revue tous les clips en ligne sur YouTube pour voir si leur contenu en fait partie. Google veut devenir le fer de lance d'une révolution des modes de consommation et de distribution vidéo. Mais Viacom revendique désormais sa part du gâteau. Avec l'essor de la publicité en ligne, l'enjeu est de taille. Il s'agit d'attirer la nouvelle génération de clients, d'aller là où va l'audience. D'un point de vue légal, le <a href="http://fr.wikipedia.org/wiki/Digital_Millennium_Copyright_Act">Digital Millennium Copyright Act de 1998 (DMCA)</a> interdit le contournement des mesures techniques de protection (tout comme la <a href="www.legifrance.gouv.fr/WAspad/ UnTexteDeJorf?numjo=MCCX0300082L">loi DADVSI</a> en France). Cependant, un amendement (le "Safe Harbor") protège les sites Internet qui contiennent du contenu pirate posté par les utilisateurs, tant que les sites le suppriment immédiatement sur demande de l'ayant droit. Le verdict de cette action en justice, si cela va jusqu'au procès, dépendra de l'interprétation de cet amendement. Google affirme être protégé par le DMCA. Viacom est persuadé du contraire. La compagnie affirme qu'à la différence des fournisseurs d'accès à Internet, qui n'ont vraiment aucune idée de ce qui circule à travers leur réseau, Google est en contact direct avec ses clients. D'un côté, rien ne prouve que YouTube encourage les internautes à violer les droits d'auteur. Google a également toujours réagi promptement lorsque les ayants-droit le lui ont demandé. D'un autre côté, le bénéfice financier que Google tire de ce modèle économique peut très bien jouer en sa défaveur. Cette bataille est le symptôme d'une guerre que se livrent anciens et nouveaux médias, deux points de vue différents sur le développement d'Internet. Ceux qui veulent créer des logiciels pour permettre aux individus et entreprises de communiquer et évoluer, et ceux qui veulent garder le contrôle d'un contenu qu'ils ont créé et dans lequel ils ont investi beaucoup d'argent. Prenons l'exemple de l'industrie du disque. Les innovations sont venues des entreprises logicielles. Avec son lots de ratés, comme Napster. Les majors ont quant à elles réagi avec un temps de retard. Et si le téléchargement illégal semble avoir diminué, c'est moins par peur du procès que grâce au développement d'une offre légale créative et adaptée à la demande.
2007-03-21 06:48:47
L'École doctorale de Sciences-Po et Sens Public présentent «L'Europe des intellectuels», un séminaire animé par Ingeburg Lachaussée et Gérard Wormser, secr. générale et pdt de Sens Public (www.sens-public.org), Maîtres de conférence à l'IEP. La mondialisation contemporaine n'est pas sans effets sur la place des intellectuels. L'avènement des intellectuels est indissociable du capitalisme (Simmel, Philosophie de l'argent) : la société du savoir et la croissance exponentielle des professions intellectuelles bouleversent les fonctions, les valeurs, et l'ethos des intellectuels. Créé par Sens public et l'École doctorale de Sciences-Po, ce séminaire tentera d'éclairer ces bouleversements en présentant alternativement certaines figures emblématiques de l'histoire intellectuelle européenne, les évolutions psychiques et collectives (Simondon) liées aux techniques de la pensée, la nouvelle économie des savoirs et les transformations institutionnelles qu'elle engendre. Vendredi 30 mars 2007, 14h-16h30 L'Europe entre système de signes et effets de réseau École doctorale, 199 bd Saint Germain, 75007 Paris. Salle de réunion. Intervenants : Olivier BOMSEL, professeur d'Économie Industrielle à l'École des mines de Paris, auteur de Gratuit ! Du déploiement de l'économie numérique, collection Folio Actuel, Gallimard, 2007. Clarisse HERRENSCHMIDT, chercheur au CNRS, rattaché au laboratoire d'anthropologie sociale ; elle publie en avril 2007 chez Gallimard Les trois écritures. Langue, nombre, code. Anne PERROT, Vice-Présidente du Conseil de la concurrence, Professeur d'économie à l'Université de Paris I, Membre du Laboratoire d'Économie Industrielle du Centre de Recherche en Économie et Statistiques (CREST) Séance coordonnée par Yannick MAIGNIEN - Cnrs/ Adonis Argument La thèse initiale pose que le numérique est dans le code plus que dans la technologie, et que les effets de son déploiement se comparent à ceux de systèmes de signes antérieurs... La discussion portera sur la fonction de l'information codée (l'écrit notamment) dans le développement des sociétés, suivie d'une exploration des enjeux économiques associés au déploiement des marchés et des industries de code... Par ailleurs, les effets de réseau engendrent une concurrence verticale sur la distribution d'utilités. Cette concurrence sera illustrée par l'exemple du livre et les enjeux de compétitivité industrielle. Comment situer l'Europe dans la capture d'effets de réseau ? Les représentations économiques françaises sont-elles bien adaptées à la concurrence numérique et aux opportunités qu'elle suscite ? Olivier BOMSEL Il interviendra autour de son livre Gratuit ! Du déploiement de l'économie numérique et développera sa réflexion autour des questions suivantes : Qu'est ce que le numérique ? Pourquoi suscite-t-il du gratuit ? Une bibliographie du sujet : [->http://www.cerna.ensmp.fr/CVs/Docs/Ob-Gratuit.html] La bibliographie d'Olivier Bomsel : [->http://www.cerna.ensmp.fr/CVs/Bomsel.html] Clarisse HERRENSCHMIDT Son intervention portera sur la troisième révolution graphique de l'histoire. L'écriture informatique et réticulaire succède à celle de la monnaie frappée - qui traite les nombres comme objets arithmétiques matérialisés par du métal ou des signes écrits. Celle-ci fut précédée par la première, celle des langues et des nombres comme objets linguistiques (Iraq, Iran : 3300 avant notre ère). La troisième révolution graphique est la nôtre, celle du code. Bibliographie : - "Écriture, monnaie, réseau. Inventions des Anciens, inventions des Modernes", Le Débat, n° 106, septembre-octobre 1999. - "L'Internet et les réseaux", Le Débat n° 110, mai-aout 2000. Lien: [->http://www.formes-symboliques.org/recherche.php3?recherche=Rechercher+clarisse+Herrenschmidt] Anne PERROT Dans le domaine industriel, le déclenchement des effets de réseaux est souvent passé par la gratuité : les inventeurs du clavier qwerty ont généralisé son usage en donnant gratuitement des cours de formation aux secrétaires, ce qui à permis à ce standard de s'imposer face à ses concurrents. Le Minitel a d'abord été offert gratuitement aux consommateurs, tout comme les terminaux de téléphone mobiles plus récemment ont été largement subventionnés. Le domaine du gratuit ne cesse de s'étendre ou plutôt de se déplacer. Le numérique bouleverse en effet les frontières du gratuit et du payant. L'intervention portera sur les nouvelles questions économiques et concurrentielles que ce changement technologique fait surgir. Bibliographie : - Réglementation et concurrence (éd.), collectif, Economica, 1997. - Villes et Economie, Maurel, Prager, Perrot, Puig, Thisse, eds La Documentation Française, 2004.
2007-03-29 21:31:24
L'Europe, entre système de signes et effets de réseau
http://www.sens-public.org/article.php3?id_article=417
Le week-end dernier, 27-29 avril 2007, la conférence internationale <a/ href="http://web.mit.edu/comm-forum/mit5/index.html">MiT5: Creativity, Ownership and Collaboration in the Digital Age</a> s'est tenue au MIT (Massachusets Institute of Technology) à Cambridge, USA. Divers spécialistes des technologies numériques et du média Internet y étaient réunis pour réfléchir sur les implications sociales, économiques et juridiques du Web 2.0. Tous avec les mêmes interrogations. Sommes-nous vraiment dans une nouvelle ère ? Quelle est donc cette culture émergente ? Comment en tirer le meilleur parti ? Quels pièges éviter ? Web 2.0 : pas si nouveau Le terme "Web 2.0", désormais très à la mode, porte en lui la promesse d'une nouvelle version d'Internet. Il ne s'agit peut-être pas d'une révolution mais les évolutions sont indéniables. Comment faire la part entre buzz marketing et réels bouleversements sociaux ? Qu'est-ce que le Web 2.0 apporte de vraiment nouveau ? La communication est le maître-mot. Le désir de rencontrer des gens et construire des communautés n'a rien de nouveau, mais l'internaute peut maintenant exprimer ses préférences et interagir avec (virtuellement) le monde entier, par le biais de sites comme <a href="http://www.myspace.com/">MySpace</a>, en postant un commentaire, en votant, en mettant à disposition des fichiers. La culture participative atteint alors une nouvelle échelle, avec notamment les systèmes de P2P. La possibilité pour l'usager de soumettre son propre contenu (user generated content) est également une des grandes nouveautés du Web 2.0. Cela va de paire avec le remix. En mettant à disposition des outils simples et rapides, des sites comme <a href="ttp://www.youtube.com/">YouTube</a> généralisent la "culture du détournement". Il ne s'agit plus de réaffirmer la crédibilité de l'œuvre originale mais d'illustrer sa propre démarche. L'intention n'est plus la contemplation passive, c'est un appel ouvert à la participation. Ainsi, la convergence des médias est couplée avec une convergence producteur-consommateur. De tous temps, les individus se sont unis afin de collaborer, réfléchir, agir. L'intelligence collective atteint aujourd'hui de nouvelles proportions. Le projet d'encyclopédie libre <a href="http://fr.wikipedia.org/wiki/Accueil">Wikipedia</a> montre la puissance d'Internet qui permet de faire collaborer experts et amateurs pour produire un contenu de qualité accessible à tous (ceux qui sont connectés à Internet…). Le monde marchand est lui aussi touché par cette mise en commun d'une nouvelle ampleur, avec des sites comme <a href="http://hub.ebay.com/buy">eBay</a> ou <a href="http://www.amazon.fr/">Amazon</a>. Désormais, comme l'a montré Chris Anderson avec son concept de <a href="http://fr.wikipedia.org/wiki/Longue_traîne">Long Tail</a>, tous les produits ont leur place, plus de problème de stockage. Tous les marchés de niches réunis rapportent autant que les hits. De cette abondance est née la <a href="http://www.wired.com/wired/archive/15.03/">"culture snack"</a>, comme l'a définie le magazine Wired. L'industrie soigne l'emballage de produits que l'internaute va venir picorer frénétiquement. Un nouveau type d'activisme social voit alors le jour. De nouveaux acteurs sociaux s'emparent d'Internet pour critiquer et offrir une alternative au système capitaliste. L'enjeu est de rassembler dans le monde virtuel autour d'une action politique pour ensuite agir dans le monde réel. Tandis que l'enjeu du Web 1.0 était l'accès, les défis du Web 2.0 sont de savoir à qui vont profiter tous ces changements et d'être conscient de l'appropriation grandissante d'Internet par l'industrie. Droit d'auteur 2.0 : pas si fair-play Les nouvelles technologies bouleversent la notion de propriété. Dans le cyberespace, la valeur ne réside plus dans l'objet mais dans l'accès, l'auteur n'est plus individuel mais collectif, il ne s'agit plus de sauvegarder l'original mais de créer une œuvre évolutive. Comment faire coexister deux sémantiques de la propriété très différentes ? Quel impact sur notre relation aux nouvelles technologies ? Quelles évolutions possibles pour le droit d'auteur ? Le droit d'auteur s'est construit autour de l'économie libérale avec la notion de droit exclusif. La numérisation des données et la généralisation massive des échanges non commerciaux sont venues questionner la loi. Les mesures de protection technique (DRM) ont tenté de limiter l'hémorragie. Mais l'industrie réalise ses limites. Il apparaît désormais important de combler le vide juridique autour de la compensation des contenus amateurs. Les licences collectives semblent également un moyen intéressant de faire entendre une nouvelle vision du droit d'auteur. En plus de la répression juridique, l'industrie tente depuis quelques années d'éduquer les internautes à travers des campagnes d'éducation contre le piratage qui criminalise le public. Ces actions semblent ne protéger que les intérêts de l'industrie et soulèvent le problème de la présence des entreprises au sein de l'école. Elles façonnent l'appropriation des nouvelles technologies de toute une génération. Puis, pour ce qui est du "fair use", l'équivalent du droit de copie privée français, celui-ci disparaît totalement ou bien est présenté comme trop risqué. La loi américaine du droit d'auteur, confrontée aux évolutions technologiques, a évolué au fil des décisions de justices. En 1984, la décision de la Cour suprême, dans l'affaire Sony contre Betamax, permet d'établir le concept de "faire use" en autorisant l'enregistrement et la copie VHS à des fins non commerciales. En 2005, l'affaire MGM contre Grokster légifère sur les systèmes de P2P. Une victoire pour les majors. Toute personne qui distribue un dispositif en promouvant son utilisation pour violer le droit d'auteur peut désormais être tenue responsable pour toute violation de ce droit par les utilisateurs de ce système. En mars dernier, <a href="http://www.homo-numericus.net/breve872.html">Viacom a déposé plainte contre YouTube</a> pour violation des droits d'auteur. Si cela va jusqu'au procès, le jugement promet d'être décisif pour l'évolution du copyright et du Web 2.0. Il ne faut pas perdre de vue que la culture capitaliste fait partie intégrante des nouvelles technologies. Ainsi, dès l'achat d'un ordinateur, l'utilisateur est déjà enfermé dans une technologie propriétaire.
2007-05-02 00:00:00
Au terme du second mandat de Jacques Chirac, et alors que sa succession sera assurée par celui qui fut longtemps son Ministre de l'Intérieur, une association de défense des droits des internautes, la ligue Odebi, tente de tirer [un bilan complet des cinq dernières années en matière d'évolution de la législation sur Internet.->http://www.odebi.org/new2/?page_id=240] Du point de vue législatif, ces cinq années n'ont pas été anodines. Car en 2002, la France se trouvait encore dans une situation juridique très incertaine, où tout un pan des activités qui se sont développées sur Internet n'existaient tout simplement pas dans les différents textes de loi. Cinq ans après, on ne peut pas reprocher au gouvernement d'être resté inactif, car ce n'est pas moins de cinq textes de lois qui ont été proposés et adoptés : - Loi sur la Confiance dans l'Economie Numérique (LCEN), - Loi Informatique et Liberté (révision) (LIL), - Loi Contre le Terrorisme (LCT), - Loi sur les droit d’auteur et droits voisins dans la société de l’information (DADVSI), - Loi sur la Prévention de la Délinquance (LPD) Pour la ligue Odebi, mais aussi de l'aveu de nombreux observateurs, la frénésie législative de ce quinquennat, en cette matière comme en d'autres, n'aura pas véritablement contribué à clarifier la situation. De nombreuses mesures se révèlent en effet imprécises, contradictoires, voire totalement inapplicables. C'est ce qui ressort par exemple d'[un récent rapport, remis par le juriste Jean Cédras au Ministre de la Culture à propos de l'application de la loi sur le droit d'auteur->http://www.odebi.org/docs/RapportCedras.pdf], et que la ligue Odebi publie sur son site. A titre d'exemple, le fameuse «riposte automatique graduée», dont le Ministre de la Culture avait fait la mesure phare de son dispositif législatif, est tout simplement inapplicable, selon les termes de l'auteur et [doit être abandonnée.->http://www.pcinpact.com/actu/news/36148-DADVSI-rapport-RDDV-Jean-Cedras.htm].. Plus profondément, le bilan en matière de libertés publiques est pour le moins contrasté. Un exemple récent en fait foi. La loi sur la confiance dans l'économie numérique, adopté en 2004 fixe le cadre légal rendant obligatoire la conservation des données de connexion par les fournisseurs, éditeurs de sites, hébergeurs, opérateurs de téléphone, afin de pouvoir fournir la preuve de crimes et délits sur demande d'une autorité judiciaire. Aujourd'hui, le président d'une association représentant les éditeurs de contenus sur Internet, le GESTE, [proteste contre la préparation de décrets d'application->http://www.lemonde.fr/web/imprimer_element/0,40-0@2-3232,50-899116,0.html] qui mettent en pratique une conception très extensive de la notion de données de connexion. En gros, argumente-t-il, dans l'état actuel de préparation du décret, se sont toutes les actions, toutes les traces de tous les internautes sur l'Internet français qui devront être conservées. Ce qu'il dénonce comme relevant d'une dérive de type «Big Brother», risque de «tuer l'Internet français» en faisant peser sur ses acteurs des dépenses considérables pour conserver ces données, mais aussi en alimentant la défiance des internautes à l'égard de leurs prestataires de services, soudainement transformés en véritables «indics» au service des forces de police. Le GESTE ne nous avait pas vraiment habitué à un vocabulaire aussi tranché au cours de ses dernières prises de position. S'il l'utilise aujourd'hui, c'est qu'il doit avoir le sentiment que la menace est sérieuse.
2007-05-09 03:16:55
Ligue Odebi
http://www.odebi.org
La guerre de mouvements entre les géants du numérique n'est pas prêt de se terminer. Le New York Post a en effet [révélé vendredi->http://www.nypost.com/seven/05042007/business/bills_hard_drive_business_peter_lauria_and_zachery_kouwe.htm] que les discussions entre les sociétés Microsoft et Yahoo avaient récemment repris en vue de conclure un mariage éventuel. Pour [la plupart des analystes->http://feeds.sfgate.com/~r/sfgate/rss/feeds/business/~3/114228296/article.cgi], c'est la domination grandissante de Google qui pousse ses deux compétiteurs à tenter de s'allier pour faire contrepoids. Les deux entreprises ont en effet récemment tenté de le concurrencer sur le coeur de son activité, la recherche d'information, sans succès. [WindowsLive->http://www.windowslive.fr/] d'un côté, [YahooSearch->http://fr.search.yahoo.com/] de l'autre ne parviennent pas, malgré leurs qualités techniques, à détrôner la domination de Google au niveau international du moins, auprès des internautes. C'est que la compétition entre ces acteurs industriels de poids, se répand sur d'autres fronts. Google et Microsoft par exemple, étaient récemment en compétition pour acheter la célèbre régie publicitaire en ligne Doubleclick ; compétition remportée par le premier. Par ailleurs, alors que Yahoo tente de prendre pied et même dominer le marché des services de communications personnelles - souvent qualifiés de «web 2.0», le récent rachat par Google de la plate-forme de partage de vidéos YouTube a montré que la partie est loin d'être gagnée. Et la concurrence est loin d'être négligeable, car, pour attirer le maximum de producteurs de contenus sur ses plate-formes, Google n'hésite pas à leur promettre une rémunération, sous forme de revenus publicitaires. C'est le cas depuis longtemps avec sa plate-forme d'hébergement de blogs Blogger.com, [et depuis peu avec YouTube.->http://go.theregister.com/feed/http://www.theregister.co.uk/2007/05/04/youtube_coughs_up/] On voit donc bien la cohérence du modèle d'affaires progressivement déployé par Google : une synergie entre tous ses services de communication, fédérés d'un côté par sa technologie de recherche d'information, et de l'autre par un modèle économique essentiellement basé sur les revenus publicitaires. En face, Microsoft et Yahoo, qui sont beaucoup plus anciens, sont de plus en plus menacés d'être renvoyés dans le «Jurassik Park» de l'ère numérique. Microsoft on le sait, a toujours fondé son modèle économique sur le vente de logiciels. Mais le grand public a de moins en moins besoin d'acheter et d'installer des logiciels car il a de plus en plus accès aux mêmes fonctionnalités par l'intermédiaire de services en ligne. Le service offert par Google justement, [Google Docs&Sreadsheets->http://docs.google.com/], remplace ainsi aisément la suite logicielle Microsoft Office. [Google Apps->http://www.google.fr/a/], va encore plus loin, en offrant aux organisations et entreprises la possibilité de déployer les services Google en marque blanche. [Pour une analyste de la société de consultants Forrester->http://news.com.com/2030-1069_3-6181510.html?part=rss&tag=2547-1_3-0-5&subj=news], l'alliance entre les deux dinosaures n'est pas totalement absurde et repose sur une logique de complémentarité : Microsoft apporte son expérience en matière de développement logiciel, et Yahoo sa bonne connaissance en matière de déploiement de services de communication et d'informations personnalisée. L'objectif affiché est de cumuler la base d'utilisateurs que chacun possède (environ 100 millions de part et d'autre). Il reste, selon la même analyste que le pari est loin d'être gagné, ne serait-ce que parce que les deux sociétés ont des cultures et des identités propres très affirmées, et qu'elles n'ont jamais fait la preuve dans le passé de leur capacité à la remettre en cause pour permettre une nouvelle fondation.
2007-05-06 00:33:55
Bill's hard drive
http://www.nypost.com/seven/05042007/business/bills_hard_drive_business_peter_lauria_and_zachery_kouwe.htm
Une campagne s'achève ; une autre commence. Alors que la France vient d'élire son nouveau Président de la République, les Etats-Unis s'apprêtent à leur tour à désigner, au sein de chaque parti, les candidats qui pourront s'affronter au cours des prochaines élections. Internet joue un rôle croissant dans le débat démocratique qui se met en place à cette occasion. Et parmi les moyens d'expression accessibles à tous, les vidéos diffusées par les internautes militants sur les plate-formes de partage comme YouTube et DailyMotion, parmi d'autres. Le phénomène a été bien détecté et analysé par Rémy Douine et André Gunthert, deux chercheurs en sciences sociales, qui se sont proposé d'en [mesurer l'importance->http://www.videolab.lhivic.org/] tout au long de la campagne française. Un certain nombre de personnalités aux Etats-Unis, parmi lesquelles le célèbre juriste [Lawrence Lessig->http://www.lessig.org/], se sont inquiétées publiquement du statut juridique qui allait être attaché aux retransmissions télévisées des débats entre candidats, qui n'allaient pas manquer d'avoir lieu au cours des mois à venir. Ces retransmissions sont en effet de plus en plus souvent enregistrées, découpées, remixées et finalement réutilisées par un certain nombre d'internautes militants, qui en rediffusent des morceaux au sein de leurs propres clips vidéos. Selon le régime classique de la propriété intellectuelle, ces réutilisations sont parfaitement illégales parce qu'elles contreviennent au droit d'auteur des chaînes qui les diffusent, ou des producteurs qui les réalisent. Lessig et ses amis craignent que certains candidats s'appuient tout simplement sur ce droit de propriété intellectuelle pour faire taire leurs contradicteurs. Le régime dit du fair use, qui constitue aux Etats-Unis des exceptions au droit d'auteur est en effet trop complexe pour fournir dans ce cas une garantie suffisante. Ils demandent donc que ces débats, que l'on peut considérer comme relevant du bien commun d'une nation démocratique, soient [diffusés sous un statut juridique qui autorise chacun d'en faire l'usage qu'il souhaite, librement, à condition que la paternité du premier diffuseur soit reconnue->http://www.lessig.org/blog/archives/003755.shtml]. Domaine public ou licence Creative Commons, peut importe au fond. L'essentiel est que les conditions légales de diffusion de ces débats soient adaptées aux profondes transformation du débat public par l'effet des nouvelles technologies. Leur initiative a déjà reçu le soutien de plusieurs candidats à la candidature. La chaîne d'information en continu CNN vient d'[annoncer->http://www.cnn.com/POLITICS/blogs/politicalticker/2007/05/cnn-presidential-debate-footage.html] que l'ensemble des débats qu'elle diffuserait le seraient sans aucune restriction d'aucune sorte.
2007-05-07 00:04:07
OA to presidential debate videos
http://www.earlham.edu/~peters/fos/2007_04_29_fosblogarchive.html#1163632689766648781
Après bientôt une décennie d'efforts financiers consentis par les lycées américains pour doter leurs élèves d'ordinateurs portables susceptibles de les aider à réussir leurs études, un certain nombre d'entre eux ont décidé de mettre un terme à leurs programmes après en avoir fait le bilan. D'après plusieurs articles, parus ces jours-ci [dans le New York Times->http://www.nytimes.com/2007/05/04/education/04laptop.html?ex=1179115200&en=82e6018635cc20a7&ei=5070] et d'autres journaux, ce bilan n'est en effet pas très reluisant. Sur le plan financier d'abord, car les coûts d'acquisition et de maintenance surtout de centaines de portables sont exorbitants. Sur le plan des usages, la plupart des proviseurs n'ont pu que constater que ces ordinateurs servaient d'avantage à jouer, télécharger des films porno et éventuellement hacker divers systèmes informatiques, plutôt qu'à étudier. Les systèmes wifi de leur côté, permettant aux élèves d'accéder à Internet depuis n'importe quel point du campus, sont régulièrement saturés. Au delà de l'anecdote, des mesures très précises de l'impact que l'utilisation de ces ordinateurs pouvaient avoir sur les résultats scolaires des élèves et leur capacité à assimiler les connaissances enseignées ont révélé dans la plupart des cas une absence totale d'amélioration. Le fond de la question est en effet de savoir s'il y a une adéquation entre les objectifs pédagogiques que poursuit l'enseignement au niveau du lycée, et les capacités intellectuelles que développe ou favorise l'usage d'un ordinateur. Comme le dit crument un enseignant [cité par DailyTech->http://www.dailytech.com/article.aspx?newsid=7165] : «Là où l'usage des portables et d'Internet font la différence, c'est sur la créativité, l'autonomie et la capacité de recherche. Si l'objectif est d'amener les élèves à un niveau minimal, alors il semble que les portables ne soient pas le bon outil. Mais si l'objectif est de faire émerger des Georges Lucas et des Steve Jobs, alors ils sont très utiles.»
2007-05-11 00:55:39
Seeing No Progress, Some Schools Drop Laptops
http://www.nytimes.com/2007/05/04/education/04laptop.html?ex=1179115200&en=82e6018635cc20a7&ei=5070
Tout le monde s'accorde à reconnaître aujourd'hui, que le monde virtuel [?Second Life] n'a rien d'un jeu. Cet univers persistant au sein duquel tout un chacun peut déambuler et rencontrer d'autres personnes, élargit chaque jour la palette d'activités qui y est proposé. On a vu se développer des performances artistiques, des activités commerciales et lucratives, de l'activisme politique. Il n'est donc pas étonnant que la sexualité y tienne une place importante, manifestement en plein développement. Si l'offre de cybersexe semble relativement abondante dans Second Life, que ce soit dans un cadre commercial ou non, il reste que sa pratique demande une certaine compétence technique, en particulier parce que cette dimension n'a pas été prévue par les concepteurs de cet univers. Le magazine culturel en ligne [Fluctuat détaille très concrètement->http://sexe.fluctuat.net/4217-Comment-tirer-sa-crampe-dans-Second-Life-] le parcours du combattant par lequel l'amateur de cybersexe doit passer avant de trouver satisfaction, à commencer par se doter d'organes génitaux, dont son avatar est dépourvu par défaut... Ensuite, il est nécessaire de programmer des comportements et des postures qui ne sont pas prévues à l'origine ; et ainsi de suite. Une relation sexuelle contrainte est-elle possible dans Second Life ? Techniquement, la réponse est positive. Une rumeur, dont on n'arrive pas à déterminer s'il s'agit d'un canular ou d'un fait réel, fait l'objet d'un certain nombre de commentaires sur les sites spécialisés en matière de droit des univers virtuels. Selon cette rumeur, [une plainte pour viol aurait été déposée auprès de la police belge relative à des fait qui se seraient déroulés dans Second Life->http://www.wired.com/culture/lifestyle/commentary/sexdrive/2007/05/sexdrive_0504]. A ceux qui se demandent comment un avatar pourrait être violé, on peut répondre que lorsqu'un avatar décide d'«utiliser» un objet qu'il rencontre dans Second Life, c'est en fait l'objet qui prend possession temporairement de l'avatar pour lui faire accomplir les actions voulues par son propriétaire. Un objet n'est donc rien d'autre qu'un script recouvert d'un habillage graphique, qui fait faire un certain nombre de choses aux avatars. On imagine donc aisément qu'il est possible de concevoir des objets piégés qui peuvent tromper des joueurs et faire faire à leur avatar tout autre chose que ce qu'ils anticipaient en déclenchant l'utilisation de cet objet. Au delà de ces considérations techniques, le plus intéressant reste [la discussion juridique->http://virtuallyblind.com/2007/04/24/open-roundtable-allegations-of-virtual-rape-bring-belgian-police-to-second-life] qui se développe à partir de ce cas : un viol virtuel est-il un viol ? Les multiples réponses qu'on peut apporter à cette question découlent d'une analyse fine de la nature des relations qui s'établissent entre une personne et son avatar. Si l'identité est vécue comme complète, alors le viol virtuel est un viol. La position est cependant difficilement soutenable et conduirait rapidement à un certain nombre de difficultés. A l'autre extrême, on ne peut pas réduire cet acte à rien. Nul ne doute que voir son avatar violé constitue un préjudice qui peut aller, selon l'intensité de l'identification, du simple désagrément au véritable traumatisme. Un certain nombre de commentateurs penchent donc pour assimiler ce crime à une forme de harcèlement sexuel. Le débat n'est manifestement pas clos et constitue une bonne occasion de s'intéresser à la nature de la relation qui s'établit entre une personne et sa représentation dans ces univers virtuels. A n'en pas douter, ces relations deviennent chaque jour de plus en plus concrètes et importantes. La société Linden Lab, qui a inventé et gère aujourd'hui Second Life, est en train de le comprendre : elle vient de mettre en place [un contrôle plus strict de l'identité des participants->http://arstechnica.com/news.ars/post/20070509-second-life-to-segregate-users-by-age.html], en particulier pour tenir les mineurs écartés de zones inappropriées.
2007-05-12 23:54:24
Virtuel Rape is traumatic ; but is it a crime ?
http://www.wired.com/culture/lifestyle/commentary/sexdrive/2007/05/sexdrive_0504
Quelle utilisation peut-on faire du wiki dans le cadre d'une activité pédagogique ? Alors que les usages de ce système d'écriture collaborative en ligne se répandent dans tous les domaines, au point que nombre d'entreprises commencent à comprendre tout l'intérêt du [?wiki] comme outil de knowledge management, il serait bien étonnant que ce système d'écriture collaborative en ligne ne puisse être utilisé à l'école. Outil d'élaboration et de transmission des connaissances par excellence, le wiki devrait théoriquement y trouver toute sa place. Entre la théorie et la pratique, il y a quelquefois une certaine distance. Ainsi, davantage que les wikis, se sont les environnement numériques de travail qui ont été déployés dans les établissements, du fait de la démarche volontariste de rectorats d'académie le plus souvent. Une intéressante [réflexion sur ce sujet->http://www.ent-leblog.net/ent_le_blog/] a été menée avec le concours de la FING récemment. C'est pour cette raison que [WikiProf->http://www.wikiprof.net/], une expérience que viennent de lancer deux jeunes enseignants, doit être suivie avec attention. Leur initiative repose sur trois piliers complémentaires : - un wiki, qu'ils présentent comme un tableau blanc dont tous, professeurs et élèves, peuvent se saisir pour préparer des cours en commun, faire faire des exercices à une classe, ou encore préparer des exposés à plusieurs, parmi d'autres utilisations possibles. - un blog, qui se présente comme un carnet, où les enseignants peuvent réfléchir à leur pratique, relater leur expérience et en tirer éventuellement les leçons. - une liste de discussion qui sert de ciment à la communauté en constitution des utilisateurs de WikiProf. Ce qui frappe lorsqu'on examine cette initiative, c'est la grande humilité qu'elle manifeste. On n'est pas ici dans les grandes théorisations abstraites, mais bien plutôt dans le retour d'expérience quotidienne, dans l'expérimentation au ras du terrain qui rend l'exercice bien plus intéressant. La simplicité de l'interface et la clarté des textes de présentation publiés sur le site sont des modèles du genre. Plus profondément, on pourra être intrigué par la manière dont l'usage de ce type d'outil peut, ou ne peut pas, contrecarrer la tendance lourde de la tradition scolaire qui veut que les textes produits dans le cadre du cours, ne puissent être affectés d'aucune publicité :ni hors de la classe, ni même entre élèves sommés non seulement de ne pas copier, mais aussi de ne pas être copiés. Exactement le contraire de la méthode de travail sur laquelle repose le wiki.
2007-05-14 13:59:30
Wikiprof
http://www.wikiprof.net/
Quelques jours après le second tour des élections présidentielles, qui ont vu un déploiement sans précédent en France de machines de vote électroniques, il est temps d'en dresser un bilan provisoire. L'usage de ces machines fait, depuis le début, [l'objet de vives contestations->http://www.ordinateurs-de-vote.org/]. Plusieurs arguments sont avancés, le premier étant [le risque de fraude involontaire->http://www.lemonde.fr/web/article/0,1-0,36-909189,0.html]. Alors que le contrôle par l'ensemble des citoyens de la légalité d'un scrutin est relativement aisé à assurer lorsque celui-ci se déroule au moyen d'urnes transparentes, cette tâche devient beaucoup plus compliquée lorsqu'il s'agit de contrôler un système électronique. Et la difficulté est renforcée lorsque le code source des logiciels qui animent ce système n'est pas accessible, pour des raisons de secret industriel, comme c'est actuellement le cas. Autre argument avancé contre le déploiement de ces machines, spécifique cette fois au cas français : le choix du système de vote (traditionnel ou électronique) revient à chaque commune. Il semble d'ailleurs que dans le cas des dernières élections, la décision ne soit pas toujours revenue aux conseils municipaux, mais plus directement aux maires, parfois sous la pression de leurs services. Le problème est que le déploiement sur une partie du territoire seulement rompe l'égalité formelle de traitement qui doit être appliquée à l'ensemble du corps électoral. Cet argument de l'égalité des conditions de vote peut sembler pour le moins abstrait. Rien n'est moins sûr en réalité ; car dans les faits, dans nombre de communes où ces machines ont été déployées, [le scrutin s'est déroulé dans de mauvaises conditions->http://www.liberation.fr/actualite/evenement/evenement1/249324.FR.php]. Difficultés d'utilisation, pannes à répétition, blocages intempestifs et allongement des files d'attente dans un contexte de forte participation n'ont pas été rares. Au niveau individuel maintenant, deux témoignages récents, ont mis en lumière les difficultés que ces machines pouvaient poser à toute une partie de la population. [Un petit test effectué sur un panel de personnes âgées->http://www.creatif-public.net/article731.html] a en effet fait apparaître un taux d'erreur et d'incapacité à utiliser la machine très important. Par ailleurs [le témoignage->http://www.creatif-public.net/article723.html], plein d'humour, d'une personne aveugle sur son expérience, fait apparaître les insuffisances de ces dispositifs en matière de prise en compte du handicap. Le problème n'est pas seulement français. Les récentes élections qui se sont déroulées en Ecosse, ont été marquées par [un gigantesque bug->http://www.theregister.co.uk/2007/05/04/scotland_electronic_counting/] où les machines à voter électroniques avaient été deployées massivement. En face de toutes ces difficultés, il est nécessaire de se demander quels avantages présentent éventuellement ces machines. Il semble en fait, que les deux seuls avantages qui aient été constatés concernent la rapidité du dépouillement, qui se fait instantanément bien sûr, et la centralisation des données au niveau du Ministère de l'Intérieur qui ne peut être effective que si les machines sont connectées en réseau avec les ordinateurs du Ministère [[Ecouter une discussion sur le sujet dans [l'émission le Bien Commun, réalisée et présentée par Antoine Garapon->http://www.radiofrance.fr/chaines/france-culture2/emissions/bien_commun/fiche.php?diffusion_id=51364] ]], et si, surtout, toutes les communes utilisent ces machines, ce qui est loin d'être le cas. Tout ça pour ça ?
2007-05-16 00:34:49
Le Bien Commun
http://www.radiofrance.fr/chaines/france-culture2/emissions/bien_commun/fiche.php?diffusion_id=51364
Les 24 et 25 mai prochains, la Fondation Internet Nouvelle Génération organise sa [5ème Université de Printemps à Aix-en-Provence->http://www.openfing.org/upfing/index.php/Accueil]. A travers des conférences, table-rondes et sessions de réflexion, il s'agira d'interroger la figure de l'apprenti sorcier, très présente aujourd'hui dans les représentations que l'on se fait de l'innovation technologique. Que ce soit dans le domaine de la recherche en biologie, avec les organismes génétiquement modifiés, du nucléaire, ou plus récemment des nanotechnologies, le sentiment prévaut que les avancées techniques se développent en aveugle, et sont grosses de conséquences catastrophiques inattendues. Dans les domaines des technologies numériques en réseau aussi, les interrogations se multiplient sur les conséquences inattendues en matière d'identité personnelle, de protection de la vie privée ou de reconfiguration du lien social dont nous pourrions subir les effets très négatifs dans les années à venir. La course à l'innovation, ou plus simplement à la nouveauté accélère de manière vertigineuse le rythme du changement et entraîne la crainte d'une perte globale de contrôle. La rencontre organisée par la FING permettra d'explorer et d'expliciter ce sentiment, de mieux comprendre le rôle que joue cette figure de l'apprenti sorcier dans notre perception des changements technologiques que nous constatons chaque jour. La FING propose un site web de préparation de la rencontre où l'on peut accéder à un grand nombre de présentations, textes, références et autres ressources sur le sujet.
2007-05-17 01:35:30
Apprentis sorciers ?
http://www.openfing.org/upfing/index.php/Accueil
Alors que le premier gouvernement du nouveau Président de la République Nicolas Sarkozy, vient d'être nommé sous la direction du Premier Ministre François Fillon, on peut s'interroger sur la manière dont les dossiers importants relatifs aux nouvelles technologies vont être traités. Comme le fait remarquer [le magazine en ligne Netpolitique,->http://blog.netpolitique.net/index.php/2007/05/17/739-gouvernement-fillon-8-hommes-7-femmes-un-udf-un-socialisteet-2-blogueurs] [François Fillon->http://www.blog-fillon.com/] et [Alain Juppé->http://www.al1jup.com/], qui occupent les deux première places de ce gouvernement, ont tenu jusqu'à présent un véritable blog, qu'ils alimentaient personnellement, au moins en partie. Cela n'en fait certes pas des spécialistes de la question, mais on peut parier qu'ayant eu au moins une fois dans leur vie l'expérience de la communication en ligne, ils ne pourront être totalement ignorants des enjeux qui la caractérise. La relative jeunesse de ce gouvernement qui marque l'arrivée au pouvoir d'une nouvelle génération d'hommes et de femmes politiques vont d'ailleurs dans le même sens. L'exemple de [Valérie Pécresse, 39 ans->http://www.valeriepecresse.net/site/interieur.php?assemblee=1&ass_rubr=2&idassemblee=60#bas], nommée Ministre de le Recherche et de l'Enseignement Supérieur, est emblématique : conseillère chargée des études, de la prospective et des technologies de l'information à l'Elysée en 1998, elle est, depuis 2002, vice-présidente du [groupe d'études Internet, technologies de l'information et de la communication et commerce électronique->http://www.assemblee-nationale.fr/12/tribun/getude/ge_internet.asp] à l'Assemblée Nationale. Autant dire qu'elle présente une compétence certaine dans ce domaine. On ne peut pas en dire autant de celle qui se retrouve nommée à la tête du ministère le plus stratégique en la matière, au vu de la tradition française et de la situation présente en tout cas, à savoir le Ministère de la Culture et de la Communication. Alors que des rumeurs persistantes pouvaient laisser penser que ce ministère serait recomposé de manière inédite, il n'en est rien finalement. Plus encore, [Christine Albanel ne peut rien aligner dans son parcours professionnel qui soit en relation même indirecte avec les problématiques du numérique->http://www.lefigaro.fr/whoswho/bio.php?id=290759]. Chargée de communication et «plume» de Jacques Chirac pendant plusieurs décennies, cette agrégée de lettres a occupé jusqu'à aujourd'hui la fonction de Présidente du domaine du Château de Versailles... Or, les dossiers qui l'attendent ne sont pas minces ; en particulier la véritable poudrière que représente la question du droit d'auteur dans les environnements numériques, que son prédécesseur, Renaud Donnedieu de Vabres a laissé dans [un état épouvantable->http://www.eucd.info/]. La nouvelle ministre saura-t-elle reprendre par le bon bout et sans a priori idéologique ce dossier ? La question reste posée. Il est une personnalité pourtant dans ce gouvernement, qui pourrait lui procurer une réelle expertise dans le domaine. Il s'agit de Jean-Pierre Jouyet, récent co-auteur avec Maurice Levy d'un [rapport remarqué->http://www.internetactu.net/?p=6700] sur la France et l'économie de l'immatériel. Contestable et [contesté->http://paigrain.debatpublic.net/?p=73] pour l'ignorance du rôle des biens communs dont il fait preuve, ce rapport a cependant été salué pour avoir mis en lumière l'importance de l'économie des biens informationnels dans un pays qui l'ignore habituellement. Il reste que [Jean-Pierre Jouyet->http://fr.wikipedia.org/wiki/Jean-Pierre_Jouyet], nommé aux affaires européennes, n'interviendra pas sur ce dossier.
2007-05-18 04:30:36
Le Monde
http://www.lemonde.fr/web/article/0,1-0@2-823448,36-911679@51-907099,0.html
La Cité des Sciences et de l'Industrie organise avec différents partenaires associatifs, un cycle de conférences et débats sur différents aspects du logiciel libre en mai et juin 2007. Informations pratiques Cité des sciences et de l'industrie _ 30 avenue Corentin Cariou _ 75019 Paris _ Métro : Porte de la Villette Rendez-vous au Carrefour numérique de la Cité des sciences et de l'industrie _ Médiathèque Est, Niveau - 1 _ Paris - La Villette _ Entrée libre et gratuite. Métro : Porte de la Villette (ligne 7) _ Autobus : 75, 139, 150, 152, PC _ Parking payant : Quai de la Charente et Boulevard Macdonald Samedi 19 mai 2007 de 14 h à 18 h : « Logiciels libres : un enjeu de société » Le mouvement du logiciel libre, qui a apporté une part considérable au développement d'internet et des technologies de la communication, traite de l'un des biens publics les plus fondamentaux, la connaissance. Les logiciels libres, ces logiciels offrant la liberté pour tous les utilisateurs de les exécuter, copier, distribuer, étudier, modifier et améliorer, ne sont pas seulement une question de licence ou de technique ; derrière ces biens communs il existe en effet une philosophie d'opposition à la privatisation de la connaissance. À l'ère du numérique, qui est notre avenir commun, la liberté informatique conditionnera de plus en plus demain notre capacité à exercer d'autres libertés fondamentales. Comme l'explique Richard Stallman, président de la Fondation pour le Logiciel Libre, « Toutes les libertés dépendent de la liberté informatique, elle n'est pas plus importante que les autres libertés fondamentales mais, au fur et à mesure que les pratiques de la vie basculent sur l'ordinateur, on en aura besoin pour maintenir les autres libertés. Profitant de la faiblesses de la démocratie contemporaine, les grandes entreprises sont en train de prendre le contrôle de l'État, ce sont elles qui contrôlent les lois, pas les citoyens. Ça a commencé avec le Digital Millenium Copyrigt Act aux États-Unis, puis elles ont imposé des directives européennes dans leur intérêt. » [Écrans, 26/06/2006]. A l'occasion de cette journée, avec la présence de Richard Stallman, venez débattre sur les enjeux sociaux et citoyens des logiciels libres et de la place du logiciel libre dans l'espace juridique et politique. Programme - 14h - 15 h 30 : « Logiciel libre: les Droits de l'Homme de l'utilisateur » Richard Stallman, président de la Fondation pour le Logiciel Libre et fondateur du projet GNU - 15 h 30 - 16 h 15 : « Promouvoir et défendre le logiciel libre dans un contexte politique et juridique changeant », Benoît Sibaud, président de l'APRIL - 16 h 30 - 17 h 00 : « Candidats.fr: la place du logiciel libre dans les programmes des candidats » - 17 h 15 - 19 h 00 débat « Logiciels libres : un enjeu de société » (Benoît Sibaud, président de l'APRIL ; Philippe Davy (journaliste); Sébastien Canevet (Docteur en droit - Maître de Conférences en droit privé) ; Bernard Stiegler, philosophe et docteur de l'Ecole des Hautes Etudes en Sciences Sociales (sous réserve) ; Christophe Aguiton (militant syndical et altermondialiste (sous réserve) ; Jean-Pierre Archambault, membre du bureau national de l'association Enseignement Public & Informatique (EPI) L'accès aux conférences est libre et gratuit mais vous pouvez vous pré-inscrire (pour faciliter la logistique). Les débats seront diffusés en direct (format OGG Vorbis) à l'adresse suivante : [->http://carrefour-numerique.cite-sciences.fr:8000/direct.ogg] Mardi 22 mai 2007 de 18h30 à 19h45 - « Des logiciels libres pour un ordinateur écologique ? » Comment réduire l'impact sur l'environnement de l'utilisation de l'informatique (consommation d'énergie, de matériaux, nuisances sonores...) avec des outils logiciels libres. Intervenant : Michael Opdenacker (gérant de Free-Electrons.com, Société de services spécialisée en Logiciels Libres pour systèmes embarqués, et contributeur au « Linux Ecology Howto »). L'accès aux conférences est libre et gratuit mais vous pouvez vous pré-inscrire (pour faciliter la logistique). Les débats seront diffusés en direct (format OGG Vorbis) à l'adresse suivante : [->http://carrefour-numerique.cite-sciences.fr:8000/direct.ogg] mardi 5 juin 2007 de 18h30 à 19h45 - « Logiciels libres et développement durable » Quel lien peut exister entre technologies de l'information et de la communication, logiciel libre et développement durable ? Quel est l'enjeu du rapprochement des acteurs du développement durable et des acteurs du logiciel libre ? Intervenants : Mose, artisan en logiciel libre, directeur technique d'Angenius. L'accès aux conférences est libre et gratuit mais vous pouvez vous pré-inscrire (pour faciliter la logistique). Les débats seront diffusés en direct (format OGG Vorbis) à l'adresse suivante : [->http://carrefour-numerique.cite-sciences.fr:8000/direct.ogg] Samedi 23 juin 2007 de 14 h à 18 h : « Logiciel Libre et monde associatif » Le logiciel libre, porteur d'une idéologie de partage, devrait se poser comme une réponse naturelle dans la société civile, pour les activistes sociaux et les acteurs de l'éducation populaire qui souhaiteraient étendre leur éthique à l'usage informatique. Paradoxalement, alors que le monde du logiciel libre et le monde associatif ont de nombreuses valeurs communes (partage, volontariat, bénévolat, passion), le logiciel libre est peu diffusé dans le milieu associatif. La distance actuelle entre le monde associatif et le logiciel libre ne semble cependant pas infranchissable. L'importance grandissante des outils informatiques et d'internet pour la société civile et le monde associatif donne l'intuition que le moment est maintenant venu d'une coopération plus étroite. Dans ce cadre, l'APRIL, la Fondation pour le Progrès de l'Homme et la Cité des Sciences organisent une journée de débats et retours d'expérience sur le thème « logiciel libre et acteurs associatifs et sociaux ». Les débats aborderont les aspects éthiques du logiciel libre, les besoins et pratiques actuelles des associations, les retours d'expérience et les conditions de l'accompagnement des structures dans le cadre d'une migration vers le logiciel libre. Cette manifestation sera également l'occasion de faire le point sur les activités du groupe de travail « Libre Association » de l'APRIL qui a pour objectif de « jeter des ponts entre le logiciel libre et le monde associatif ». Cette journée est organisée en partenariat avec la revue « Associations Mode d'Emploi ». Les débats seront diffusés en direct (format OGG Vorbis) à l'adresse suivante : http://carrefour-numerique.cite-sciences.fr:8000/direct.ogg Programme Le programme est en cours d'élaboration. Si vous souhaitez intervenir n'hésitez pas à nous contacter. L'accès aux conférences est libre et gratuit mais vous pouvez vous pré-inscrire (pour faciliter la logistique). Inscription L'accès aux conférences est libre et gratuit mais vous pouvez vous pré-inscrire (pour faciliter la logistique). Diffusion audio en direct Les débats seront diffusés en direct (format OGG Vorbis) à l'adresse suivante : [->http://www.carrefour-numerique.cite-sciences.fr:8000/direc t.ogg]
2007-05-18 08:02:19
April
http://www.april.org/groupes/csi/cycle-logiciels-libres-mai-juin-2007.html
Dans une [récente note->http://www.internetactu.net/?p=7073] publiée sur Internet Actu, Rémi Sussan attirait l'attention de ses lecteurs sur l'existence d'un environnement de programmation destiné aux enfants. [Scratch->http://llk.media.mit.edu/] permet aux bambins de concevoir de véritables petits programmes en se servant, à la manière d'un lego logiciel, d'éléments précomposés qu'ils peuvent modifier et assembler à leur guise. Mais, fait-il remarquer, Scratch n'est pas le seul de sa catégorie. Un grand nombre d'environnement existent, qui ne reposent plus exclusivement sur l'écriture de code, mais sur la manipulation d'objets graphiques, délivrant les programmeurs en herbe du souci des erreurs de syntaxe qui rendent la programmation fastidieuse. On ne peut qu'être frappé de la coïncidence de cet article avec la sortie récente de deux outils explicitement destinés à un public non informaticien, lui permettant de programmer très facilement des systèmes de transformation de flux RSS. [Yahoo Pipes->http://pipes.yahoo.com/pipes/] par exemple, permet, en branchant des boîtes les unes sur les autres, d'enchaîner plusieurs opérations (de fusion, division, traduction, remplacement, etc.) sur des flux RSS donnés en entrée et qu'on récupère transformés en sortie. [RSSbus->http://www.rssbus.com/] permet de faire à peu près la même chose, mais en passant cette fois par une syntaxe très simple, en XML. Ces deux outils s'adressent évidemment à une nouvelle catégorie de public, les «knowledge workers», qui, n'étant pas informaticiens, travaillent sur l'information. Positionnés dans leur domaine de compétence, ils ont besoin de pouvoir se fabriquer rapidement leurs propres outils de traitement de l'information sans pour autant devenir porgrammeurs professionnels. Ces deux séries d'exemples mettent en lumière l'ampleur des mutations en cours. Etant donné l'évolution des technologies, le contenu même des compétences nécessaires à l'activité dans la société de l'information, ce qu'on qualifie souvent de digital litteracy, est en train de changer. Dans quelques années, il ne s'agira plus seulement de savoir lire et reconnaître l'information, ou manipuler des logiciels de base comme un traitement de texte ou un navigateur web, mais il faudra aussi avoir la capacité de programmer de véritables petits logiciels destinés à étendre notre capacité de traitement de l'information. Dès lors, deux importantes questions sont posées : celle d'un alphabet de programmation commun permettant aux utilisateurs de mobiliser les mêmes compétences dans plusieurs environnements, et celle du rôle de l'Ecole dans la nécessaire prévention contre la formation d'une seconde fracture numérique qui viendrait se loger pour ainsi dire à l'intérieur de la première, créant une société terriblement inégalitaire.
2007-05-23 23:34:45
Internet Actu
http://www.internetactu.net/?p=7073
Désormais, les sociétés civiles représentant les ayant droits, pourront mettre en oeuvre des procédés de surveillance massifs et automatique pour entamer des poursuites à l'encontre des internautes qui échangent illégalement des fichiers sur les réseaux [?Peer-to-peer]. C'est ce que [vient de décider le Conseil d'Etat en rejetant l'opposition de la CNIL à la mise en place de tels dispositifs par la SACEM et la SCPP->http://www.zdnet.fr/actualites/internet/0,39020774,39369712-1,00.htm]. Cette décision ouvre la voie à la mise en place d'un système de traitement massif de l'infraction reposant sur la collecte automatisée des [?adresses IP] par lesquelles les ordinateurs des internautes sont identifiés. En revanche, l'établissement du lien entre l'adresse IP et l'identité personnelle du propriétaire de l'ordinateur continue à être encadrée par la procédure juridiciaire. Cette nouvelle étape constitue une modification substantielle de l'équilibre entre l'infraction et sa répression. Il est probable qu'à courte échéance, la possibilité pour ceux qui échangent illégalement des fichiers d'échapper à la surveillance des agents des sociétés d'ayant droits, soit proche de zéro ; à moins de mettre en oeuvre des procédés très compliqués d'anonymisation qui resteront hors de portée du grand public. C'est la mort annoncée des grand réseaux d'échanges unifiés comme BitTorrent, Kazaa et eDonkey qui concentrent l'essentiel de l'attention. C'est en revanche une incitation au développement de réseaux d'échanges fragmentés, reposant sur des contacts personnels (et donc sans intrus), comme [Allpeers le propose aux utilisateurs du navigateur Firefox.->http://www.allpeers.com]
2007-05-25 03:26:30
Zdnet
http://www.zdnet.fr/actualites/internet/0,39020774,39369712-1,00.htm
L’intérêt d'être "visiting scholar" à l'Université de New York, afin de d'approfondir mes recherches sur la distribution des films par Internet aux USA, ne réside pas tant dans le nombre d'études et d'ouvrages à ma disposition, que dans l’opportunité de rencontrer des experts que je lis d’habitude et avec lesquels je peux échanger de vive voix, confronter des points de vue. Dernièrement, j'ai pu interviewer deux professeurs spécialisés dans le droit d'auteur. Leur divergence d'opinion sur la consistance et l'avenir du copyright m'a beaucoup intéressée. Tout d'abord, Jane Ginsburg, professeur de droit de la propriété littéraire et artistique à la Columbia University School of Law. Juriste pure et dure, elle est en faveur du droit des auteurs. Puis, Siva Vadhyanathan, auteur de "Copyrights and Copywrongs", journaliste et professeur à la New York University. Spécialisé dans le droit d'auteur sans être juriste, il est en faveur du droit des consommateurs. Concernant le <a href="http://www.homo-numericus.net/spip.php?breve872">dépot de plainte</a> de Viacom contre YouTube pour violation massive des droits d'auteur, Jane Ginsburg ne fait que lire le texte de loi. D’un point de vue légal, le <a href="http://www.copyright.gov/title17/92chap5.html#512">Digital Millennium Copyright Act de 1998 (DMCA)</a> interdit le contournement des mesures techniques de protection (DRM). Cependant, un amendement (le Safe Harbor) protège les sites Internet qui contiennent du contenu pirate posté par les utilisateurs, tant que les sites le suppriment immédiatement sur demande de l’ayant droit. Mais le Safe Harbor ne s'applique que pour les fournisseurs de service, définis dans la sous-section k, paragraphe 512, du DMCA, comme "entité offrant la transmission, le transport, ou la fourniture de connections pour les communications numériques en ligne (…)". YouTube voudrait donc que s'applique une clause qui ne le protège pas, étant donné qu'il n'est en aucun cas un fournisseur de service. Siva Vadhyanathan, quant à lui, affirme que YouTube peut tout à fait être considéré comme fournisseur de service et pense donc que YouTube-Google pourrait bien remporter le procès. Concernant l'hypothèse d'une future distribution des films sur Internet sans DRM, à l'image de l'initiative de l'industrie du disque, Jane Ginsburg rappelle qu'il faut bien distinguer deux types de DRM : sur le streaming et sur le téléchargement. Les mesures techniques de protection sur la diffusion en streaming sont essentielles et sont là pour durer. Pour ce qui est de la distribution avec DRM au téléchargement (qui limite le nombre de terminaux autorisés à lire le fichier), Jane Ginsburg souligne que celle-ci n'est pas encore abandonnée puisque l'on peut acheter un même morceau $0.99 avec DRM ou $1.29 sans DRM. La vente sans DRM devra donc faire ses preuves. Et l'économie du cinéma n'ayant pas les même enjeux économiques que l'économie du disque, reste à savoir si la vente de films sur Internet sans DRM au téléchargement sera à terme une solution viable. Pour Siva Vadhyanathan, les DRM sont moins une protection contre la copie, qu'une protection pour un certain contrôle du marché. Selon lui, il est essentiel pour l'industrie de distribuer des films sans DRM, afin de permettre au public de remanier les œuvres à leur gré. Plus les consommateurs sont satisfaits d'un service, plus ils sont nombreux à l'utiliser, et plus l'industrie a de clients. Une vision très "consumer-friendly" !
2007-05-25 06:58:27
Certains de nos lecteurs les plus fidèles [s'en sont aperçus->http://www.arhv.lhivic.org/index.php/2007/02/21/329-un-nouveau-look-pour-homo-numericus] : Homo Numericus a fait sa mue. Depuis quelques semaines, c'est une nouvelle maquette, très graphique qui habille le site, illustrée de nombreuses photographies. L'objectif de cette rénovation éditoriale est clair : affirmer une identité plus marquée d'un site où s'exprime une pensée qui se veut à la fois classique par l'écriture et le style, et moderne par les objets auxquels elle s'attache. Il s'agissait aussi de marquer plus nettement trois niveau éditoriaux très différents : à gauche, un flux d'informations constituées de textes brefs. Ces «brèves» ne se résument cependant pas à présenter de l'information brute, éparpillée dans l'écume des jours. S'appuyant souvent sur plusieurs faits marquants qui se sont déroulés dans les derniers jours, elles tentent de dégager un sens, une indication d'évolution pour la période à venir. A droite, des articles de réflexion, plus longs, plus en recul par rapport à l'actualité, ou plus documentés. On aura récemment remarqué l'arrivée d'un nouvel auteur pour ce type de textes : Sophie Boudet-Dalbin, spécialiste des questions relatives à l'audio-visuel numérique nous fait l'amitié d'éclairer les lecteurs d'Homo Numericus sur les bouleversements en cours, en y publiant un article de fond de temps en temps. Effectuant actuellement une partie de ses recherches à New York, elle contribue aussi à alimenter le flux de brèves avec des informations en provenance des Etats-Unis. En colonne centrale enfin, on trouvera des informations en syndication venant de blogs liés à Homo Numericus (Blogo Numericus, Linux Pour De Vrai, La Sélection) ou de sites amis (Lafeuille, Internet Actu). Les contenus publiés sur Homo Numericus (articles, brèves, nouvelles en syndication) sont structurés en rubrique : politique, économie, usages et technologies qui permettent de balayer selon un large éventail de points de vue la révolution numérique en cours. N'oubliez pas pour finir, de rendre visite à la librairie en ligne d'Homo Numericus, en cliquant sur le bouton «Acheter» qui permet d'y accéder. Si vous voulez participer à l'aventure d'Homo Numericus, vous astreindre à la difficile mais passionnante discipline de l'écriture comme analyse des technologies numériques, vous pouvez rejoindre la rédaction du site pour y proposer vos textes à publication. N'hésitez pas à cliquer sur le bouton «Participer» pour accéder à l'interface de rédaction. Un grand merci, pour finir, à Marin, Mika, Patrick, Cédric et Sophie qui, chacun de leur manière, ont ouvert la possibilité d'une seconde vie à ce site, actif depuis maintenant sept ans. L'âge de raison ?
2007-05-25 12:24:07
Homo Numericus
http://www.homo-numericus.net
Conçu par les artistes [Marc Veyrat->http://www.imateriel.info] et [Carole Brandon->http://www.artvideo-cb.fr/], C-box est un dispositif d'accueil et d'hébergement d'oeuvres numériques. Il permet à chaque artiste de déposer un projet ou une réalisation numérique, quelle qu'en soit la forme, et d'en assurer la diffusion et l'exposition sous licence [?Creative Commons]. [C-box->http://www.cbox-office.com] prend position simultanément dans les deux espaces : physique et cyber. Elle peut être accueillie en résidence dans divers lieux, institutions culturelles bien sûr, comme le [Centre d'art contemporain de Lacoux->http://www.centre-art-lacoux.com/] qui la recevra cet été, mais aussi, éventuellement, toutes sortes de lieux sans relation directe avec l'art. C-box dans son actualisation physique est en effet auto-suffisante. Elle prend la forme d'une pilule haute de deux mètres, une sorte de cabine où l'on peut se glisser pour découvrir les oeuvres déposées. Les manipulations de spectateur-interacteur sont visibles de l'extérieur par vidéo-projection. Côté cyber, la C-box prend la forme d'un «protosite» où l'on peut accéder à la fois aux oeuvres accueillies, aux textes théoriques que leurs auteurs ont produits sur ces oeuvres, mais aussi à un dispositif permettant aux artistes de déposer toutes sortes de fichiers. Actuellement, on y retrouve une dizaine d'artistes, comme Monique Maza, Damien Béguet, Alexandra Saemmer, Eleonore de Montesquiou ou Olga Kisseleva. Dispositif exploratoire, C-box se présente comme une des nombreuses tentatives pour résoudre la difficile question de l'exposition des oeuvres numériques. Alors que les lieux traditionnels d'exposition d'art contemporain se révèlent souvent inadaptés à la diffusion de ces oeuvres, la diffusion sur Internet est souvent insuffisante pour les artistes parce qu'elle ne permet pas de produire la reconnaissance symbolique dont ils ont besoin. En prenant le parti d'articuler l'exposition dans les deux espaces, de privilégier l'interactivité et la libre circulation, et enfin d'offrir un dispositif d'hébergement permettant aux oeuvres de sortir des lieux réservés à l'art contemporain, C-Box constitue une des initiatives les plus intéressantes sur cette question. A suivre.
2007-05-27 00:49:33
C-box Office
http://www.cbox-office.com
Les ordinateurs et autres appareils électroniques sont des objets si coûteux, si précieux, qu'on n'imagine même pas qu'ils puissent partir un jour à la poubelle, exactement comme les autres appareils électroménagers. Pourtant, la rapidité du changement technologique entraîne l'obsolescence de ces machines, vite remplacées par de plus performantes. L'augmentation du nombre de possesseurs d'ordinateurs entraîne à son tour une multiplication des ordinateurs mis au rebut. Mais une fois jetés, que deviennent-ils ? C'est ce que nous montre le magazine américain Foreign Policy à travers [un reportage photographique->http://www.foreignpolicy.com/story/cms.php?story_id=3807] dans le sud de la Chine, une des destinations, avec l'Inde et le Nigéria où les pays développés se débarrassent de leurs machines. Les ordinateurs recèlent en effet quantités de petites pièces coulés dans différents métaux, dont certains sont précieux. Leur démantèlement et la récupération de ces pièces, qui seront fondues, y fait l'objet de toute une économie de la récupération qui nous est exposée en images. Ce voyage au coeur d'une décharge numérique permet de se rendre compte de l'impact très concret que tout l'économie de l'«immatériel» comme on l'appelle, peut avoir sur l'environnement. On ne trouve en effet pas seulement de l'or, du cuivre et de l'aluminium dans les ordinateurs. On y trouve aussi du mercure, du plomb et du cadmium dont la toxicité est importante. A lire aussi,[ cet article paru dans if:book->http://www.futureofthebook.org/blog/archives/2007/05/digital_wasteland.html], qui brosse un tableau plus large du coût environnemental de l'économie du numérique. On y apprend notamment qu'un avatar de Second Life consomme autant d'énergie qu'un brésilien.
2007-06-05 11:07:20
Inside the digital dump
http://www.foreignpolicy.com/story/cms.php?story_id=3807
Linguiste et anthropologue, Clarisse Herrenschmidt travaille depuis longtemps sur la question de l'invention des systèmes d'écritures. L'originalité de son propos réside notamment dans la volonté d'appréhender ensemble et donc de confronter à la fois l'écriture des langues, l'écriture des nombres -et singulièrement au sein des systèmes monétaires, et l'écriture du code informatique auquel le développement d'Internet donne toute sa puissance. Pour Clarisse Herrenschmidt, ces objets techniques que sont les systèmes d'écritures portent en eux un rapport au monde et un mode de pensée propres aux sociétés qui les créent et les utilisent. Helléniste de formation et spécialiste de la Perse, l'auteure s'intéresse depuis la fin des années 90 aux développements d'Internet, auquel elle a consacré [plusieurs->http://www.le-debat.gallimard.fr/debat/html/herrenschmidt_clarisse.htm] [articles->http://motspluriels.arts.uwa.edu.au/MP1801ch.html]. A l'occasion de la parution de son ouvrage, le quotidien Libération publie [un dossier->http://www.liberation.fr/culture/livre/257242.FR.php] qui lui est consacré dans son supplément hebdomadaire consacré aux livres. <div align="center"><iframe src="http://rcm-fr.amazon.fr/e/cm?t=homonumericus-21&o=8&p=8&l=as1&asins=2070760251&fc1=000000&IS2=1<1=_blank&lc1=0000FF&bc1=000000&bg1=FFFFFF&f=ifr" style="width:120px;height:240px;" scrolling="no" marginwidth="0" marginheight="0" frameborder="0"></iframe></div> Présentation de l'éditeur: Spécialiste des langues, des religions et des civilisations de l'Iran avant l'islam, mais aussi de la Grèce ancienne, Clarisse Herrenschmidt étudie l'histoire des écritures de l'homme occidental, depuis les bulles à calculi de Sumer (Iraq) et de Suse (Iran) jusqu'à l'Internet, en passant par le Moyen- et le Proche-Orient, le monde grec et l'Europe. En procédant à la synthèse de ses travaux, elle entreprend de comparer trois systèmes d'écriture, les situant dans le contexte où ils ont vu le jour : les modes d'écrire les langues (dont l'invention date de 3300 avant notre ère environ), ceux d'écrire les nombres sur la monnaie frappée (l'écriture monétaire arithmétique commence vers 620 avant notre ère, en Ionie), enfin l'écriture informatique et réticulaire, fondée sur un code (qui naît entre 1936 et 1948, puis se prolonge par celle des réseaux à partir de 1969 aux États-Unis). En décrivant leurs caractéristiques propres, elle cherche aussi à en analyser les structures communes et à montrer en quoi ces systèmes imprègnent le rapport au monde de leurs usagers. Au carrefour de plusieurs disciplines, la philologie, l'histoire, l'anthropologie et la linguistique, son enquête explore les nombreuses implications sur l'homme de cette « aventure sémiologique unique », désormais planétaire, dont il est fait le récit étonné et étonnant.
2007-06-03 09:07:47
Les Trois écritures
http://www.amazon.fr/gp/product/2070760251?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2070760251
Le Journal du CNRS publie ces jours-ci [un court reportage->http://www2.cnrs.fr/presse/journal/3441.htm] sur la politique que cette institution de recherche entend mener dans les prochaines années en ce qui concerne l'usage des technologies numériques dans les sciences humaines et sociales. Prenant la forme d'un TGE (pour Très Grand Equipement) nommé Adonis, cette initiative se veut adaptée aux particularités que représente aujourd'hui la recherche en sciences humaines et sociales. Beaucoup plus engagées que les sciences exactes dans la vie de la société, les sciences humaines présentent en effet un paysage particulier, marqué par une grande hétérogénéité, une concurrence des modèles épistémologiques et le maintien de particularismes forts non seulement entre disciplines, mais à l'intérieur même des disciplines. Pourtant, l'interdisciplinarité est aussi aujourd'hui une réalité que pratiquent nombre de jeunes chercheurs, n'hésitant pas à aller chercher des méthodes et des connaissances qui ont été produites hors de leur discipline d'origine. Dans ces conditions, alors que l'usage des technologies numériques est pleinement intégré dans les pratiques de recherche des physiciens ou biologistes, à la fois par les instruments qu'ils manipulent, mais aussi les moyens de communication par lesquels ils diffusent leurs résultats, l'usage de ces mêmes technologies reste problématique en histoire, en linguistique, en sociologie, en philosophie où il soulève nombre de questions à tous les niveaux : d'abord pour ce qui concerne l'instrumentation de la recherche : l'utilisation de bases de données, de sources numérisées, de logiciels experts n'est pas sans effet sur la recherche elle-même, ensuite pour ce qui concerne la communication, où les questions de circulation, de validation mais aussi de formalisation des connaissances produites sont sans cesse posées. C'est le défi que représente ce paysage compliqué que tente de relever le TGE Adonis : entre une absence radicale de communication due à la multiplication de développements ad hoc et le passage de toutes les connaissances produites dans ce qui serait une grande lessiveuse numérique ignorante des singularités, il fait le pari d'une voie moyenne reposant sur l'émergence progressive de bonnes pratiques, de normes et de bases informatiques communes aboutissant à la mise en oeuvre d'une interopérabilité qui permette d'offrir in fine une interface commune de recherche dans toutes ces connaissances produites au sein des différentes disciplines.
2007-06-05 12:00:12
Le tout numérique pour les sciences humaines et sociales
http://www2.cnrs.fr/presse/journal/3441.htm
Homo Numericus [l'a remarqué au lendemain de la formation du gouvernement->http://www.homo-numericus.net/spip.php?breve883] : le casting est loin d'être satisfaisant pour tous ceux qui s'intéressent aux technologies numériques. Les ministres concernés (Culture, Communication et Industrie) n'ont pas de véritable expérience en la matière et n'ont jamais montré un quelconque intérêt pour tout ce qui touche au numérique, et ceux qui l'ont fait occupent des ministères très éloignés (Enseignement Supérieur, Affaires Européennes). Pire : contrairement aux [promesses de Nicolas Sarkozy lorsqu'il était candidat->http://www.journaldunet.com/diaporama/070420-net-nicolas-sarkozy-france-ere-numerique/index.shtml], les technologies numériques ne sont toujours pas reconnues comme un domaine suffisamment spécifique et important pour pouvoir bénéficier d'un interlocuteur unique, quel que soit son rang, au gouvernement. C'est ce que [vient de rappeler->http://www.alliance-tics.org/comdepresse.htm], pour s'en plaindre, l'union professionnelle Alliance TICS, qui regroupe des entreprises du secteur des technologie de l'information et des telecoms. Mettant en avant un «besoin de coordination» (dix ministères concernés), elle estime qu'il faut faire de ce secteur «une priorité nationale pilotée par un membre du gouvernement ayant la légitimité élective, une expérience démontrée des NTIC et une capacité à construire le consensus économique, technique et surtout sociétal sur des sujets en évolution permanente». «La France d'après» sera-t-elle numérique ? les professionnels du secteur semblent en douter, et ils ne sont pas les seuls, qui ne voient pas de signe indiquant la mise en oeuvre d'une véritable politique pour ce secteur.
2007-06-07 02:43:11
Alliance TICS
http://www.alliance-tics.org/comdepresse.htm
* [Le Forum des Droits de l'Internet->http://www.foruminternet.org/], organisme para-public chargé d'animer et d'organiser le débat public en France sur les usages et le droit de l'Internet, vient de publier [un rapport de synthèse sur la consultation des internautes->http://www.foruminternet.org/activites_evenements/lire.phtml?id=162] qu'il a organisé sur ses propres forums de discussion tout au long du premier trimestre 2007. Fait rare, cette consultation était semi-ouverte, c'est-à-dire que lors de certaines phases les internautes avaient la possibilité de proposer certains sujets de débat. Il s'agissait donc pour le Forum d'interroger les internautes sur leurs préoccupations essentielles relatives à l'Internet et à la société de l'information. Avec près de 13000 visiteurs sur la période et plus de 300 contributions, il peut se targuer d'avoir agrégé un nombre suffisant de participants pour que son enquête ait une certaine représentativité ; représentativité limitée toutefois car, vu la qualité des discussions, il est bien forcé de reconnaître que les contributeurs sont loin d'être des néophytes sur ces sujets. Sur le fond, l'enquête fait ressortir un certain nombre de thèmes prédominants. Il y a en effet tout un ensemble de préoccupations ou d'intérêt qui tourne autour de ce que le rapport appelle "Web 2.0". En y regardant de plus près, il s'agit en fait davantage des questions liées à la collaboration dans les environnement de travail et d'éducation ou à la démocratisation de la fonction éditoriale : la question de la labellisation des sites de presse, de l'utilisation des environnements numériques de travail à l'école ou de la surveillance des salariés sur les plate-formes collaboratives sont au centre de cette thématique. L'autre grande question qui a été débattue concerne l'inégalité devant les nouvelles technologies. Emerge de cette discussion la notion d«'illectronisme», qui reprend l'ancienne fracture numérique, mais en insistant davantage sur les lacunes en terme de compétence plutôt que d'équipement. D'où un besoin unanimement exprimé de formation et d'éducation aux technologies numériques. Pour finir, on y lira toute une partie sur la question des jeux en ligne. Ce secteur est en effet en plein conflit avec l'Etat en raison du monopole que ce dernier prétend maintenir sur les jeux d'argent en général. Pour qui pense que les jeux en ligne représentent un secteur marginal et sulfureux en marge des pratiques normales du Réseau, ce passage permet de se rendre compte d'une réalité toute autre ; et en particulier qu'ils s'appuient sur une communauté importante et structurée de joueurs passionnés qui contestent fortement la répression dont ils sont victimes et qu'ils estiment illégitime. Mais c'est aussi ce qui révèle l'essentielle faiblesse de la consultation entreprise par le Forum des Droits de l'Internet. Il s'agissait de consulter les internautes. Mais qui est « l'internaute» ? Les figures qu'on voit bien apparaître par l'intermédiaire de cette synthèse est moins finalement la catégorie très problématique de l'internaute, que des professionnels, des passionnés rassemblés autour d'une problématique commune, des éducateurs et ainsi de suite qui se posent des questions ou défendent des positions relatives l'utilisation d'Internet dans leurs pratiques particulières.
2007-06-07 15:07:31
FDI : consultation publique des internautes
http://www.foruminternet.org/telechargement/documents/consultation2007.pdf
Président du chapitre français de [l'Internet Society (ISOC)->http://www.isoc.fr], Sébastien Bachollet a récemment été élu en tant que représentant européen auprès de [l'ICANN->http://www.icann.org], cet organisme international chargé de définir les règles d'attribution des adresses et des noms de domaine sur Internet. L'ICANN a été au centre de nombreuses polémiques au cours des dernières années, en raison notamment de sa politique d'attribution des noms de domaines, mais aussi, et surtout, en raison de son mode de fonctionnement interne, jugé largement opaque et peu démocratique. Lorsqu'on évoque le sujet de la gouvernance de l'Internet, au niveau international en tout cas, c'est à cet organisme que l'on pense le plus souvent, bien que son rôle réel ait décliné au cours des dernières années en raison des évolutions des usages de l'Internet. Sébastien Bachollet, tout comme ses collègues de l['At-Large Advisory Committee->http://alac.icann.org/], n'ont qu'un rôle consultatif au sein de l'ICANN. Ils sont sensés représenter le point de vue des utilisateurs d'Internet, auprès du bureau directeur de cet organisme. Mais qu'il n'y ait pas de méprise. Lorsqu'on parle d'utilisateur dans ce contexte, on pense davantage aux entreprises qu'aux particuliers. En témoigne le parcours particulier de Sébastien Bachollet, venu aux questions de gouvernance de l'Internet par le [CIGREF->http://cigref.typepad.fr/] (Club Informatique des Grandes Entreprises), dont il a été le délégué général. Mardi 12 juin à 11h30, le quotidien Le Monde l'invite a venir évoquer par chat [l'avenir de la régulation de l'Internet->http://www.lemonde.fr/web/chat/0,46-0@2-651865,55-919519,0.html#].
2007-06-11 10:59:33
Le Monde
http://www.lemonde.fr/web/chat/0,46-0@2-651865,55-919519,0.html#
Depuis quelques jours, on peut surfer gratuitement depuis n'importe quel endroit du 2ème arrondissement de Paris. C'est en effet dans ce quartier, autour de la rue Montorgueil, qu'ont été déployées une dizaine d'antennes wifi permettant, pour peu que l'on dispose d'un ordinateur portable, d'être connecté au réseau où que l'on se trouve, sur un banc public, à la terrasse d'un café, ou tout simplement chez soi. Baptisée [Quartier Numérique->http://quartiernumerique.org], l'opération est en fait due à l'initiative de [Silicon Sentier->http://siliconsentier.org], une association locale d'entrepreneurs dans le domaine des nouvelles technologies. Elle associe un grand nombre de partenaires, parmi lesquels [Peuplade->http://www.peuplade.fr], un service de construction de réseaux sociaux basé sur la proximité géographique, et [Ozone->http://www.ozoneparis.net], un fournisseur d'accès à Internet offrant un service wifi pervasif. Entreprises et particuliers habitant le secteur sont invités à contribuer à la communauté en partageant un peu de leur connexion, en contribuant à l'animation ou en fournissant des services associés. L'objectif est aussi, en effet, de contribuer à la vitalité de la vie locale en s'appuyant sur la mise en place de services de proximité. Il s'agit d'une expérimentation. Les entreprises qui soutiennent l'opération se promettent d'en dresser le bilan à l'issue d'une période de 18 mois pour décider de son avenir. Malgré tout, on ne peut qu'être frappé de la vitesse avec laquelle se multiplient les initiatives locales de mises en réseau, y compris en France, où les communautés locales sont traditionnellement peu développées. Loin d'être uniquement synonyme de déterritorialisation, Internet peut aussi être un outil de proximité.
2007-06-12 12:48:58
Quartier numérique
http://quartiernumerique.org
Le [?logiciel libre] n'est plus l'apanage des [?geeks]. Utilisés aujourd'hui de manière massive par des millions d'utilisateurs, mais aussi au sein des entreprises et des administrations, Firefox, Open Office, Thunderbird, The Gimp, ou encore Apache et Linux constituent de très belles réussites qui tiennent aujourd'hui la dragée haute à leurs équivalents propriétaires. Les 13 et 14 juin, [Paris se proclame «Capitale du Libre»->http://www.paris-libre.org/index.php] et accueille au Palais des Congrès un grand événement sur ce sujet. Beaucoup d'exposants, de nombreuses conférences «in» et «off» témoignent de la richesse et de la vitalité des milieux du logiciel libre aujourd'hui en France. Dans le lot, on retiendra notamment le premier jour, une conférence de Richard Stallman, et le lendemain une table-ronde sur l'économie du savoir à l'ère numérique. Mais Paris Capitale du Libre, c'est aussi les «[Lutèce d'or->http://www.paris-libre.org/index.php?option=com_content&task=view&id=18&Itemid=44]». Ces Césars du logiciel libre visent à récompenser des développements logiciels, bien entendu, mais aussi des actions de promotion ou des actions communautaires, ou encore des personnalités qui se sont distinguées dans ce domaine au cours de l'année. Parmi les nombreux partenaires de cette manifestation, on remarque [l'April->http://www.april.org/], association de promotion de l'informatique libre, qui se distingue chaque jour davantage par le fort développement de ses activités et la plus grande visibilité dont elle bénéficie en retour.
2007-06-12 15:50:20
Paris, capitale du libre
http://www.paris-libre.org/index.php
Du fait de sa taille et de l'importance considérable qu'il prend sur Internet, Google est exposé de manière croissante aux critiques venues de toutes parts, et pas seulement en France, pays qui a fait de l'antigooglisme son sport favori. On sait par exemple que les éditeurs de livres sont loin d'être satisfaits de la manière dont la société californienne numérise leur catalogue, par l'intermédiaire des bibliothèques, sans leur demander leur avis. Charge aux éditeurs de repérer et signaler les ouvrages qu'ils veulent voir sortis du programme, selon la procédure de l'opt-out. Récemment, un responsable de la société MacMillan a fait un coup d'éclat au salon du livre de New York, BookExpo America, [en volant un ordinateur portable sur le stand de Google->http://www.theregister.co.uk/2007/06/04/book_publisher_google_laptop/]. Interrogé sur le motif de son acte, il a indiqué avoir voulu procéder comme cette société le fait : en volant la propriété d'autrui par défaut ; charge à Google de réclamer ensuite son bien. Pour cette dernière, la comparaison est bien entendu[ fallacieuse->http://www.lessig.org/blog/archives/003791.shtml]. Mais Google, ce n'est pas seulement un moteur de recherche appuyé sur un programme de numérisation de livres. Au cours des dernières années, cette société a acheté un nombre considérable d'entreprises, sur un large éventail de domaines. Aujourd'hui, Google fédère un véritable univers de services qui vont de la vidéo en ligne (YouTube) aux applications bureautiques en ligne (Google docs) en passant par le partage d'images (Picasa), le mail (Gmail), les réseaux sociaux (Orkut), la géolocalisation (Google maps), les blogs (Blogger) parmi bien d'autres, sans oublier bien sûr la publicité en ligne avec Adsense et Adwords. L'effet le plus visible de ce réseau tentaculaire de services pour l'utilisateur final, c'est l'identification unique. Si l'on dispose d'un compte Google, on est invité à s'identifier sur ces services au moyen des données d'identification d'un compte unique Les risques pesant sur la vie privée des internautes ne sont dès lors pas négligeables. Car pour peu qu'il utilise plusieurs de ces services, il fournira un nombre considérable de renseignements sur sa vie en ligne, ses goûts, ses choix, son comportement. Et Google ne s'est jamais fait mystère de vouloir exploiter ces informations, en particulier pour proposer de la publicité ciblée et personnalisée, qu'elle identifie, sans doute pas à tort comme une source considérable de richesses pour les années à venir. C'est cette dimension subrepticement invasive du fichage des internautes par la société de Mountain View, qui a poussé récemment l'ONG Privacy International à [classer Google bon dernier->http://www.privacyinternational.org] en matière de respect de la vie privée. Une polémique entre les deux organisations s'en est suivie, [synthétisée par le site Google blogoscoped->http://blog.outer-court.com/archive/2007-06-11-n76.html]. de son côté, l'Union Européenne s'est aussi inquiétée de la manière dont étaient traitées les données personnelles fournies par les ressortissants du continent. Les protections européennes sur ce point sont en effet beaucoup plus contraignantes pour les entreprises privées, que ce que permet la loi américaine. Selon les accords dits [Safe Harbour->http://www.export.gov/safeharbor/sh_overview.html], les entreprises américaines traitant des données personnelles en provenance de l'Union, sont en effet tenues, même lorsqu'elles rapatrient ces données sur le territoire des Etats-Unis, de respecter cette spécificité. La polémique s'est engagée sur la durée de conservation des données. A l'origine, Google ne prévoyait pas de limite temporelle à cette conservation. Dans un premier temps, l'Union a pu faire remarquer que l'éternité, c'est un peu long en la matière. C'est d'ailleurs ce que dit en substance à un autre niveau, un professeur d'Harvard, qui réclame un [droit à l'oubli->http://arstechnica.com/news.ars/post/20070509-escaping-the-data-panopticon-teaching-computers-to-forget.html] sur Internet et plus généralement dans les outils de traitement informatisé des données. Dans un second temps, [Google a proposé de limiter à deux ans la conservation des données personnes->http://www.ft.com/cms/s/dc89ec96-0a24-11dc-93ae-000b5df10621.html]. Encore trop long a rétorqué le [groupe de l'Article 29->http://ec.europa.eu/justice_home/fsj/privacy/workinggroup/index_fr.htm], qui rassemble les responsables Informatique et libertés des différents pays de l'Union . Actuellement, [on en est à 18 mois->http://www.nytimes.com/2007/06/13/technology/13google.html?ex=1339387200&en=9ec8e7229f88691e&ei=5124&partner=permalink&exprod=permalink], et la balle est dans le camp des autorités européennes. Mais dans sa dernière proposition, Peter Fleischer, le responsable de ces questions chez Google fait remarquer avec malice qu'on n'est pas loin de la contradiction absolue dans le camp des autorités européennes. Celle-ci sont en effet en train d'adopter une directive contraignant, pour des raisons de sécurité et de lutte anti-terroriste, les différents fournisseurs de service Internet, à [conserver les données de connexion de leur clients pendant au moins deux ans->http://news.bbc.co.uk/2/hi/europe/4527840.stm]. Très sourcilleuses lorsqu'il s'agit de l'exploitation commerciale des données personnelles, les autorités étatiques se sont par ailleurs engagées dans une politique de fichage systématique de leurs populations depuis le 11 septembre, en s'appuyant lourdement, pour ce qui concerne Internet, sur les fournisseurs d'accès. La différence de traitement peut être justifiée par la différence des fins : la publicité ciblée d'un côté, la sécurité nationale de l'autre. Mais les atteintes à la vie privée n'en sont-elles pas tout aussi graves ?
2007-06-13 00:18:52
New York Times
http://www.nytimes.com/2007/06/13/technology/13google.html?ex=1339387200&en=9ec8e7229f88691e&ei=5124&partner=permalink&exprod=permalink
Les univers virtuels se développent. On parle beaucoup de [Second Life->http://www.secondlife.com/], mais il en existe plusieurs dizaines d'autres, quelquefois plus riches et plus performants. Cela fait maintenant plusieurs années qu'un certain nombre de sociétés commerciales ont tenté de s'y implanter pour que leurs marques soient représentées. Rien de plus logique puisque ces univers sont fréquentés par des publics nombreux, mais surtout éminemment réceptifs. La démarche est pourtant loin d'être évidente pour la plupart des entreprises. Au delà de la simple compréhension de ce qu'est un univers virtuel, y ouvrir un espace propre demande une certaine maîtrise de ses règles de fonctionnement. Par ailleurs, ces univers sont loin d'être stabilisés. En constant développement au niveau technique, les usages qui s'y développent sont quant à eux dans une phase complètement exploratoire. Evoluer dans de tels environnement demande une compétence, un temps et une attention que la plupart des entreprises n'ont pas nécessairement. C'est pour cette raison qu'est organisé, le 25 septembre à Paris, [un séminaire dédié à Second Life et aux autres univers virtuels->http://www.virtualparis2007.com/2007/06/13/un-seminaire-sur-second-life-et-les-univers-virtuels-le-25-septembre-a-paris/]. «L’objectif de ce séminaire est de présenter en détail les meilleures pratiques des marques présentes dans Second Life et d’étudier le potentiel des autres univers virtuels (Habbo Hotel, Entropia Universe, Taatu, Virtual Laguna Beach, IMVU, Multiverse, Kaneva…). Ce séminaire professionnel s’adresse aux annonceurs, aux agences et aux différents acteurs qui s’interrogent sur les domaines d’application business, marketing et branding au sein des univers virtuels.» L'organisateur est Fred Cavazza , un consultant spécialisé dans le domaine du e-business et de l'usabilité des sites web marchands. Cavazza est aussi [l'auteur d'un blog très avisé->http://www.fredcavazza.net] sur le sujet. Nous sommes dans le monde du commerce. Ce séminaire n'est donc ni gratuit, ni ouvert à tout le monde : 1000 euros hors taxe pour une inscription avant le 15 juillet . Le nombre de participants est limité à 40. Pour tous ceux qui ne pourront pas participer, c'est-à-dire la plupart d'entre nous -, il existe un [blog préparatoire à l'événement->http://www.virtualparis2007.com/] qui s'annonce déjà passionnant.
2007-06-19 23:59:39
Virtual Paris 2007
http://www.virtualparis2007.com/
F[ramasoft->http://www.framasoft.net], annuaire connu et reconnu de logiciels libres, a été récompensé lors de la rencontre Paris Capitale du logiciel libre, par un [Lutèce d'Or->http://www.paris-libre.org/index.php?option=com_content&task=view&id=193], le reconnaissant ainsi comme «la communauté la plus active dans la promotion et dans la diffusion des logiciels libres». C'est une juste récompense pour cette initiative, à l'origine portée par quelques enseignants, ayant pour objectif d'encourager leurs collègues à migrer depuis les logiciels propriétaires vers les logiciels libres, et d'abord en leur permettant de prendre connaissance de l'offre existante. Depuis, c'est une large communauté qui s'est constituée et a diversifié ses activités avec le lancement d'une collection de livres (les [Framabooks->http://www.framabook.org]), ou encore la distribution de clés usb contenant un kit logiciel prêt à l'emploi ([Framakey->http://www.framakey.org/]), avec un enthousiasme toujours aussi grand à la fois pour inciter à l'utilisation de logiciels libres, mais aussi pour améliorer le débat et la réflexion sur les implications «sociétales» des nouvelles technologies. Mais tout n'est pas rose au pays du «peuple migrateur». Car un billet publié dans le blog de l'équipe, et intitulé «Framasoft ou le prix à payer d'un certain succès», indique une certaine usure des fondateurs devant les charges de plus en plus importants que génère un projet aussi ample. Framasoft, entreprise associative et bénévole vit donc une crise de croissance que bien d'autres ont vécue avant lui. Après le succès populaire, c'est en effet le défi de la pérennisation qu'il lui faut relever, en particulier en s'appuyant sur des forces salariées. Ce qui signifie des rentrées financières significatives et régulières. Bref, Framasoft se déclare maintenant «officiellement à la recherche de fonds, subventions, partenariats publics ou privés, généreux mécènes... et de toutes les idées possibles et imaginables pour atteindre cet objectif qui, très concrètement, se chiffre charges comprises à un minimum de 40.000 € pour pouvoir démarrer l'exercice en janvier 2008.» A bon entendeur...
2007-06-20 01:04:48
Framablog
http://framablog.org/index.php/post/2007/06/14/Framasoft-ou-le-prix-a-payer-dun-certain-succes
Dans une note publié hier [sur son blog personnel->http://www.lessig.org/blog/archives/003800.shtml#003800], le juriste américain Lawrence Lessig, défenseur de la culture libre et connu comme le père du mouvement Creative Commons, a déclaré vouloir mettre un terme à son activisme dans le domaine du copyright pour élargir son champ d'action. L'analyse qui le conduit à prendre cette décision plonge profondément ses racines dans l'histoire de son engagement. En dix ans d'action, analyse-t-il, le succès de la lutte contre les restrictions du copyright est réel. Il n'est d'ailleurs que de regarder la vitalité du mouvement [Creative Commons->http://www.creativecommons.org/] pour s'en persuader. Il est réel, mais en ce qui concerne la prise de conscience et les pratiques seulement. Car au niveau juridique, c'est-à-dire de la fabrique de la loi, le mouvement continue à être inverse, vers une extension temporelle toujours plus grande du copyright et des restrictions d'usage toujours plus importantes. Cette contradiction, entre un mouvement couronné d'un succès populaire et un cadre légal qui l'ignore manifestement, Lawrence Lessig l'attribue à une «corruption» du processus politique. Et par corruption, il ne faut pas entendre vénalité, mais plus simplement l'altération du processus de représentation politique par le pouvoir excessif qu'y exercent les puissances financières, c'est-à-dire, aux Etats-Unis, les lobby. Lessig décide donc de consacrer les dix prochaines années de sa vie à ce combat, plus large, plus directement politique, voire politicien, il faut le craindre. Ce revirement est particulièrement intéressant, quand on sait que la bataille des Creative Commons a été lancé au lendemain de la défaite juridique de Lessig devant la Cour Suprême [aux côtés d'Eric Eldred->http://eldred.cc/]. En repartant aujourd'hui à l'assaut, Lessig montre qu'une révolution, fut-elle de la création intellectuelle, doit marcher sur ses deux jambes, comme tout mouvement progresssiste. Elle doit changer concrètement la réalité des pratiques, mais ne doit pas délaisser la conquête du pouvoir et le dur combat politique qui lui permettra d'obtenir une reconnaissance par la loi, de ces pratiques.
2007-06-20 23:38:40
Required Reading: the next 10 years
http://www.lessig.org/blog/archives/003800.shtml#003800
La mise sur le marché, aux Etats-Unis, du nouveau téléphone multifonctions produits par Apple a provoqué une véritable [hystérie collective->http://www.technorati.com/posts/tag/iphone] parmi les amateurs de gadgets et autres inventions techniques. Les médias personnels surtout, comme les blogs, ont été les vecteurs naïfs d'une campagne marketing sans précédent. C'est au blog de Framasoft cependant, qu'il revient d'en avoir [parlé le mieux->http://framablog.org/index.php/post/2007/07/02/iPhone-DRM-FSF-GPLv3], en rapprochant cet événement de la publication le même jour de la [nouvelle version de la General Public License->http://www.gnu.org/licenses/gpl-3.0.html]. La [?GPL] n'est rien moins que le texte légal qui protège les logiciels libres et préserve les libertés fondamentales qui leur sont attachées. Or, la particularité de cette nouvelle version est de prendre position contre ce que la [Free Software Foundation->http://www.fsf.org] appelle la "tivoïsation" (du nom du magnétoscope numérique [?Tivo]), c'est-à-dire le fait qu'un nombre croissant d'appareils électroniques contiennent des programmes développés sur la base de logiciels libres qui, sont donc légalement modifiables et redistribuables, mais aussi dôtés de systèmes de protection techniques qui empêchent l'utilisateur d'exercer réellement cette liberté. De la même manière, cette version de la GPL n'interdit pas d'utiliser un système de contrôle anti-copie ([?DRM]) en lien avec un logiciel libre, mais donne toute liberté aux utilisateurs de contourner, s'ils le souhaitent, ces systèmes. Sans entrer dans les détails, on peut dire que la nouvelle version de la GPL manifeste le fait que la bataille pour les libertés numériques ne se joue plus exclusivement dans les serveurs et ordinateurs personnels, mais de manière croissante au niveau des petits appareils électroniques dont le nombre et la diversité est en train d'exploser. A ce propos, Apple, après avoir perdu les précédentes batailles, semble bien décidé à se rattraper sur ces objets, avec le succès acquis de l'iPod, et celui programmé de [l'iPhone->http://www.apple.com/iphone/]. Mais précisément, ces deux produits, ainsi que [le logiciel iTunes->http://www.apple.com/itunes/] avec lequel ils fonctionnent étroitement , sont fortement verrouillés au niveau technique. Si Apple a récemment renoncé à distribuer ces produits musicaux exclusivement sous DRM par exemple, c'est au prix du respect de la vie privée de ses clients, puisque les fichiers sont identifiés à leur acheteur. Le jeu risque de durer longtemps entre la firme à la pomme et les [?hackers] de toutes sorte qui proposent déjà [un logiciel destiné à l'anonymisation des fichiers téléchargés->http://www.privatunes.com/], tandis que d'autres se lancent des défis pour [casser le verrou d'activation qui lie actuellement l'iPhone à l'opérateur téléphonique AT&T->http://www.ratiatum.com/breve5302_Les_hackers_sont_a_l_oeuvre_pour_debloquer_l_iPhone.html]. Il est bien difficile de déterminer si, du strict point de vue industriel, Apple a raison ou tort de chercher à maîtriser de manière aussi étroite l'environnement logiciel qui est contenu dans les objets numériques qu'il propose. Il semble en effet que ses marges soient très importantes sur la vente des objets eux-mêmes, parce que sans véritable concurrent. On parle ainsi de près de [50% de marge sur l'iPhone->http://www.atelier.fr/article.php?artid=34779]. Il n'en reste pas moins que ces verrous numériques, qui asservissent d'une certaine manière l'utilisateur, sont aujourd'hui difficilement supportables. Alors que sur ordinateur, l'arbitrage entre liberté et confort d'utilisation est en passe d'être résolu, avec des logiciels comme Open Office, Firefox et Thunderbird, il est possible que le problème doive être repris à la base pour tous les appareils numériques nomades sur lesquels nous devons compter de manière croissante.
2007-07-04 10:39:46
L'iPhone n'est pas encore sous GPLv3, étonnant non ?
http://framablog.org/index.php/post/2007/07/02/iPhone-DRM-FSF-GPLv3
La [?fracture numérique], qui sépare et oppose ceux qui sont inclus et utilisateurs des environnements numériques, et ceux qui ne le sont pas, est un sujet fort débattu, faisant l'objet de réflexions et d'actions spécifiques souvent au niveau des Etats. Mais avec l'agrandissement du nombre d'utilisateurs, c'est d'autres factures qui apparaissent ; à l'intérieur même de la catégorie désignant ceux qui sont connectés. Deux récentes notes en rendent compte, selon deux lignes très différentes : La première est sociale avec la publication par une chercheuse américaine spécialiste des [?logiciels sociaux], [Danah Boyd->http://www.danah.org/], d'un [article fort remarqué->http://www.danah.org/papers/essays/ClassDivisions.html] sur la distribution sociale des adolescents dans deux des réseaux les plus importants dans le monde anglophone : [Myspace->http://www.myspace.com/] et [Facebook->http://www.facebook.com/]. Elle montre en particulier que la construction des réseaux sociaux via ces logiciels s'appuie fortement sur la sociabilité scolaire, ce qui a des conséquences en terme de distribution sociale dans l'un ou l'autre d'entre eux. Ces plate-formes se différencient fortement au niveau des interfaces, mais aussi des types de comportement, du vocabulaire et des moeurs qui y sont pratiqués, construisant des sortes de sous-culturels différenciées, voire clivées. La deuxième est générationnelle, avec un [billet très intéressant->http://zeroseconde.blogspot.com/2007/06/chaque-generation-son-ecran.html] publié par Martin Lessard, un consultant canadien dans le domaine des nouvelles technologies, sur la fracture générationnelle. S'appuyant en particulier sur [un récent article du New York Times->http://www.nytimes.com/2007/06/17/business/yourmoney/17mobile.html?ex=1339732800&en=5e009674cd2083ab&ei=5090&partner=rssuserland&emc=rss], il montre que chaque génération reste attachée au type d'écran avec lequel elle s'est construite. Autrement dit, il s'agit aujourd'hui moins d'opposer des «vieux», qui seraient les tenants de l'imprimé contre des «jeunes», fatalement fascinés par les écrans, que de voir qu'il y a des générations de la télévision, des générations de l'ordinateur, des générations du téléphone portable. Et derrière le type d'écran, c'est évidemment des types de communication qui sont marqués, là encore, par des clivages importants.
2007-07-04 11:34:09
Viewing American class divisions through Facebook and MySpace
http://www.danah.org/papers/essays/ClassDivisions.html
* «Aujourd'hui, il est aisé d'envoyer un e-mail en se faisant passer pour quelqu'un d'autre, y compris de quelqu'un qui n'existe pas. Cela vient des premiers temps de l'Internet. A l'époque, l'authentification était techniquement impossible et par ailleurs pas vraiment nécessaire. De la même manière qu'un habitant d'un petit village ne ferme pas sa porte à clé quand il vient d'emménager dans une grande ville, de la même manière, l'e-mail a conservé une mentalité de villageois, sans prêter attention aux gratte-ciels qui se construisaient autour. Il est facile pour les criminels de tirer parti de toutes ces portes ouvertes. Pour restaurer la confiance dans le mail, il est temps d'y installer des verrous. L'authentification du courrier électronique est l'un de ces verrous. » Ces sages paroles sont d'Eric Allman, l'inventeur de [?Sendmail], le premier logiciel d'envoi de courrier électronique, et aujourd'hui encore le plus utilisé. Dans une [tribune publiée par Cnet->http://news.com.com/2010-1029_3-6194835.html], il y promeut un nouveau protocole d'authentification de mails, DKIM, pour DomainKeys Identified Mail, qui est en passe d'être adopté comme un standard de l'Internet par l'[?IETF]. Ce protocole permet d'authentifier que l'expéditeur d'un message est bien celui qu'il prétend être, ce qui est particulièrement précieux pour tout ce qui concerne l'envoi de messages professionnels et liés à des transactions financières. Mais pour qu'un standard comme celui-ci soit utile, il faut qu'il soit adopté, plaide Eric Allman. Et pour cela, il faut que tous les acteurs s'y mettent rapidement : fournisseurs de services Internet, concepteurs de logiciels, émetteurs professionnels de mails, et enfin, les utilisateurs personnels. Il en va de la simple survie de ce mode de communication.
2007-07-07 01:04:58
Saving e-mail : it's all about trust
http://news.com.com/2010-1029_3-6194835.html
Le 27 juin dernier, la commission des affaires économiques du Sénat a publié un rapport intitulé [«Dix ans après, la régulation à l'ère numérique»->http://www.senat.fr/rap/r06-350/r06-350.html], et qui tente de faire le point sur la manière dont l'acteur public a traité ce dossier depuis la création, en 1996, de l'Autorité de Régulation des Télécommunications. La première partie, dresse un bilan «largement positif» de la période écoulée, et de la manière dont l'ART, transformée en 2005 en Autorité de Régulation des Communication et des Postes ([ARCEP->http://www.art-telecom.fr/index.php?id=13#1]) a pris en charge l'ouverture à la concurrence des réseaux de télécommunications. D'aucuns jugeront certainement que la commission est allée un peu vite en besogne sur ce bilan, oubliant au passage la manière dont l'ART a protégé les positions établies de l'opérateur historique pendant les quelques années de transition de l'ouverture du marché. Il reste qu'aujourd'hui, plaide le rapport, la situation française en ce qui concerne la domination de cet opérateur historique se situe dans la moyenne européenne. C'est pourtant le seconde partie du rapport qui est la plus intéressante. Car elle s'interroge sur les évolutions futures du système de régulation et la manière dont il doit être adapté aux changements de son environnement. Ce qui est certain, affirme le rapport, c'est que le besoin de régulation ne s'éteint pas avec l'ouverture à la concurrence. L'économie des réseaux favorise naturellement la formation de monopoles et l'équipement prochain des foyers en fibre optique constitue un risque de ce point de vue. Pour finir, le rapport émet un certain nombre de recommandations pour améliorer l'action publique en matière de régulation du numérique. Il est important que l'action gouvernementale soit mieux coordonnée, plaide-t-il. Un nombre considérable de directions ministérielles et d'organismes publics est actuellement en charge du numérique. Il faudrait que cette action soit coordonnée sous l'égide d'un Haut-Commissariat du Numérique. Enfin, rendant hommage au travail de concertation entrepris par le [Forum des Droits de l'Internet->http://www.foruminternet.org/], il déplore sa marginalisation relative et souhaite lui voir jouer un rôle plus important et plus central, en le requalifiant en Forum du Numérique.
2007-07-13 00:47:11
Sénat
http://www.senat.fr/rap/r06-350/r06-350.html
C'est les vacances. Homo Numericus se met au vert jusqu'au début du mois de septembre et interrompt son fil de nouvelles. Mais, comme tout bon périodique, HN se doit d'offrir à ses lecteurs l'incontournable feuilleton de l'été. Cette année, c'est une passionnante et originale analyse de l'encyclopédie en ligne Wikipedia, que nous vous offrons. Cette [série de trois articles->http://www.homo-numericus.net/spip.php?article273], qui seront publiés tout au long de l'été, approche en effet le phénomène, non pas sous l'angle habituel de la vérité des informations publiées sur Wikipedia, mais bien plutôt d'un point de vue délibérément politique. Réalisée par Sylvain Firer-Blaess, étudiant de l'IEP Lyon, cette enquête sur l'histoire politique de Wikipedia conduit à s'interroger sur la manière dont le développement d'outils collaboratifs dont la célèbre encyclopédie est le symbole, non seulement change profondément la manière dont nous produisons ensemble des connaissances, mais aussi révèle les mécanismes de contrôle et de surveillance qui se mettent en place au sein de la société de l'information. Bonne lecture, bon été à tous, et rendez-vous à la rentrée pour une exploration toujours plus surprenante de l'homme numérique.
2007-07-18 12:25:28
Wikipedia, introduction et histoire
http://www.homo-numericus.net/spip.php?article273
Les jeux électroniques, particulièrement les jeux en ligne sortent rapidement de la confidentialité dans laquelle ils se trouvaient jusqu'ici. Les jeux dit «massivement multijoueurs» en particulier, comme World of Warcraft, sont désormais connus d'un public plus large que celui de joueurs, faisant l'objet d'un nombre croissant de reportages dans la presse généraliste. Le monde des jeux en ligne reste pourtant globalement mal perçu ; ce sont les aspects les plus négatifs : violence et addiction qui sont le plus souvent évoqués à leur propos. Pratiqués majoritairement par des adolescents et de jeunes adultes, ils sont souvent mal perçus et incompris des autres générations. Un nouveau livre collectif, intitulé Culture d'univers, sous la direction de Franck Beau, vient d'être publié, qui tente de faire le point sur ce véritable phénomène de société. Rassemblant les contributions d'une quarantaine d'auteurs, chercheurs en sciences sociales, mais aussi acteurs professionnels et joueurs, Culture d'univers tente de montrer que loin d'être anodines, ces pratiques ludiques commencent à constituer une véritable culture, à l'intersection du jeu, des arts et des relations sociales. Pour accompagner la publication de cet ouvrage important, les élèves de [l'école multimédia HETIC->http://www.hetic.net] ont réalisé [un petit film de présentation fort bien fait->http://stage6.divx.com/user/rekom/video/1428460/l] présentant au néophyte différents aspects de la pratique du jeu vidéo aujourd'hui. Il rend compte en particulier du développement de la pratique sportive du jeu en ligne, par l'intermédiaire de compétitions internationales, artistiques aussi, avec l'apparition des [?machinima]. Culture d'univers est en vente sur Amazon : [<img2100|center>->http://www.amazon.fr/gp/product/2916571027?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2916571027]
2007-09-01 07:41:44
Culture d'Univers
http://www.culturedunivers.org/
Depuis la semaine dernière, France Culture propose à ses auditeurs une nouvelle émission consacrée à la société de l'information, et plus particulièrement à Internet. Intitulée Place de la toile, cette émission animée par Caroline Broué et Thomas Baumgartner, «aborde les différents aspects de la révolution numérique, moins du côté technique que du côté des conséquences qu’elle induit sur l’information, les médias, la communication, les liens sociaux entre les individus, et finalement, l’organisation de notre vie. Elle fait un tour hebdomadaire des connaissances dans ce domaine, s’attarde sur les principaux concepts liés à cette métamorphose, rencontre les acteurs, raconte les principaux événements, discute de l’économie, de la politique, et de la philosophie de cette révolution.» La première émission, diffusée vendredi dernier, posait la question «Quelle révolution numérique ?» à ses deux invités : Joël de Rosnay et Véronique Kleck. Elle peut être téléchargée et écoutée en podcast, comme toutes les émissions de Radio France.
2007-09-01 08:26:36
Place de la Toile
http://www.radiofrance.fr/chaines/france-culture2/emissions/place_toile/index.php
La bataille qui se livre en ce moment même au sein de l'organisme de standardisation international [?ISO], et au sein de ses filiales dans les différents pays du monde, n'est pas anodine. Il s'agit de savoir si le nouveau format de documents bureautiques développé par Microsoft pour sa suite Office 2007 peut être reconnu comme une norme internationale ou non. Ce format, baptisé [?Open XML] est censé remplacer, dans ses différentes déclinaisons, les habituels .doc, .xls, et autres .ppt que l'on connaît bien. Contrairement à ses prédécesseurs, le nouveau-né de chez Microsoft est basé sur le langage universel de structuration de contenus [?XML], ce qui le rend, a priori, beaucoup moins opaque et beaucoup plus ouvert. On sait que les formats utilisés par Microsoft, du fait de la domination écrasante de sa suite bureautique au sein des environnements professionnels, sont devenus avec les années, des standards de fait, point de passage obligé pour quiconque cherche à transmettre un document, même lorsque celui-ci a été composé sur un logiciel concurrent. Or, jamais Microsoft n'a cherché à obtenir la reconnaissance de ses formats propriétaires comme normes jusqu'à présent. Le changement est venu du concurrent le plus menaçant pour Microsoft Office à l'heure actuelle, à savoir la suite bureautique libre [?Open Office]. Ce logiciel utilise en effet comme format «natif», la norme [?Open Document] (qui produit des fichiers .odt). Open Document est un format ouvert, dont le développement est assuré par le consortium [OASIS->http://www.oasis-open.org/home/index.php] et qui bénéficie, lui, depuis peu, de la reconnaissance de l'ISO comme standard international pour les documents bureautiques. Autant dire qu'il constitue une sérieuse menace pour la suprématie de Microsoft dans l'univers bureautique. La question est d'autant plus vivement débattue que les organisations bureaucratiques, grandes entreprises bien sûr, mais aussi et surtout administrations publiques qui sont soumises à des impératifs d'intéropérabilité, de transparence et de pérennité qui ne s'appliquent pas au secteur privé, ont progressivement pris conscience des enjeux stratégiques qui se cachaient derrière ces questions apparemment très techniques. Ces derniers mois par exemple, plusieurs Etats, [dont la France->http://ec.europa.eu/idabc/en/document/5695/469], ont annoncé leur intention d'adopter Open Document comme format obligatoire pour les documents produits par leurs administrations. Ce qui revient à exclure l'utilisation de Microsoft Office au sein de ces mêmes administrations...de la faute même de Microsoft, qui a décidé de ne pas intégrer ce format au sein de sa suite logicielle. On commence dès lors à comprendre les raisons profondes du bras de fer qui est en train de se dérouler au sein de l'ISO : en cherchant à faire reconnaître son format comme une norme par l'ISO, Microsoft vise à labelliser son format propre afin de conserver sa position au sein des environnements professionnels. Ses adversaires dénoncent au contraire une manoeuvre visant à affaiblir une norme existante, Open Document, qui a l'avantage d'être définie indépendamment de tout logiciel particulier -même si c'est Open Office qui l'utilise le premier -, contrairement à son concurrent, intrinsèquement lié à la suite logicielle de Microsoft. Des votes ont actuellement lieu [dans toute l'Europe->http://www.lemondeinformatique.fr/actualites/lire-open-xml-non-pour-le-danemark-la-norvege-la-hongrie-s-abstient-23830.html], après les prises de position contrastées d'autres pays, comme les [Etat-Unis->http://www.silicon.fr/fr/silicon/news/2007/08/27/open-xml-revirement-surprise-de] (pour), le Brésil (contre) et [l'Inde->http://www.lemondeinformatique.fr/actualites/lire-l-inde-ne-supportera-pas-open-xml-a-l-iso-23748.html] (contre). Aux dernières nouvelles, la France, au terme d'un [débat houleux->http://www.couchet.org/blog/index.php?2007/08/30/277-afnor-et-ooxml-verdict-lundi] au sein de l'AFNOR, s'apprêterait elle aussi à [refuser la normalisation->http://www.mac4ever.com/news/31519/l_afnor_un_non_en_l_etat_a_l_office_open_xml/]. Toutes les positions adoptées par chacun des pays seront dans un second temps rassemblées, et détermineront la décision finale de l'ISO.
2007-09-03 12:40:12
Avec Wikio
http://www.wikio.fr/search/open+xml
i>Médias est un programme culturel organisé pour faire découvrir à tous les publics d'Annecy et sa région, les nouveaux systèmes de communication que nous utilisons aujourd'hui. Internet, téléphones portables, jeux vidéos, art contemporain, télévision numérique... bouleversent nos certitudes acquises, interrogent notre quotidien. L'interactivité, les réseaux d'informations, l'utilisation croissante des images numériques nous font découvrir de nouveaux mondes. I-médias invite des intervenants à partager en direct, leurs <img2102|left>réflexions et leurs recherches sur ces sujets sensibles lors de visioconférences. Ces visioconférences sont présentées par les étudiants de la licence Information-Communication de l'Université de Savoie. Chaque groupe d'étudiants de la filière imagine avec l'intervenant une interface pour rencontrer le public, prépare les débats, organise la communication. L'ensemble de ce travail est enregistré et donne lieu à l'élaboration d'un CD-Rom. Les enjeux théoriques, esthétiques, pédagogiques et informationnels de ce module événement interactif sont intégrés dans le cursus de la formation. Ils sont étudiés et feront l'objet de débats. dans une recherche universitaire coordonnée par G-SICA (IREGE). Ce programme est organisé par : l'Université de Savoie avec le concours de sa Mission Culturelle et le département Communication & Hypermédia de l'IMUS ; G-SICA (IREGE), Groupe Interlaboratoire sur l'Image, la Communication et les Arts numériques ; l'Espace Culture Multimédia des Carrés labellisé par le Ministère de la Culture, Imagespassages, association culturelle pour les arts visuels et médiatiques, CITIA, Cité de l'Image en Mouvement... L'ensemble de ces visio-conférences se déroule à [l'Espace Culture Multimédia de la MJC d'Annecy-le-Vieux->http://www.mjc-annecylevieux.com/content/blogcategory/15/33/] Programme Jeudi 11 octobre : Carol Brandon et Franck Soudan : "More Sensitiv". Après avoir été invitée par Carine Pauchon à créer une vidéo recouvrant littéralement l'ensemble de la mise en scène de "Sensitive Room" - construite autour des sonnets de Louise Labé (1524-1566) - Carol Brandon réalise une seconde vidéo où le jeu des comédiens est modifié en retour par leur propre représentation, projetée dans la mise en scène... Puis développe avec Franck Soudan une troisième version - More Sensitiv -, actuellement exposée sur la galerie virtuelle ©box ([->http://www.cbox-office.fr] + [->http://www.cbox-office.com]). Ce travail "in process" construit désormais une oeuvre polymorphe que nous pourrons découvrir - avec "Sensitive Room" présentée pour la première fois à Annecy - à l'ECM des Carrés... Après sa licence obtenue cette année Franck Soudan intègre un Master hypermédia à Paris 8. Carol Brandon est en poste depuis septembre 2007 à l'IUT d'Annecy-le-Vieux > [->http://www.artvideo-cb.fr] jeudi 22 novembre : Edmond Couchot : "Se considérant plutôt comme un "artiste intermittent" en marge du système de l’"art contemporain", Edmond Couchot se consacre de plus en plus à des activités théoriques. Passionné par les sciences et les techniques, et en particulier par la cybernétique, il fait partie, dès le début des années soixante, de la Société française de cybernétique (présidée par Abraham Moles, auteur bien connu de Théorie de l’information et perception esthétique) où se retrouvent, informaticiens, mathématiciens, architectes, philosophes, sociologues, musiciens, plasticiens et autres..." (sources Wikipédia). Edmond Couchot présentera son nouveau livre : Des images, du temps et des machines, dans les arts et la communication : "À l’heure où les technologies numériques tendent à contrôler de plus en plus étroitement la sphère de la communication et de l’art dans le monde et bouleversent nos relations avec les images, Edmond Couchot dévoile ici les articulations cachées qui lient ces dernières aux machines, mais aussi au temps. Toute image sécrète une temporalité qui lui est propre et ne livre son sens que si le regardeur la partage. À partir de ce constat, l’auteur décrit l’évolution des images et de la temporalité qui les caractérise — de l’icône médiévale à l’image numérique —, lorsque leur production, après avoir requis la main des peintres mobilise des machines de plus en plus complexes et autonomes. Edmond Couchot souligne en particulier les changements radicaux que nous vivons actuellement avec l’émergence d’une nouvelle temporalité imposée par les machines numériques (ordinateurs, réseaux mondiaux de communication, jeux électroniques ou dispositifs artistiques) qui affecte profondément nos comportements quotidiens et les fondements mêmes de notre culture. Toute notre manière de vivre et de concevoir le temps est à réinventer." (Éditions Jacqueline Chambon / Actes Sud, Paris, 2007, résumé en 4ème de couverture). jeudi 13 décembre : Norbert Hillaire : "La question de la transmission est indissolublement une affaire technique et temporelle. Les grands œuvres sont celles qui emportent avec elles l’énigme de leur propre réception à venir, comme proposition à la fois technique et "mystagogique". En ce sens, le modèle de la transmission à venir (aux temps où la Transmission fondée sur l’autorité d’un maître et d’un savoir ne fonctionne plus) serait à chercher du côté de certaines sociétés qui s’avancent vers leur passé. Tel est le cas de certaines œuvres qui se présentent comme autant de pièges à retardement, et qui intègrent à leur propre poïèse le problème et l’incertitude de leur réception à venir se présentant ainsi comme des œuvres au futur antérieur. Œuvre à effet-retour ou à effet-retard et qui doivent anticiper sur les conditions techniques actuelles et à venir de la mémoire et de la transmission" (Résumé "Le futur antérieur de l’œuvre d’art" revue Multitudes, HS n°1, 2007). jeudi 17 janvier : Hortense Gauthier & Philippe Boisnard développent depuis plusieurs années des activités liées à la performance, les NTIC, Internet et à l'édition de revues, comme par exemple la revue Talkie-Walkie & talkiewalkie.org. À cette occasion Hortense Gauthier et Philippe Boisnard réaliseront une performance en direct via Internet, depuis un lieu encore à définir. Cette visioconférence clôturera la journée des Sorbets Interactifs > [->http://talkiewalkie.org] / [->http://www.hp-process.com] / [->http://www.libr-critique.com] jeudi 07 février : Catherine Beaugrand. "Depuis près de vingt ans, Catherine Beaugrand mène l’enquête sur les processus que nous mettons en œuvre pour penser le monde où nous vivons, y compris dans ses mutations les plus pointues. Une formation scientifique et des études en ethnopsychiatrie nourrissent les débuts d’une recherche sur la manière dont la pensée prend forme et sens dans le champ de la représentation. L’image, lieu majeur de la représentation, s’inscrit d’emblée au cœur de sa démarche.Ses premiers travaux, qu’elle décrit comme "un cinéma sans film", recourent à l’image graphique et au dessin. Ils testent les capacités de l’image à figurer, à signifier, à convoquer des contextes de référence, à induire des structures narratives. En exploitant les possibilités morphologiques et syntaxiques de ce langage, Catherine Beaugrand élabore une sorte de grammaire de l’image dont le propos s’étend bientôt à l’objet, à l’espace de sa présentation et gagne d’autres langages" (Dominique Abensour, Le Quartier, Quimper). Son projet "Spectator" est également présenté dans la galerie virtuelle ©box. Cette visioconférence sera mise en place depuis La Cité du Design à Saint-Étienne (dans le cadre de la convention entre G-SICA et la Cité du Design). jeudi 13 mars : Martin Le Chevallier. Né en mai 68, Martin Le Chevallier a d’abord exercé comme graphiste. À partir de 1996, il entreprend des recherches personnelles autour de questions sociales et politiques. Ces recherches débouchent sur des affiches diffusées en affichage sauvage puis sur le cédérom Gageure 1.0 (1999), une mise en forme labyrinthique du discours de l'entreprise. Il réalise ensuite Flirt 1.0 (2000), un jeu de séduction constitué d'extraits de films noirs américains, et un jeu de vidéo-surveillance, Vigilance 1.0 (2001). Il est pensionnaire de l'Académie de France à Rome d'octobre 2000 à septembre 2001 où il se consacre à l’évocation d’une société utopique, à travers une vidéo interactive: Félicité. Cet éloge de l’oisiveté suscite la conception d’une autre vidéo interactive, Oblomov (2001), dans laquelle il confronte l’inertie du personnage à l’impatience du spectateur. Il explore ensuite à nouveau ce support avec Une minute de silence (2003), un dispositif réalisé en collaboration avec l’écrivain Tiphaine Samoyault, qui propose une déambulation parmi les pensées et les perceptions de personnes réunies après le 11 septembre 2001. En 2003, il réalise deux nouveaux projets critiques: Safe society, une vidéo parodiant l’idéologie sécuritaire et Doro bibloc, un serveur téléphonique à l’écoute de nos pulsions consuméristes. En 2004, il met en scène les revirements existentiels du Papillon (2005), sa nouvelle vidéo interactive. Après avoir présenté en 2007 le Chicken Bench, un logiciel de combat, il travaille actuellement sur un projet d'encyclopédie utopique, "Abolitions" et sur un projet d'installation vidéo portative: "De qui êtes-vous l'avatar?" > [->http://www.martinlechevallier.net]
2007-10-02 23:19:23
i>Médias
http://www.mjc-annecylevieux.com/content/blogcategory/15/33/
Les récents événements qui se sont déroulés à la Gare du Nord à Paris, ont relancé l'intérêt pour la généralisation des systèmes de surveillance vidéo, sous l'impulsion du Premier Ministre notamment qui, en visite sur les lieux, [a déclaré vouloir installer «des caméras partout»->http://www.lefigaro.fr/france/20070903.WWW000000615_des_cameras_partout_a_la_gare_du_nord.html]. Dans ces conditions, et avec l'exemple du voisin britannique, qui apparaît aujourd'hui comme [le champion de la surveillance vidéo->http://fr.novopress.info/?p=9053], il semble difficile de vouloir résister à la généralisation de ces dispositifs dans l'espace public, malgré les protestations d'association de protection de la vie privée, comme [Souriez vous êtes filmés->http://souriez.info/]. Quatre chercheurs canadiens viennent pourtant de publier un article très intéressant sur le sujet dans le dernier numéro de la revue [Media, Culture and Society->http://mcs.sagepub.com/] qui vient de paraître. Intitulé [«Media, communication and the establishment of public camera surveillance programmes in Canada»->http://mcs.sagepub.com/cgi/reprint/29/5/727], leur article tente de limiter la portée et la pertinence du paradigme du panopticon pour comprendre les mécanismes sociaux qui conduisent à la généralisation de l'implantation des caméras de video-surveillance. Leur argument principal repose sur l'idée qu'il est nécessaire d'être attentif au contexte socio-culturel pour analyser ces phénomènes. Ainsi, le modèle du panoptique, parce qu'il présuppose une distinction radicale entre surveillants et surveillés oblitère le fait que, dans un certain nombre de cas, ce sont les citoyens eux-mêmes, via des associations de terrain déployées au niveau du quartier et de la municipalité, qui sont à l'initiative de la mise en place des caméras vidéos. A l'inverse, les auteurs montrent, sur des exemples canadiens, qu'à partir du moment où ce type de projet est lancé, l'acceptation sociale n'est pas automatiquement gagnée. Ils analysent en particulier deux cas où, de manière très différentes, une mobilisation massive et presque spontanée de la population locale, ou, à l'inverse, l'activisme d'une petite association spécialisée, ont bloqué l'aboutissement des projets de vidéo-surveillance. Ils montrent par ailleurs que dans les discussions qui se sont multipliées sur cette question, la presse locale est loin d'avoir joué le rôle de relais systématique de l'opinion de la classe politique ou des milieux d'affaires en faveur de ces dispositifs. La conclusion des quatre chercheurs n'est pas inintéressante. Ils montrent que dans le contexte de traitement émotionnel du crime qui est aujourd'hui la règle dans les médias, les discussions triviales et les discours politiques, les conséquences en terme de décision publique ne sont pas prédeterminées. En d'autres termes, l'espace pour la discussion reste ouvert et peut permettre à de véritables débats, plus équilibrés qu'on pourrait le croire, d'émerger. La nouvelle n'est pas si mauvaise pour tous ceux qui n'acceptent pas l'entrée progressive de nos sociétés dans des situations de servitude volontaire.
2007-09-05 02:19:21
Media, Culture and Society
http://mcs.sagepub.com/cgi/content/refs/29/5/727
Devenue publication de référence, l'encyclopédie en ligne ouverte et collaborative [Wikipedia->http://www.wikipedia.org] est en train de devenir un lieu où se concentrent, se font et se défont les réputations virtuelles d'un nombre croissant de personnalités plus ou moins célèbres, mais aussi d'entreprises et éventuellement d'établissement publics. La tentation est dès lors grande, pour les uns et les autres, de modifier à leur avantage les articles les concernant, puisque par principe, Wikipedia autorise n'importe qui à modifier à tout moment l'ensemble des textes qui y sont publiés. Il reste que l'opération n'est pas sans risque ; car l'ouverture absolue entraîne une surveillance totale et [une traçabilité de chacune des modifications effectuées en ligne->http://www.homo-numericus.net/spip.php?article275], auxquelles sont rapportées les identifiants informatiques (adresses [?IP]) des ordinateurs d'où proviennent ces modifications. Bien que ce ne soit pas facile, il est ainsi parfois possible d'identifier la personne réelle à qui appartient l'ordinateur à partir de cet identifiant. Certains se sont ainsi fait surprendre en flagrant délit d'enjolivement de leur propre biographie. Si l'identification des individus n'est pas aisée, celle qui concerne les organisations, privées ou publiques l'est beaucoup plus, car, appuyées sur des réseaux qui leur sont propres, les plages d'adresse qui leur sont attribuées sur Internet sont quasiment des informations publiques. Il est dès lors très facile de savoir qu'une personne travaillant au sein de tel entreprise privée ou de tel ministère a modifié dans tel ou tel sens une ou plusieurs pages sur Wikipedia. Très récemment, un étudiant de l'Université technologique de Californie a programmé un outil permettant de systématiser ces recherches. Le [Wikiscanner->http://wikiscanner.virgil.gr/] a ainsi permis de lever quelques lièvres amusants. Si l'on s'intéresse au contexte français, on se reportera utilement au nouveau site développé par [Jean-Marc Manach->http://www.rewriting.net/], journaliste et activiste spécialisé dans le domaine des nouvelles technologies, qui recense les plus belles modifications en provenance d'entreprises et d'administrations françaises. Titré [Wikivala->http://manhack.net/wikiscanner/index.php], le site ne manque pas de saveur. On y voit pris au piège rien moins que des entreprises comme Microsoft et TF1, ou des organismes comme la SACEM, le Ministère de la Défense ou le palais de l'Elysée.
2007-09-06 09:36:49
Wikivala
http://manhack.net/wikiscanner/index.php
Le [Blackberry->http://www.blackberry.com/], outil de communication de poche, sans fil et doté d'un clavier, permet de recevoir des messages mails, et d'y répondre en tous lieux et à toute heure du jour et de la nuit. Très utilisé par les entreprises, il permet à leurs collaborateurs d'être joints en permanence et facile donc la mobilité. Très tôt, cet outil a été dénoncé comme étant à l'origine de dérives inquiétantes. Il est connu que la multiplication des outils mobiles de communication, ordinateurs et téléphones portables en particulier, entraîne mécaniquement un allongement des journées de travail et provoquent un empiètement de la vie professionnelle sur la vie privée. Le Blackberry est souvent désigné comme le point extrême de cette dérive. Il entraînerait de véritables problèmes d'addiction chez nombre de ses utilisateurs. Ce sont ces phénomènes justement qu'analyse JoAnne Yates, professeur à l'Ecole de Management du MIT au cours d'une [conférence dont la vidéo est visible en ligne->http://mitworld.mit.edu/video/471/]. Menée sur la base d'entretiens approfondis avec des drogués du «Crackberry», comme l'un d'eux l'appelle, son enquête l'a conduite à un certains nombres de conclusions pour le moins pertinentes, qui expliquent essentiellement pourquoi le phénomène est si difficile à combattre. JoAnne Yates montre très bien en particulier combien les utilisateurs addictifs du Blackberry développent un fort sentiment de culpabilité en s'attribuant entièrement la responsabilité de ces usages désordonnés. Comme pour les drogues, on est alors le plus souvent dans le registre moral du dérèglement psychologique, alors que la réalité est en fait tout autre : outil de communication, le Blackberry constitue le support à des usages qui se définissent et se transforment collectivement. Elle montre bien par exemple, que la simple possession d'un Blackberry, entraîne de la part des correspondants d'un utilisateurs, une véritable attente - qui s'intensifie avec le temps - à ce qu'il réponde en permanence et à l'instant aux messages qui lui sont envoyés. De la même manière, l'allongement de la durée du travail par l'intermédiaire de cet outil ne résulte pas forcément, selon elle, de la volonté des entreprises d'accroître la productivité et la disponibilité de leurs salariés par ce moyen. Elle cite au contraire le cas d'une entreprise où le Blackberry a été compris comme un moyen de leur permettre de rentrer plus tôt chez eux et de disposer de plus de temps pour leur vie familiale. C'est précisément l'inverse qui se produit : accaparés par leur outil, un certain nombre d'utilisateurs deviennent totalement indifférents à leur environnement immédiat. Autre effet paradoxal souligné par la conférencière, le Blackberry perturbe aussi le travail au sein des entreprises elles-mêmes. Car le même isolement se retrouve dans les réunions de travail où il est parfois difficile de conduire les participants à échanger entre eux, chacun restant attaché à son outil. Pour finir, JoAnne Yates prodigue [quelques conseils aux managers pour sortir de la spirale infernale du Blackberry->http://mitworld.mit.edu/video/471/].
2007-09-06 10:13:29
MIT World
http://mitworld.mit.edu/video/471/
Une nouvelle vague de spams de grande ampleur est en train de se propager depuis quelques jours à travers Internet. Le site web qui en est à l'origine se nomme Quechup. Il s'agit d'une plate-forme sociale, un peu similaire aux plus connus Facebook, Myspace, Linkedin ou Orkut. Les plate-formes sociales sont des logiciels en ligne offrant à leurs utilisateurs de gérer via un site web leurs relations sociales par l'intermédiaire de plusieurs outils de communication. Leur intérêt croît donc, pour un utilisateur, avec le nombre de personnes de sa connaissance qui utilisent la même plate-forme que lui. C'est sur cette propriété de base que s'appuie Quechup pour développer son activité illicite. Lorsqu'un internaute s'inscrit sur une plate-forme sociale, quelle qu'elle soit, on lui propose de scanner son carnet d'adresse pour trouver d'éventuels correspondants qui seraient déjà utilisateurs de la plate-forme. Le cas échéant, il peut demander l'envoi d'un message à ceux qui ne le sont pas pour les inciter à s'inscrire ; ce qui accroît l'utilité pour lui de la plate-forme. Dans la plupart des cas, toutes ces opérations restent sous le contrôle de l'internaute. A tout moment, il a la possibilité d'interrompre la procédure, ou de choisir à qui exactement les messages vont être envoyés. Certaines plate-formes, et Quechup est l'un d'elle, ne respectent pas cette règle. Abusant de la confiance des internautes, elles utilisent l'accès qu'elles ont obtenu aux carnets d'adresse, pour envoyer des messages commerciaux hors de tout contrôle. L'opération est particulièrement efficace ; car les messages envoyés le sont au nom des personnes abusées. Le crédit dont elle jouissent auprès des contacts de leur carnet d'adresse s'étend aux messages et aux propositions qu'ils contiennent : une invitation à s'inscrire à son tour sur la plate-forme. Abusés dans leur confiance, les contacts répondent positivement à l'invitation et la chaîne se propage. Elle a déjà fait des ravages [en Amérique du Nord->http://news.google.com/nwshp?hl=en&ned=&ie=UTF-8&oe=UTF-8&tab=wn&q=quechup], où des centaines de blogueurs se plaignent d'avoir été abusés. En France, le consultant Fred Cavazza en a été [une des premières victimes->http://www.fredcavazza.net/2007/09/06/non-au-spam-social-de-quechup/]. La réputation dont il jouit, et -ironie-, singulièrement sur le sujet des plate-formes sociales, a en fait un auxiliaire particulièrement efficace du piège, contre sa volonté. Le phénomène est inquiétant. Il l'est pour les internautes car il constitue une atteinte considérable à la vie privée. Il l'est aussi et surtout pour le secteur tout entier des plate-formes sociales car il détruit irrémédiablement la propriété essentielle des relations sociales sur laquelle elles construisent leur activité : la confiance. Pour fonctionner, pour offrir les services qu'elles prétendent offrir, les plate-formes sociales demandent à leurs utilisateurs de leur confier ce qu'ils ont de plus précieux : leurs relations sociales. Elles sont tenues en retour à un comportement irréprochable sur ce point au risque de détruire la confiance qu'ils placent en elles. Mais il n'y a rien de plus fragile que la confiance. Et les forfaits de quelques-unes d'entre elles rejailliront immanquablement sur tout le secteur. Victime d'une vague de spam envoyé en son nom à tous ses amis et relations de travail, qui acceptera à nouveau de communiquer son carnet d'adresse à une plate-forme sociale ? On voit tout l'intérêt que les entreprises du secteur ont à réagir avec la plus extrême rigueur pour éliminer dans les plus brefs délais les quelques moutons noirs qui sapent irrémédiablement les bases sur lesquels elles cherchent à créer de la valeur.
2007-09-09 01:56:05
Fred Cavazza
http://www.fredcavazza.net/2007/09/06/non-au-spam-social-de-quechup/
«Lectures industrielles» : l'expression est de François Giffard qui vient de publier sur son site personnel une partie du [rapport qu'il a remis récemment au Ministère de la Culture->http://alaingiffard.blogs.com/culture/2007/09/lectures-indust.html] sur les pratiques de lecture à l'ère numérique. Il s'agit pour lui de montrer qu'un des traits caractéristiques de la révolution numérique est une industrialisation sans précédent des pratiques de lecture. Celle-ci se manifeste sous trois formes : le poids grandissant de l'architexte qui transforme le lecteur en opérateur d'ingénierie textuelle, la médiatisation de la lecture par un ensemble de machines, logiciels et technologies, et enfin le contrôle de l'accès à l'information par les moteurs de recherche. On lira sur le blog de l'auteur les conclusions intéressantes qu'il tire de cette analyse. En attendant, on peut les rapprocher des quelques informations qui ont, cette semaine, annoncé l'imminence d'un nouvel âge pour le livre. C'est d'abord la présence de plus en plus marquante de Google dans le secteur. Après avoir lancé son produit Google Books, le plus célèbre des moteurs de recherche [offre un service de personnalisation, MyLibrary,->http://affordance.typepad.com/mon_weblog/2007/09/google-books-pa.html] permettant à ses utilisateurs de se constituter leur bibliothèque personnelle parmi ceux qui sont répertoriés dans Google Books. Enfin, l'entreprise a plus récemment encore annoncé son intention de vendre prochainement des livres numériques par cet intermédiaire. [Hubert Guillaud, dans le blog LaFeuille->http://lafeuille.blogspot.com/2007/09/google-books-demain-litunes-du-livre.html], propose l'hypothèse selon laquelle ce service pourrait constituer l'iTunes du livre, voire plus, par exemple sous forme d'abonnement permettant d'accéder à des catalogues entiers d'éditeurs. Du côté français en tout cas, progresse l'idée que dans ces conditions, la puissance publique doit reconfigurer son mode d'action. Un récent rapport, [signalé par François Bon->http://www.tierslivre.net/spip/spip.php?article974], préconise ainsi la transformation du Centre National du Livre en agence dont les compétences seraient assez différentes, et propose de soutenir de manière plus volontaire ce qu'il appelle l'écriture numérique. L'organisation d'ateliers d'écriture numérique dans les lycées et les collèges, la création d'un prix du livre numérique jeunesse ne sont pas les moins originales des propositions par lesquelles [le rapport->http://www.audits.performance-publique.gouv.fr/bib_res/806.pdf] se conclut.
2007-09-10 13:14:15
Alain Giffard
http://alaingiffard.blogs.com/culture/2007/09/lectures-indust.html
A lire, l'essai récemment publié par Yann Moulier-Boutang aux éditions Amsterdam, sur ce qui constitue, selon lui, la dernière grande mutation du capitalisme. Intitulé [Le capitalisme cognitif, la nouvelle grande transformation->http://www.amazon.fr/gp/product/2915547483?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2915547483], cet ouvrage propose une analyse en contrepoint de la notion de société de l'information, et qui tend à mettre au jour les processus d'accumulation du capital tels qu'ils sont à l'oeuvre aujourd'hui. En voici la présentation de l'éditeur : «Notre époque n'est assurément pas celle d'une transition vers le socialisme. L'ironie de l'histoire est que, si transition il y a, comme nous le pensons, il s'agit d'une transition vers un nouveau type de capitalisme. De ce point de vue, le socialisme et la gauche semblent en retard d'une révolution. La " mondialisation " actuelle correspond en effet à l'émergence, depuis 1975, d'un troisième type de capitalisme. Celui-ci n'a plus grand chose à voir avec le capitalisme industriel qui, à sa naissance (1750-1820), rompit avec le capitalisme mercantiliste et esclavagiste. L'objectif de ce premier volume de la collection Multitudes/Idées est de décrire et d'expliquer de façon claire et accessible les caractéristiques de ce troisième âge du capitalisme. Pour analyser la Nouvelle Grande Transformation à laquelle nous assistons, nous nous proposons d'exposer le contenu d'un programme de recherche que résume l'expression de " capitalisme cognitif ". Bien que cette notion constitue une hypothèse de travail, elle fournit selon nous d'ores et déjà quelques idées directrices fondamentales, mais aussi des points de repères indispensables pour l'action. L'économie politique qui naquit avec Adam Smith ne nous permet plus d'appréhender la réalité qui se construit sous nos yeux (ce que sont la valeur, la richesse, la complexité du système de l'économie-monde) - ni a fortiori de traiter les défis qui attendent l'humanité, qu'ils soient écologiques ou sociétaux. Cet essai entend ainsi nous mettre sur le chemin d'une politique et d'une morale provisoires à la hauteur de cette Nouvelle Grande Transformation.» Economiste, animateur de la revue [Multitudes->http://multitudes.samizdat.net/], Yann Moulier-Boutang est un proche de Toni Negri. Il a publié plusieurs articles éclairants sur les régime de la propriété intellectuelle à l'ère numérique et la notion de [nouvelles clôtures->http://www.ulb.ac.be/socio/cmarx/Cahiers/Microsoft%20Word%20-%20YMB-usage%20externe.pdf]. On peut lire sur le site du groupe Transversales, [une critique de cet ouvrage, publiée par Jean Zin.->http://grit-transversales.org/article.php3?id_article=221]
2007-09-10 13:32:19
Le capitalisme cognitif, la nouvelle grande transformation
http://www.amazon.fr/gp/product/2915547483?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2915547483
Avant les loisirs, c'est la vie professionnelle qui a été le plus profondément modifiée par la révolution numérique : l'environnement de bureau ne ressemble plus du tout à ce qu'il pouvait être il y a encore vingt ans. Plusieurs articles publiés cette semaine indiquent que la révolution est loin d'être finie. C'est d'abord la grande affaire de la normalisation du format de documents Open XML proposé par Microsoft [dont Homo Numericus s'est fait l'écho->http://www.homo-numericus.net/spip.php?breve912]. Son échec temporaire annonce peut-être la fin du monopole de cette société sur les logiciels bureautiques. En tout cas, un de ses concurrents les plus menaçants, la suite [Open Office->http://fr.openoffice.org], vient de voir sa côte de popularité encore monter, avec [l'annonce d'un soutien officiel de la part de la société IBM->http://www.zdnet.fr/actualites/informatique/0,39040745,39372851,00.htm?xtor=RSS-1]. Big blue va ainsi distribuer la suite bureautique avec ses propres produits, et participer aux développements entrepris au sein de la communauté Open Office. Cette information confirme ce qu'on sentait depuis quelque temps : le marché des outils bureautiques est en train de sortir de la léthargie dans laquelle plus d'une décennie de monopole l'avait plongé. Avec la certification ISO du format de documents [?ODF] et l'apparition de logiciels pouvant sérieusement faire concurrence à Microsoft Office, la situation semble bien pouvoir évoluer vers un meilleur équilibre de marché en termes de concurrence. Mais les jeux ne sont pas faits. Car le développement des technologies Web est à l'origine d'une multitude de services bureautiques en ligne. Des suites comme [Zoho->http://www.zoho.com], [Contact Office->http://www.contactoffice.com] ou [Google docs->http://docs.google.com] permettent aujourd'hui d'utiliser un traitement de texte, un tableur et d'autres outils directement à l'intérieur de son navigateur. Les entreprises risquent fort de s'intéresser de très près à ce type d'outils, qui ne nécessitent pas d'installation, sont simples d'utilisation et gratuits pour la plupart d'entre eux. Christian Fauré [montre ainsi sur son blog->http://www.christian-faure.net/2007/08/02/piloter-un-projet-avec-des-applications-gratuites-en-ligne/], qu'il est possible de conduire des projets collaboratifs en utilisant toute une palette de services de ce type. Les outils influent eux-mêmes sur les usages. Car ces logiciels en ligne tirent bien mieux partie de leurs fonctions collaboratives, puisqu'il sont en réseau, que ne le font les logiciels classiques installés. On peut dès lors se demander s'ils n'annoncent pas une véritable évolution dans les relations de travail, qui seraient moins hiérarchiques et rigides, et plus horizontales et collaboratives. C'est ce qui semble se dessiner en tout cas à la lecture du compte rendu qu'Edgar Pisani [publie sur Transnet de la conférence Office 2.0->http://pisani.blog.lemonde.fr/2007/09/08/les-2-batailles-doffice2/] qui s'est récemment déroulée à San Francisco. L'évolution est surtout perceptible dans les petites entreprises semble-t-il, mais les grandes, où les résistances sont plus fortes pour d'évidentes raisons bureaucratiques, semblent exposées elles aussi à ces changements. Et ce sont les individus qui les introduisent. Utilisateurs d'applications Web 2.0 pour leurs loisirs, ils cherchent à retrouver le même type de relations au sein de leur environnement de travail, constate-t-on, malgré les résistances des directions informatiques, évidemment.
2007-09-11 23:32:19
Transnet
http://pisani.blog.lemonde.fr/2007/09/08/les-2-batailles-doffice2/
L'association Wikimédia France organise le [Premier colloque francophone sur Wikipédia,->http://colloque.wikimedia.fr/2007/] en partenariat avec le Carrefour numérique de la Cité des sciences. Durant deux jours, des universitaires, des enseignants, des documentalistes, des journalistes, des chercheurs, des spécialistes des NTIC et des contributeurs aux projets Wikimedia vont débattre de différentes questions autour de Wikipédia et des autres projets (Wikisource, Wikinews, Wikiversity, etc.). Wikipédia est devenu un véritable phénomène sur internet, dans les 15 sites les plus visités par les internautes depuis de nombreux mois, et le seul site culturel et non-commercial parmi les 30 sites les plus populaires (chiffres de Médiamétrie pour la France). Ce colloque est l'occasion de faire l'état des lieux et de réfléchir à l'amélioration du contenu et sa fiabilité, à la faisabilité des projets de validation, à l'utilisation de Wikipédia dans un cadre pédagogique, etc. Trois thèmes seront plus particulièrement abordés : * Les relations entre Wikipédia et l'enseignement. Wikipédia peut être utilisé comme centre de ressources documentaires, mais aussi comme lieu d'apprentissage du travail coopératif. Deux autres projets frères de Wikipédia viennent le compléter : Wikiversity, site de cours libres, et Wikisource, site d'ouvrages numérisés. * La question de l'expertise. Pour améliorer les contenus, la référence à des experts paraît être une nécessité, mais comment procéder pour ne pas restreindre l'ouverture de Wikipédia ? Comment définir la notion d'expert ? Si l'expert ne devient pas contributeur, comment le solliciter ? Comment animer des réseaux d'experts ? * La validation. Depuis quelques années diverses techniques de validation sont à l'étude. Où en sont les tests techniques ? Comment mettre en place cette validation ? Durant ces deux jours, diverses communications porteront sur la Wikimedia Foundation, le support technique, les différents projets, les études consacrées à Wikipédia, etc. Vous trouverez sur le site du colloque le programme complet, des forums de discussion, un formulaire d'inscription (gratuite).
2007-09-12 10:25:24
Colloque Wikipédia
http://colloque.wikimedia.fr/2007/
Le quotidien financier Les Echos vient de lancer [une nouvelle offre d'abonnement->http://www.lesechos.fr/epaper/inscription.htm] comportant la fourniture d'une tablette de lecture électronique qui permet de recevoir et de lire tous les matins une version numérique du journal. Cet abonnement e-paper s'inscrit dans un mouvement annoncé de retour sur le marché des e-book après l'échec retentissant des premières machines, comme le [Rocket E-book->http://www.amazon.com/Franklin-Covey-EB-500-Rocket-eBook/dp/B00000JSFS] ou le[ Cybook->http://www.zdnet.fr/actualites/informatique/0,39040745,2119806,00.htm] il y a cinq ou six ans. Depuis, les technologies ont évolué. Les procédés que l'on qualifie d'[encre électronique notamment->http://www.cite-sciences.fr/francais/ala_cite/science_actualites/sitesactu/dossier.php?id_dossier=421], ont considérablement amélioré le confort de lecture. Le [lecteur proposé par Sony->http://en.wikipedia.org/wiki/Sony_Librie_EBR-1000EP], sous le nom de Librié au Japon et de Reader aux Etats-Unis semble apprécié de ses utilisateurs. Il n'est toutefois pas possible de dire à l'heure actuelle des développements, si cette nouvelle génération de machines emportera la mise et provoquera une dématérialisation irréversible du texte, comme l'ipod et les autres lecteurs de mp3 ont pu le faire pour la musique. Trois facteurs avaient en effet pu être identifiés à l'origine du fiasco des e-books de première génération : la piètre qualité d'affichage, le verrouillage des formats, et les prix trop élevés aussi bien en ce qui concerne les machines que les livres eux-mêmes. A première vue, il semble bien qu'un seul de ces trois facteurs ait véritablement changé. L'initiative d'Amazon, qui [proposera sa propre machine dans les prochaines semaines->http://www.ratiatum.com/breve5605_Amazon_la_derniere_chance_pour_l_eBook_de_faire_ses_preuves.html] en est bien la preuve : le Kindle ne pourra lire que des fichiers au format [Mobipocket->http://www.mobipocket.com/en/HomePage/default.asp?Language=FR], le rendant incompatible avec tout autre distributeur de livre électronique. Les prix, quant à eux, demeurent très élevés. L'offre des Echos s'établit entre 600 et 700 euros pour un an par exemple. De manière plus générale, si on veut acquérir une machine sans passer par ce type d'offre, il faudra débourser un minimum de 300 euros ; ce qui est bien plus élevé que pour un lecteur de mp3 et le rapproche du coût d'un véritable ordinateur. Enfin, le prix d'acquisition des contenus reste aussi très élevé. La [librairie numérique que Les Echos->http://librairie.lesechos.fr/histoire-m228.html] propose sur son site est caractéristique : il s'agit pour l'essentiel de livres du domaine public proposés aux alentours de 5 euros l'unité. La Grandeur des Romains de Montesquieu dans un fichier à plus de 4 euros ? De qui se moque-t-on ? Pas sûr dans ces conditions que le décollage du secteur soit pour tout de suite. On a l'impression que les industriels repartent dans les même erreurs qu'autrefois, en proposant des machines chères et attachées à une offre spécifique de contenu. Malgré ses progrès sur le plan technique, le e-book risque fort de ne pas faire le poids face à son concurrent, universel, interopérable et bon marché : le bon vieux livre papier.
2007-09-17 02:16:39
Papier électronique
http://papierelectronique.blogspot.com/
L'examen du projet de loi [présenté demain par le Ministre de l'immigration et de l'identité nationale à l'Assemblée Nationale->http://www.assemblee-nationale.fr/13/dossiers/immigration_integration_asile.asp] risque d'être pour le moins mouvementé. Un amendement adopté par la commission des lois sur proposition de son rapporteur, le député UMP Thierry Mariani, stipule en effet que les candidats au regroupement familial pourront désormais utiliser le test ADN comme élément de preuve pour l'établissement de la filiation. L'annonce de cet amendement a provoqué de nombreuses réactions négatives, y compris dans [les rangs du gouvernement->http://www.lemonde.fr/web/depeches/0,14-0,39-32441811@7-37,0.html] [et de l'actuelle majorité->http://www.lejdd.fr/cmc/politique/200737/immigration-vers-des-tests-adn_54934.html]. Pour la plupart des commentateurs, cette mesure est contraire à l'édifice juridique français sur plusieurs plans :elle établit en effet la filiation sur la seule base biologique ; elle autorise le fichage ADN en dehors d'une procédure judiciaire ; enfin, elle constitue un obstacle supplémentaire au regroupement familial, dans la mesure où les frais, importants, des tests effectués sont à la charge du demandeur, et que dans nombre de pays, il est tout simplement impossible de les effectuer. En prenant davantage de recul, l'association de défense des droits civiques IRIS, [dénonce elle aussi la mesure->http://www.iris.sgdg.org/info-debat/comm-adnvisa0907.html]. Mais elle prend soin, dans son dernier communiqué, de la resituer dans un contexte, marqué par la mutliplication des mesures de fichages reposant sur des identifications de type biométrique, dont la carte d'identité INES et le fichier ELOI constituent les exemples les plus connus. Avec d'autres associations, elle appelle à manifestation demain à 18 heures, non loin de l'Assemblée Nationale. En attendant, on écoutera avec profit l'émission Science Publique de Michel Alberganti, dont le thème cette semaine portait précisément sur [les limites de la biométrie->http://www.radiofrance.fr/chaines/france-culture2/emissions/science_publique/fiche.php?diffusion_id=55303].
2007-09-17 03:05:24
Assemblée Nationale
http://www.assemblee-nationale.fr/13/dossiers/immigration_integration_asile.asp
Après des années d'immobilisme relatif face à la révolution annoncée du journalisme citoyen, la presse écrite française a voulu montré ces derniers mois qu'elle était capable de réaction. Après le lancement d'[Agoravox->http://www.agoravox.fr], portail agrégeant des informations apportées et rédigées par les internautes ; initiative lancée par Joël de Rosnay et Carlo Revelli en marge, et même contre la presse professionnelle existante, deux quotidiens nationaux ont lancé la contre-offensive : de Libération est née le site d'information [Rue89.com->http://www.rue89.com]. Le Monde quant à lui est à l'origine du tout nouveau [Lepost.fr->http://www.lepost.fr] qui fait manifestement un succès d'audience. Très différentes en terme de mode de fonctionnement et de positionnement, les deux initiatives se rejoignent sur un point : elles sont économiquement et juridiquement séparées de leur vivier d'origine. Rue89 par exemple, fondé par quatre anciens journalistes de Libération est une société autonome, vivant sur fonds propres. Lepost de son côté, est une filiale de la société Le Monde interactif. Le prestigieux quotidien de référence [s'évertue pourtant à ce qu'on ne le confonde pas avec son nouveau produit participatif->http://www.lexpansion.com/art/1.0.161369.0.html?xtor=RSS-9]. Malgré les ressemblances de surface - même indépendance par rapport à leur entreprise d'origine, même design rustique et peu avenant, les deux entreprises ont adopté des lignes éditoriales très différentes. Rue89 de son côté, fait le pari d'un futur possible pour la pratique du journalisme professionnel, et singulièrement du journalisme d'investigation. Le journal en ligne compte ainsi à son actif d'avoir [démasqué Alexis Debat, un affabulateur ayant publié dans une revue de politique internationale une série de fausses interviews d'hommes politiques de premier plan, parmi lesquels Barack Obama->http://rue89.com/2007/09/05/une-fausse-interview-dobama-dans-politique-internationale]. Ecrits par des professionnels - salariés ou indépendants -, les articles publiés sur Rue89 présentent donc des scoops, des enquêtes, des décryptages, qui témoignent d'une volonté d'en revenir aux sources du journalisme. De son côté, Lepost fait le pari inverse : plus de journaliste, mais un «coach» ; entendez un modérateur qui oriente le flux de textes en provenance des internautes eux-mêmes. On plonge tête baissée dans le participatif, le fameux web 2.0 dont on dit qu'il tuera la presse professionnelle. Tous les ingrédients sont présents : les user generated contents, bien sûr, mais aussi les groupes, les systèmes de partage, de signalement et de vote dont toute plate-forme participative dispose aujourd'hui. Après quelques jours de fonctionnement, le résultat est là : un flux d'information continu d'où émerge le sensationnel, le superficiel et le trash. Actuellement, on peut y visionner une vidéo montrant [Pluto poursuivant un enfant à Disneyland->http://www.lepost.fr/article/2007/09/17/1020340_attention-pluto-mechant.html], le [baromètre des favoris du Mondial de rugby->http://www.lepost.fr/article/2007/09/17/1020371_le-barometre-des-favoris-du-mondial-de-rugby.html], une passionnante enquête sur [un corps sans tête retrouvé dans une rivière->http://www.lepost.fr/article/2007/09/17/1020331_le-corps-aurait-ete-decoupe-avec-une-meuleuse-ou-disqueuse-electrique.html] ou encore [des statistiques sur les ronflements nocturnes->http://www.lepost.fr/temoignage/2007/09/17/1020091_tu-ronfles-c-est-pas-vrai.html]... A leur manière, Rue89 et Lepost dessine les contours de deux avenirs possibles pour les entreprises de presse à l'heure d'Internet : ou bien le retour à un journalisme resserré sur le métier de base, avec une structure légère de diffusion par le biais des réseaux, ou bien au contraire une dissolution de la pratique journalistique et le basculement vers un pur management de la communication sans contenu.
2007-09-17 13:31:01
Lepost
http://www.lepost.fr
La semaine dernière, [le Tribunal de première instance (TPI) auprès de la Cour de justice européenne a confirmé la condamnation de Microsoft->http://www.lemonde.fr/web/article/0,1-0@2-3234,36-955978@51-955876,0.html] pour abus de position dominante à une amende de près de 500 millions d'euros, ainsi qu'à respecter à l'avenir certaines règles nécessaires à un équilibre de la concurrence. On reproche deux choses à cette entreprise : d'abord, de ne pas rendre possible une interopérabilité suffisante avec ses concurrents sur le marché des serveurs d'entreprise ; ensuite d'imposer l'usage de son lecteur multimedia Windows Media Player en profitant de sa situation dominante sur le marché des systèmes d'exploitation pour ordinateurs personnels. Microsoft avait fait l'objet de [poursuites similaires devant la justice fédérale américaine->http://www.wired.com/wired/archive/8.11/microsoft.html], et à propos cette fois, des navigateurs web. Entamé sous la présidence Clinton en 1998, le procès avait duré de longues années avant que le département de la justice nommé par le président Bush n'y mette un terme, sans désavantage pour l'éditeur de logiciels. Dans le cas présent, les poursuites de l'Union Européenne ont été jusqu'au bout, malgré une procédure très longue. Depuis cette condamnation, beaucoup d'observateurs s'interrogent sur les conséquences. Très récemment, l'affaire a pris une tournure diplomatique avec [le commentaire désobligeant du DoJ->http://www.journaldunet.com/solutions/acteurs/actualite/07/0920-microsoft-doj-reactions.shtml] et [la réponse ferme de la commissaire européenne de la concurrence->http://www.linformaticien.com/Actualit%C3%A9s/tabid/58/newsid496/2940/Condamnation-Microsoft--Neelie-Kroes-indigne-des-ractions-amricaines/Default.aspx], Neelie Kroes. Du côté des partisans du logiciel libre, les réactions sont plus mitigées qu'on pourrait le croire : dans un communiqué, [l'April fait remarquer que cette condamnation arrive bien tard->http://www.april.org/articles/communiques/pr-20070917.html] - trop tard sans doute reconnaît d'ailleurs Neelie Kroes, - pour empêcher les pratiques anticoncurrentielles du la firme. Elle rappelle en outre que «si après des années la Commission Européenne n'a toujours pas obtenu de Microsoft qu'elle se conforme à ses injonctions, on voit mal comment l'autorité de régulation des mesures techniques (ARMT) pourra, en France, y parvenir, surtout vu les limites de son champ d'intervention. La loi DADVSI, votée en 2006 par la majorité, fournit tous les outils nécessaires à Microsoft pour refuser la fourniture d'informations essentielles à l'interopérabilité à la communauté du logiciel libre.» De part et d'autre de l'Atlantique, on s'interroge cependant sur l[es conséquences à plus long terme sur les marchés des nouvelles technologies->http://www.businessweek.com/globalbiz/content/sep2007/gb20070917_608668.htm]. Beaucoup pensent que la condamnation européenne peut constituer un précédent permettant de combattre les monopoles dans d'autres secteurs. Le [fondeur de micro-processeurs Intel est dans le collimateur->http://www.businessweek.com/globalbiz/content/sep2007/gb20070921_968706.htm]. Si cette prévision était confirmée, ce qui est loin d'être certain, la décision de la semaine dernière prendrait une importance historique, car elle manifesterait la capacité retrouvée des Etats à réguler des marchés qui, mondialisés et évoluant naturellement vers la formation de monopoles, semblaient devoir fatalement lui échapper.
2007-09-23 14:11:41
Le Monde
http://www.lemonde.fr/web/article/0,1-0@2-3234,36-955978@51-955876,0.html
La Commission générale de terminologie et de néologie est un organisme missionné par le Ministère de la Culture pour normaliser le vocabulaire désignant en particulier des techniques, objets ou domaines nouveaux. C'est évidemment dans le domaine de l'informatique et d'Internet que son travail est le plus important. Ainsi, la dernière fournée de termes nouveaux, [parue au Bulletin Officiel->http://www.education.gouv.fr/bo/2007/33/CTNX0710300K.htm] fait-elle entrer dans le vocabulaire important des termes comme syndication, assistant ou grille informatique. Parmi ces termes on retiendra le terme «publier», qui est censé traduire l'anglais : to post. Le Journal Officiel précise le sens de ce terme : «publier, v. Domaine : Informatique/Internet. Définition : Introduire un article ou une contribution sur un forum ou dans un groupe de discussion. Équivalent étranger : post (to).» Le langage courant n'a pas attendu la commission de terminologie pour créer un terme équivalent au verbe anglais to post. Il s'agit simplement du bon franglais «poster», qui renvoie, par homonymie et glissement sémantique a un autre type de communication : envoyer un message par la poste. Le terme choisi par le commission n'est pas neutre non plus ; car si publier signifie [dans un premier sens simplement rendre public->http://www.cnrtl.fr/lexicographie/publier], il est aussi, et c'est ainsi qu'il est souvent entendu, un terme qui renvoie à l'édition. Ce sont bien souvent des livres, des journaux qui sont publiés, par opposition à des messages qui sont simplement communiqués. A mi-chemin entre communication privée et publication éditée, le statut juridique des messages de forum, et la responsabilité de ceux qui en assurent la diffusion par l'intermédiaire des plate-formes qu'ils mettent à disposition, furent longtemps incertains. Ainsi, la diffamation via des forums de discussion put entraîner, selon les cas et les juridictions, une responsabilité civile entière, ou limitée au titre de la loi sur la presse de 1881. C'est depuis [la loi de 2004 sur la confiance dans l'économie numérique->http://www.foruminternet.org/documents/lois/lire.phtml?id=733] que la responsabilité des hébergeurs de forums est définie de manière spécifique au titre d'intermédiaire technique. Celui-ci n'est plus considéré comme un éditeur ; il n'a pas les mêmes responsabilités que le directeur de publication d'un périodique papier. Que signifie donc, dans ce contexte, la traduction de to post par publier, sinon un retour vers la confusion et l'assimilation des responsabilités ? Lorsque des interfaces de forum indiquent, en anglais, «post your message», «reply to this message» ou «submit your comment», faut-il traduire ces énoncés par un «publier votre texte» ? Une fois n'est pas coutume, l'usage populaire semble plus clair que la création savante. «Poster un message», anglicisme qui fait sens en français, semble bien plus approprié pour donner une idée de la nature exacte du type de communication dont il s'agit. Il est propre en tout cas, à la distinguer de la démarche de publication, qui, passant par des intermédiaires placés en situation d'éditeurs, est d'une autre nature.
2007-09-24 10:27:39
Bulletin officiel
http://www.education.gouv.fr/bo/2007/33/CTNX0710300K.htm
Le commerce en ligne a véritablement explosé en quantité depuis 2001. Avec une croissance annuelle de près de 40%, ce mode d'achat est en train de s'installer massivement au coeur des habitudes de consommation des français. Malgré l'adoption en 2004 de la Loi sur la Confiance dans l'Economie Numérique, le corpus législatif qui réglemente ce secteur est encore pourtant loin d'être adapté. C'est pour cette raison que le Forum des Droits sur l'Internet a constitué, il y a près d'un an et demi, un groupe de travail chargé d'émettre un certain nombre de recommandations pour améliorer la situation. Le groupe vient de remettre son travail : il s'agit de [cent recommandations touchant plusieurs domaines spécifiques->http://www.foruminternet.org/activites_evenements/lire.phtml?id=166&PHPSESSID=80db8f74556f4049e19ae2e9b69624ee] : droit de rétractation, affichage sur les sites, procédures d'achat, parmi d'autres. Non sans pertinence, le groupe a tenté de prendre en compte, dans son travail, le contexte international. Car il est vrai que contrairement au commerce physique, le commerce électronique définit des [zones de chalandise->http://www.geoconcept.com/?669/Zone-de-chalandise] d'ampleur planétaire. L'harmonisation de la législation française et du droit communautaire constitue de ce point de vue, un chantier particulier. Par ailleurs, le groupe de travail s'est attaqué à la question de la coexistence de plusieurs canaux de distribution. Il est nécessaire selon lui d'harmoniser les informations légales sur les différents supports ou, mieux, les périodes de soldes en ligne et sur le territoire national. Finalement, ce sont toutes les étapes d'un achat en ligne qui ont été passé en revue, jusque dans le moindre détail, tant il est vrai qu'en la matière, le diable est dans les détails. Par exemple, on devrait demander, juge-t-il, aux commerçants, d'harmoniser les intitulés de menus renvoyant aux informations légales d'une part, aux conditions générales de vente d'autre part ; les conditions dans lesquelles peut s'exercer le droit de rétractation devrait faire l'objet d'un affichage clair ; les fonctionnalités d'ajout automatique de produits dans le panier du consommateur (charge à lui de l'en enlever manuellement) doivent être interdites ; et ainsi de suite. Ces recommandations ont été remises à [Luc Chatel,->http://www.premier-ministre.gouv.fr/acteurs/biographie_5/acteurs/gouvernement/secretariat_etat_consommation_tourisme_m636/] secrétaire d’État, chargé de la Consommation et du Tourisme. Il appartient désormais au gouvernement de décider s'il souhaite inscrire certaines des mesures préconisées par le Forum dans son calendrier législatif.
2007-09-26 00:20:03
FDI
http://www.foruminternet.org/activites_evenements/lire.phtml?id=166&PHPSESSID=80db8f74556f4049e19ae2e9b69624ee
Au moment où la junte militaire birmane semble avoir décidé d'[ouvrir un nouveau cycle de répression->http://www.lemonde.fr/web/article/0,1-0@2-3216,36-959953@51-947750,0.html] à l'encontre des manifestants qui s'opposent à elle dans plusieurs villes du [?Myanmar], un certain nombre d'articles de presse mettent en évidence [le rôle que joue désormais Internet->http://afp.google.com/article/ALeqM5ivbstAeBHhg1kUaCBlTQGp_68U4Q] dans la diffusion de l'information à l'extérieur du pays sur les événements qui s'y déroulent. Les nouveaux moyens de communication apparaissent en effet comme un bon moyen de contourner la censure que subit le pays. Installé depuis longtemps et extrêmement puissant, le pouvoir militaire en place contrôle en effet de manière très efficace tout le secteur de l'information et veille à ce qu'aucune nouvelle ne filtre à l'extérieur. Il avait fait la démonstration de cette capacité de contrôle lors des émeutes de 1988 dont la répression avait causé la mort de plusieurs milliers de personnes. A cette époque, le monde extérieur n'avait pas su grand-chose de ce qui s'était passé. La plupart des observateurs sont frappés des différences avec la situation aujourd'hui. De nombreuses photographies et vidéos amateures filtrent en permanence et sont reprises par les médias internationaux. Par mails, via des [blogs->http://ko-htike.blogspot.com/], des forums et des réseaux de discussion, les témoignages abondent quasiment au même moment où les événements se déroulent. On ne peut pourtant s'en tenir à ce niveau d'analyse ; car s'il est vrai qu'Internet est un moyen nécessaire pour contourner la censure, il n'est en rien suffisant en soi. Un [article paru sur le blog du Berkman Center for Internet and Society->http://cyber.law.harvard.edu/home/home?wid=10&func=viewSubmission&sid=2947] montre bien en effet le rôle que jouent les réseaux humains pour la transmission de l'information. Dans le pays d'abord, il semble que des groupes d'étudiants experts dans la manipulation des outils technologiques se soient organisés pour «couvrir» les manifestations se déroulant dans les deux premières villes du pays. A l'extérieur ensuite, la diaspora birmane, organisée en réseaux plus ou moins structurés, joue un rôle essentiel de relais de l'information, en réceptionnant les images et les textes, et en les relayant ou bien directement sur des blogs, ou bien auprès des médias internationaux. C'est finalement sur eux que repose l'utilité de tous ces efforts. Car les images, les témoignages diffusés à l'extérieur du pays ne le sont pas à l'intérieur des frontières. Cette information ne sert donc pas tant à mobilier la population qu'à alerter la communauté internationale à qui il appartient d'agir, de l'extérieur, sur le pouvoir en place. D'un point de vue strictement matériel maintenant, on remarque que l'essentiel de l'information est diffusée par l'intermédiaire des deux cents cybercafés qui sont restés encore ouverts à Rangoon et Mandalay. Tout ce réseau repose donc sur des bases extrêmement fragiles puisqu'il est très facile au pouvoir de fermer ces espaces. Des mesures [commencent d'ailleurs à être prises pour restreindre les communications par Internet et téléphone portable.->http://newsinfo.inquirer.net/breakingnews/infotech/view_article.php?article_id=91069] Une anecdote relevée dans [un article paru sur le site de la BBC->http://news.bbc.co.uk/2/hi/asia-pacific/7012984.stm] mérite d'être relevée. Selon certaines informations, un [manuel d'utilisation des outils de publication sur Internet publié par l'organisation Reporters sans Frontières à destination des cyber-dissidents->http://www.rsf.org/rubrique.php3?id_rubrique=542] semble être utilisé, photocopié et circuler dans les milieux étudiants. Preuve supplémentaire, s'il en était besoin, que la liberté d'information ne naît pas toute seule des ordinateurs et des tuyaux, mais ne peut se développer qu'au sein d'un complexe socio-technique fait d'outils, mais aussi de réseaux humains, de formation et de compétence, de dispositifs médiatiques, et surtout, d'une conscience internationale qui veille à ce que toutes ces éléments demeurent libres.
2007-09-27 02:52:28
BBC
http://news.bbc.co.uk/2/hi/asia-pacific/7012984.stm
Il y a deux ans, Homo Numericus [se faisait l'écho du premier festival de blogs BD->http://www.homo-numericus.net/blog/spip.php?article56], qui se déroulait sur le Cour Saint-Emilion à Paris. L'événement était pour beaucoup l'occasion de découvrir un nouveau type de publication pour la bande dessinée, terriblement efficace, et dévoilant une foultitude de jeunes talents. Ce week-end, ils seront de nouveau réunis au même endroit pour dédicacer leurs dessins : [Cha->http://blog.chabd.com/], [Kek->http://blog.zanorg.com/], [Laurel->http://www.bloglaurel.com/coeur/], [Martin Vidberg->http://www.bulledair.com/everland2/index.php/], [Miss Gally->http://missgally.com/blog/index.php], la révélation de l'année : l'hilarante [Pénélope Jolicoeur->http://www.penelope-jolicoeur.com/], et d'autres encore dont on peut suivre les aventures au fil de leur blog-bd. Cette nouvelle forme d'expression constitue sans doute la forme la plus attirante et la plus intéressante du blog. Car un certain type de bande dessinée s'accommode très bien d'une diffusion rapide et périodique sous forme de strips. Et les dessinateurs qui l'utilisent ont très bien compris comment donner de la réalité à la notion de blogosphère par les renvois, clins d'oeil, fan art qu'ils échangent régulièrement. Pour préparer sa visite, on peut passer par la case...[blog->http://www.festival-blogs-bd.com/], avec celui du festival, qui permet de prendre connaissance des détails pratiques, mais aussi de lire des interviews et bien sûr de découvrir de nouveaux auteurs à travers leur site. A ne manquer sous aucun prétexte.
2007-09-27 14:15:45
Festiblog
http://www.festival-blogs-bd.com/
Après [Agoravox->http://www.agoravox.fr], portail d'actualités collaboratif, après [Rue89.com->http://www.rue89.com], un concurrent fondé par d'anciens de Libération et [LePost.fr->http://www.lepost.fr], l'équivalent développé par Le Monde, le paysage de la presse en ligne est de nouveau secoué par l'arrivée de deux nouveaux venus qui explorent de nouveaux modes de publication. [Nonfiction.fr->http://www.nonfiction.fr] d'abord, pour le haut de gamme. Il s'agit d'une revue d'idées en ligne fondée par Frédéric Martel, journaliste et essayiste, qui tente ici de réaliser l'équivalent français de la prestigieuse New York Review of Books. Collaborative dans une certaine mesure, la revue choisira ses auteurs dans un vivier de jeunes universitaires, à ce qu'on peut lire [dans la presse->http://www.liberation.fr/actualite/ecrans/281251.FR.php]. A l'heure où nous écrivons, le site censé ouvrir ses portes le 1er octobre, n'est toujours pas actif. Signalons par ailleurs l'arrivée sur le marché des magazines en ligne, du tout nouveau [Obiwi->http://www.obiwi.com/], consacré cette fois-ci à la vie quotidienne et aux loisirs. Fondé par deux spécialistes de la presse en ligne, le nouveau magazine parie, contrairement aux initiatives précédentes, sur la motivation que produirait un système de rémunération des contributions clairement établi. Ainsi, à chacune de leurs actions (qualification de l'information, commentaire, suggestions de sujets), les utilisateurs enregistrés sont récompensés par l'attribution de points leur permettant d'accroître leur visibilité sur la plate-forme et d'intensifier leur participation : publication d'articles, puis modération d'autres rubriques, voire responsabilité de rubrique. A terme, les contributeurs les plus assidus pourraient se voir proposer une rémunération en euros et non en points, en échange d'un engagement en terme de régularité. La grande question que pose l'ensemble de ces initiatives, est celle de la viabilité économique. La multiplication des titres au cours des derniers mois n'est en effet que la conséquence d'un phénomène souterrain mais massif : [l'explosion du marché publicitaire en ligne->http://www.journaldunet.com/cc/06_publicite/epub_marche_fr.shtml] qui résulte d'un mouvement de bascule de plus en plus marqué de la part des annonceurs des médias classiques (presse écrite, radios et télévision, affichages) vers les nouveaux. Il reste que, étant donné la faiblesse de la rémunération publicitaire au clic ou à la page vue, un site ne peut espérer dégager des revenus suffisants que s'il bénéficie d'une (très) forte audience. Combien de magazines en ligne, de plate-formes d'actualités collaboratives, de revues haut de gamme le marché français sera-t-il capable de supporter dans les prochaines années ? Nul ne le sait encore. Nul ne sait surtout si la place que vont prendre les très grosses plate-formes internationales, qui tirent aussi leurs revenus de la manne publicitaire, laissera un espace suffisant à ces petites initiatives indépendantes pour leur permettre de survivre dans un environnement dont on a vu la tendance centripète. Pour l'instant en tout cas, la multiplication des publications en ligne, souvent à l'initiative de journalistes ou entrepreneurs de la presse écrite, témoigne d'un véritable sauve qui peut dans ce secteur. Les prédictions les plus alarmistes qui prévoyaient une disparition dans les prochaines années des journaux les plus établis sous la forme que nous leur connaissons semblent se réaliser.
2007-10-01 01:52:57
Sébastien Bailly
http://bailly.blogs.com/pro/2007/09/premires-impres.html
Depuis quelques jours, Microsoft propose au grand public un service de stockage de données médicales personnelles. Baptisé [HealthVault->http://www.healthvault.com/], ce coffre-fort virtuel, surtout destiné à un public américain, permet à chacun de se constituer un dossier médical avec les informations qu'il y entrera. Dans un environnement aussi fragmenté que l'est le système de santé nord-américain, les informations médicales concernant un individu sont en effet disséminées auprès d'un nombre considérable d'acteurs : médecins, hôpitaux, assurances et autres organismes de santé. Le manque d'information ou l'accès à des informations partielles peut s'avérer dangereux dans des moments critiques et est une cause reconnue de mortalité dans certains cas. Là où le système français a pris l'option d'une centralisation au niveau de l'Etat et de la assurance-maladie avec le [Dossier Médical Personnel->http://www.d-m-p.org/index.php?option=com_content&task=view&id=52&Itemid=157], la centralisation nécessaire des données médicales ne peut qu'être gérée par l'individu lui-même de l'autre côté de l'Atlantique. Microsoft a semblé vouloir donner les plus grandes garanties en ce qui concerne la confidentialité des données, aussi bien au niveau technique que légal. D'un autre côté, le titulaire d'un compte a la possibilité d'y donner accès, s'il le souhaite, à des tiers de confiance comme des membres de sa famille et des médecins. La communication des informations, dans un sens ou dans l'autre, peut d'ailleurs être prise en charge [de manière automatisée->http://blog.jonudell.net/2007/10/09/tirekicking-healthvault/]. Le système offre une interface de programmation ([?API]) lui permettant de se connecter ou bien à d'autres systèmes de stockage de données médicales, ou même à des appareils de mesure électroniques qui peuvent alimenter directement le compte, sans saisie manuelle des informations. Des accords avec des entreprises spécialisées dans le domaine de la santé, devraient permettre à HealthVault de se transformer en [véritable plate-forme->http://www.atelier.fr/article.php?artid=35336] à partir de laquelle des services de santé divers et nombreux pourraient être proposés. D'un point de vue commercial cette fois, et dans la mesure où le service est gratuit, ce sont les revenus publicitaires qui sont censés garantir la rentabilité du service. Microsoft met en effet à disposition une version spécialisée de son moteur de recherche Live search pour permettre à l'usager de trouver des informations médicales sur ce qui le préoccupe. Des liens sponsorisés parsèment les résultats retournés. Pour nombre de commentateurs,[ Microsoft vient de réaliser un beau coup face à son adversaire Google->http://www.techcrunch.com/2007/10/04/microsoft-beats-google-to-online-health-records-with-healthvault/] qui n'aura donc pas réussi à être le premier à planter son drapeau sur ce secteur, considéré par beaucoup comme un Eldorado. Les interrogations que soulève la mise en place d'un tel service sont nombreuses. Elle concernent d'abord [la compétence des usagers à constituer et alimenter un dossier médical les concernant->http://arstechnica.com/news.ars/post/20071006-microsoft-wants-your-health-care-records-trust.html]. Le fait que ce soit le patient lui-même qui saisisse les informations le concernant ne garantit pas par exemple que ces informations sont complètes. D'un autre côté, plusieurs commentateurs soulèvent la question de la protection de ces données. L'accès à certaines données médicales par des compagnies d'assurance, des employeurs, des organismes de prêt ou de crédit peut en effet s'avérer désastreux. Certains redoutent que des mandats délivrés par des cours locales ou des perquisitions menées de manière extensive et hors de tout contrôle judiciaire par les autorités gouvernementales aboutissent à violation manifestes de la vie privée. Ce qui est en cause dès lors, n'est pas tant la confiance que l'on peut accorder à une entreprise comme Microsoft pour garantir la confidentialité des données, que [la notion même de centralisation des données->http://lauren.vortex.com/archive/000306.html] sur laquelle repose HealthVault, qui crée un risque non négligeable pour l'individu.
2007-10-10 00:48:25
HealthVault
http://healthvault.com/
Entamé depuis plusieurs années, le débat sur l'avenir du livre à l'ère du numérique semble s'accélérer en ce moment en France. Alors que récemment, la commission des affaire culturelles du Sénat examinait [le rapport Valade->http://www.senat.fr/noticerap/2006/r06-468-notice.html] sur «La galaxie Gutenberg face au « big bang » du numérique», à quelques jours d'écart, la Société des Gens de Lettres organisait [un forum sur «une nouvelle dynamique de la chaîne du livre»->http://lafeuille.blogspot.com/2007/10/les-maillons-de-la-chane-discutent.html]. L'accélération du rythme de la réflexion est provoqué par la conjonction de multiples facteurs qui viennent s'entrechoquer : Des facteurs techniques tout d'abord, avec l'arrivée promise, programmée de lecteurs numériques ([?ebooks]) de bonne qualité. Après les échecs des années 2000, beaucoup d'acteurs se disent que cette fois sera la bonne. [L'expérimentation lancée par Les Echos->http://www.lesechos.fr/epaper/inscription.htm] depuis la rentrée rend beaucoup plus concrète la perspective d'un basculement massif vers une lecture numérique [[Voir à ce sujet [les modulations->http://www.homo-numericus.net/spip.php?breve922] qu'il convient d'apporter à ce point de vue, ainsi que les indispensables réflexions d'[Alain Giffard sur le sujet->http://alaingiffard.blogs.com/culture/2007/09/lectures-indust.html] ]] Du coup, l'attention portée par les acteurs de la «chaîne du livre», comme on dit, aux évolutions possibles de leur modèle d'affaire devient plus aigüe. Or, ce qui est en train de se passer dans le secteur de la musique, considéré, à tort ou à raison, comme précurseur pour les autres secteurs des industries culturelles, n'est pas pour rassurer ces acteurs. [Les récentes décision d'artistes->http://www.ecrans.fr/Musique-sur-Internet-La-revolution,2301.html] de purement et simplement quitter le navire des labels pour s'auto-distribuer sur Internet encouragent ces inquiétudes. Par ailleurs, [l'explosion en cours du paysage de la presse->http://www.homo-numericus.net/spip.php?breve930], que nous signalions récemment, fait paraître la menace encore plus proche. Sur le plan politique et juridique maintenant, des grandes manoeuvres semblent se dérouler dans les coulisses de différents ministères. La [récente tribune de Valérie Pécresse->http://www.lesechos.fr/info/analyses/4628938.htm], sur le mode du toujours plus de tuyaux, toujours plus d'ordinateurs, apparaît en léger décalage par rapport à la réalité des enjeux. Les enjeux, ce sont les négociations engagées dans le sillage de l'adoption de la loi sur les Droits d'Auteur et Droits Voisins dans la Société de l'Information ([DADVSI->http://www.google.fr/custom?domains=homo-numericus.net&q=dadvsi&sitesearch=homo-numericus.net&client=pub-0092074903709305&forid=1&ie=ISO-8859-1&oe=ISO-8859-1&cof=GALT%3A%23008000%3BGL%3A1%3BDIV%3A%23336699%3BVLC%3A663399%3BAH%3Acenter%3BBGC%3AFFFFFF%3BLBGC%3A336699%3BALC%3A0000FF%3BLC%3A0000FF%3BT%3A000000%3BGFNT%3A0000FF%3BGIMP%3A0000FF%3BLH%3A59%3BLW%3A464%3BL%3Ahttp%3A%2F%2Fwww.homo-numericus.net%2Fimages%2Flogogoogle.gif%3BS%3Ahttp%3A%2F%2Fwww.homo-numericus.net%3BFORID%3A1%3B&hl=fr]). Cette loi doit en particulier avoir d'importantes répercussions sur les politiques de numérisation des ouvrages dans les bibliothèques mais aussi, sur les usages des contenus numériques dans l'enseignement et la recherche. Un excellent dossier[[malheureusement en accès restreint]], publié récemment par [l'Association des Professionnels de l'Information et de la Documentation->http://www.adbs.fr] tente d'éclairer la réflexion. Le moins que l'on puisse dire, est que la situation post-DADVSI n'est pas moins compliquée que celle qui l'a précédée. Une chose ressort assez bien de ce dossier toutefois : la DADVSI, et les accords sectoriels qui l'accompagnent ouvrent la porte à des transferts monétaires massifs depuis l'Etat vers le secteur privé de l'édition, pour «compenser» des usages dont le champ, la définition et l'extension sont pour le moins problématiques. Quid des usages justement ? Du côté des bibliothèques, et de leurs programmes de numérisation, [la rencontre entre la Ministre de la Culture, Christine Albanel et le président de Google France->http://www.zdnet.fr/actualites/internet/0,39020774,39374041,00.htm?xtor=RSS-1] a jeté [un trouble->http://affordance.typepad.com/mon_weblog/2007/10/ya-qu-demander.html]. Après les initiatives sur un air de croisade anti-Google des années précédentes, le changement de pied est assez radical. Sans doute faut-il y voir le passage de témoin d'un Président à un Autre. Pendant ce temps, la British Library vient de s'engager, avec l'aide de Microsoft, dans un [important programme de numérisation->http://www.news.fr/photo/0,3800001895,39374163,00.htm?xtor=RSS-1], limité, il est vrai, au domaine public. Du côté de l'édition, les choses avancent assez peu sur le plan des réalisations concrètes. L'exposé d'un spécialiste de la question au cours d'un séminaire intitulé «[Création et réception en ligne : quels déplacements dans la chaîne éditoriale ?->http://gdrtics.u-paris10.fr/groupes/production_numerique.php?req=sem2]» fut éloquent. Pour David Douyère, le positionnement des éditeurs face au numérique, est pour le moins «paradoxal». Euphémisme académique pour dire qu'il est faible, hormis dans quelques secteurs très limités. Il semble bien que nombre d'éditeurs, et pas des plus marginaux, consacrent davantage d'énergie à courir les tables-rondes, conférences et autres consultations pour adresser à la puissance publique leur inquiétude concernant la stabilité de leurs revenus futurs qu'à expérimenter en entrepreneurs qu'ils sont pourtant, de nouveaux services permettant de les assurer dans un environnement en complet bouleversement. L'expression de «chaîne du livre», très employée dans tous ces débats est assez particulière, car elle a tendance à faire sortir de la réflexion les deux derniers maillons qui la composent, à l'un et l'autre bout : les auteurs d'un côté, les lecteurs de l'autre. Or, ce sont ces deux maillons précisément, souvent subordonnés par les acteurs de ladite chaîne, qui trouvent, avec les technologies numériques, de nouvelles opportunités pour s'adonner à leur passion : lire, écrire. Peut-être faudrait-il songer qu'à l'heure des réseaux numériques, le modèle même de chaîne, qui renvoie à un mode d'organisation et de division sociale du travail daté, a peut-être perdu de sa pertinence.
2007-10-11 08:53:43
Le Tiers Livre
http://www.tierslivre.net/spip/spip.php?article1015
L'édition de sciences humaines est un secteur d'activité essentiel à la vie démocratique. C'est pas son biais que les connaissances et les idées issues de la recherche universitaire en particulier peuvent alimenter le débat public et contribuer à éclairer la décision politique par une meilleure connaissance des faits de société. Ce secteur est pourtant profondément en crise depuis de nombreuses années. La financiarisation des modes de fonctionnement de l'édition privée, l'affaiblissement voulu et programmé des presses universitaires depuis la circulaire Jospin de 1998, parmi d'autres facteurs ont contribué à rendre plus difficile l'édition d'ouvrages et de revues de sciences humaines et sociales. Le passage au numérique est vécu par beaucoup comme une fragilisation supplémentaire, prenant des formes diverses : remise en cause des circuits classiques de validation, aliénation de la forme écrite par des opérations techniques échappant au contrôle des principaux intéressés, absence de modèle économique validé par l'expérience. Il est vrai que les initiatives dans ce domaine se sont développées de manière quelque peu brouillonne, sans qu'il soit possible de dégager une quelconque tendance dominante entre des dizaines d'expérimentation explorant des voies très différentes et quelquefois contradictoires. La récente création par le CNRS[[En collaboration avec l'EHESS et les Uinversité d'Avignon et d'Aix-Marseille]] d'un «[Centre pour l'édition électronique ouverte->http://cleo.cnrs.fr/]» (en sciences humaines et sociales) est une manière de commencer à structurer ce champ[[Structuration supplémentaire : le Cleo inscrit son action dans le cadre du Très Grand Equipement Adonis qui a pour mission de donner un accès unifié aux documents de sciences humaines et sociales]]. Contrairement à ce qu'on pourrait craindre, le CLEO n'est pas un nouvel acteur de plus dans un environnement déjà encombré. Il est la stabilisation institutionnelle d'une des plus anciennes initiatives en matière de publication en ligne de revues de sciences humaines et sociales : [Revues.org->http://www.revues.org]. Créé en 1999, Revues.org est une initiative issue de la communauté universitaire. Sous la direction de Marin Dacos, une fédération de revues souhaitant être diffusées en ligne s'est peu à peu agrégée pour former un portail, donnant aujourd'hui accès à plus de 70 revues, en texte intégral. Revues.org s'est doté au cours de son histoire de plusieurs outils complémentaires : [Calenda->http://calenda.revues.org/], un agenda en ligne des principaux événements qui font la vie des sciences humaines et sociales (colloques, séminaires, etc.), [l'Album->http://album.revues.org/], un répertoire de plus de 2000 sites web sélectionnés par des équipes de chercheurs et de documentalistes spécialisés, et enfin [In extenso->http://www.in-extenso.org], moteur de recherche spécialisé en sciences humaines. Au total, c'est un véritable écosystème d'information scientifique que le CLEO propose à la fois aux chercheurs et aux étudiants, mais aussi à un plus large public. C'est peut-être le sens qu'il convient de donner à cet intitulé mystérieux, choisissant de défendre une édition électronique ouverte : le CLEO prend sa position sur le secteur de l'édition tout d'abord, montrant qu'il est bien situé au coeur des problématiques évoquées plus haut. Mais il pratique de l'édition électronique, ce qui signifie simplement que l'avenir d'une édition de sciences humaines forte et remplissant son rôle, ne pourra faire l'impasse sur le recours aux technologies numériques en réseau, pour la production, mais aussi la diffusion des documents. Enfin, il s'agit d'édition électronique ouverte : le processus d'édition doit être synonyme de l'accès le plus ouvert possible aux contenus, que ce soit sur le plan technique (formats ouverts, logiciels libres), économique (libre accès raisonné au texte intégral des publications) ou des usages (interopérabilité, accessibilité). Disclaimer : l'auteur de cette note est membre du comité de rédaction de Revues.org. Les propos exprimés ici reflètent uniquement sa propre opinion et n'engagent ni le Cleo ni Revues.org
2007-10-15 03:21:55
CLEO
http://cleo.cnrs.fr
L'Académie des Sciences Morales et Politiques [a attribué cette année le prix Marcelle Blum->http://www.liens-socio.org/article.php3?id_article=2877] à une chercheuse en sciences de l'éducation, Isabelle Collet, pour son ouvrage <a type=amzn asin="2296014801">L’informatique a-t-elle un sexe ? Hacker mythes et réalités</a>. L'auteure y fait le constat et tente d'expliquer un grave déséquilibre entre les sexes dans les filières professionnelles de l'informatique en France. Contrairement aux idées reçues, affirme-t-elle, ces professions n'ont pas toujours été aussi masculines qu'elles le sont actuellement. Une analyse de la répartition garçons-filles dans les écoles d'ingénieurs spécialisées sur ces métiers montre en effet qu'après un début de rééquilibrage dans les années 80, avec près de 20% de filles dans les promotions de ces années, la proportion est aujourd'hui retombée à un peu plus de 10%, au niveau où il était dans les années 70. C'est la théorie explicative de ce déséquilibre qui est surtout intéressante dans cet ouvrage. Isabelle Collet s'attache en effet à comprendre le poids des représentations stéréotypées - des mythes -, dans les mécanismes psychologiques qui président à l'orientation professionnelle. Elle montre que les représentations des métiers de l'informatique chez les jeunes adultes est dominée depuis le début des années 80, par le mythe du hacker, bidouilleur de génie au comportement anti-social. L'efficacité de ce mythe correspond à une réalité sociale, celle du développement au cours de la même période de l'informatique personnelle, permettant à toute une génération de garçons de pratiquer une activité intense de loisirs autour de la programmation informatique. Le phénomène le plus intéressant semble être le décalage entre ces représentations mythifiées qui jouent dans l'orientation professionnelle, et la réalité des métiers de l'informatique. Tandis que le mythe du hacker valorise le développement informatique, c'est-à-dire l'écriture du code, cette activité est loin d'être prédominante dans le quotidien de ces métiers. Ainsi peut-on constater un renforcement entre des représentations sociales générales qui attribuent la gestion des relations sociales au filles et les activités techniques aux garçons, et le mythe du hacker qui vient actualiser et rendre efficaces ces représentations pour une profession particulière. [Le prix Marcelle Blum->http://www.asmp.fr/prix_fondations/fiches_prix/marcelle_blum.htm] est attribué par l'ASMP pour distinguer et envourager des recherches en psychologie féminine. On peut retrouver une partie de l'argumentation de cet ouvrage dans [un article->http://www.monde-diplomatique.fr/2007/06/COLLET/14834] publié en juin dernier dans Le Monde Diplomatique. D'autres publications et références peuvent être trouvées [sur le site de l'auteure->http://www.isabelle-collet.net/].
2007-10-17 00:47:59
Liens Socio
http://www.liens-socio.org/article.php3?id_article=2877
Radiohead vient de mettre en ligne son dernier album, In Rainbows. Le célèbre groupe anglais n'est plus rattaché à un label. Il a ainsi décidé de distribuer son album directement sur <a href="http://www.inrainbows.com/">son site officiel</a>. Les amateurs de bon son peuvent télécharger l'album en toute légalité et choisir le montant, ou bien choisir de recevoir par la Poste le coffret CD deluxe contre un prix fixe. Le prix minimum pour télécharger n'est rien de moins que £ 0.45 (frais de réglement par carte de crédit). Après avoir rempli quelques renseignements personnels, un lien Internet est donné, d'où l'heureux cyber-client peut télécharger les 10 morceaux, sans système de protection numérique (DRM). Ce n'est pas la première fois qu'un artiste décide de distribuer gratuitement sa musique. Prince a ainsi lancé en juillet dernier son album 3121 en offrant son CD aux acheteurs du Daily Mail. Jamiroquai et Oasis, deux grands noms de la musique qui n'ont eux aussi pas de label, seraient également en train de considérer l'alternative de la distribution gratuite. Mais comment les artistes arrivent-ils à se rémunérer ? Sachez que les internautes qui auront choisi de ne rien payer pour télécharger l'album de Radiohead vont cependant devoir fournir des informations personnelles lors de leur inscription, informations qui seront utilisées pour les futures campagnes promotionnelles. Et Radiohead aura eu toutes ces infos pour peanut. Les albums gratuits augmentent également la demande pour les concerts et les produits physiques. Prince, par exemple, après avoir distribué gratuitement son album, avait annoncé 21 dates de tournée à Londres. Tous les concerts affichaient complet. Cela ne signifie pourtant pas la mort de l'industrie du disque. Les labels justifient leur rôle d'intermédiaire pour la distribution physique et les campagnes de publicité. Mais de nouveaux modèles économiques doivent être inventés afin de rivaliser avec le gratuit et trouver des alternatives, comme le partage des revenus publicitaire, le téléchargement financé par le visionnage de publicité, le sponsoring... Pour ma part j'ai payé £ 0.90. Je fonde beaucoup d'espoirs dans cette économie du don. Outre le côté un peu austère du site Internet et les quelques informations perso à donner, le téléchargement est très rapide. Et la musique tellement bonne ! Personnellement, c'est le morceau Reckoner que je préfère. Bon téléchargement !
2007-10-17 03:07:38
Blog de l'auteur
http://dalbin.canalblog.com/archives/2007/10/17/6567661.html
Il y a deux ans, [?Nicholas Negroponte], directeur du Medialab au MIT et prophète de l'humanité numérique, lançait l'opération [«one laptop per child» (OLPC)->http://www.laptop.org]. Il s'agissait de permettre au plus grand nombre d'enfants, en particulier dans les pays du tiers-monde, d'accéder aux bienfaits de la société de l'information en se voyant offrir un ordinateur portable à bas coût et spécialement conçu pour les difficiles conditions de vie que l'on rencontre dans ces pays. [L'ordinateur en question->http://www.news.com/2300-1044_3-5884639-1.html], initialement promis pour un prix de vente de 100 dollars, se présente comme un ultra-portable baptisé XO avec un écran de 7 pouces, et dispose de fonctionnalités particulières : tournant sous Linux, il présente une interface particulière et dispose d'une manivelle permettant de recharger la batterie sans devoir accéder à un réseau électrique. Deux ans après l'annonce, il semble bien que le passage du projet à la réalité soit quelque peu difficile. Un article [paru récemment dans Slate->http://www.slate.com/id/2174599/] énumère les échecs par lesquels ce programme est passé jussqu'ici. Le prix d'abord, est plus proche de 200 dollars que de 100. Les commandes ensuite, sont très faible. Il était prévu à l'origine que la vente soit réservée aux gouvernements, pour une distribution dans les écoles. Mais pendant de nombreux mois, malgré les promesses, pas un seul d'entre eux n'est passé à l'acte en passant une commande ferme. Le blog [olpcnews.com révélait récemment->http://www.olpcnews.com/] que le Pérou et l'Uruguay venaient cependant de le faire. Parallèlement, les initiateurs du projet ont changé leur fusil d'épaule en ouvrant pour les Etats-Unis et le Canada un circuit de commercialisation plus classique, permettant aux consommateurs d'acquérir pour eux-même un de ces ordinateurs, en même temps que d'en offrir un second exemplaire à un enfant du tiers-monde. L'opération, baptisée [Give 1 Get 1->http://www.xogiving.org/] propose donc aux acheteurs potentiels de débourser 400 dollars. Pas sûr que ce soit un succès. D'autant que le projet lancé par Negroponte a donné des idées à d'autres. Le fabricant coréen d'ordinateurs [Asus vient en effet d'annoncer la commercialisation d'un tout nouveau modèle, baptisé "eee"->http://www.reghardware.co.uk/2007/10/16/asus_launches_eee_pc/]. Proposant lui aussi un écran 7 pouces, et fonctionnant sous Linux Xandros, ce nouvel ultra-portable commence à être commercialisé à un pris fluctuant entre 350 et 400 dollars selon les pays et les versions. Plus cher donc que son concurrent pour la vente au détail, il revient sans doute à un prix concurrentiel pour des achats en masse. Ainsi a-t-on appris récemment qu'un pays non officiellement connu a passé commande auprès d'Asus d'un million d'unité pour une utilisation en environnement scolaire. Un blog spécialisé sur ce produit avance qu'il s'agirait de la [Russie, et plus particulièrement d'une organisation philanthropique qui y est active->http://asuseeehacks.blogspot.com/2007/10/russian-foundationbuys-million-asus-eee.html], mais l'information n'est pas confirmée. Quel que soit l'acheteur réel, c'est en tout cas dix fois plus que la commande péruvienne de XO. OLPC a du plomb dans l'aile. Il est possible que le caractère novateur de la machine qu'il propose ne fasse pas le poids face à la puissance commerciale d'un acteur grand public comme Asus.
2007-10-19 03:06:37
The Register
http://www.reghardware.co.uk/2007/10/16/asus_launches_eee_pc/
Le collectif EUCD, association de défense des droits civiques sur Internet [s'est fait l'écho->http://eucd.info/index.php?2007/10/16/349-loi-fourtou-au-dela-de-la-riposte-graduee-la-guerre-preventive] de [l'adoption hier->http://www.ratiatum.com/breve5864_Le_projet_de_loi_contrefacon_directive_Fourtou_adopte.html] par le Sénat d'un projet de loi pour la lutte contre la contrefaçon. Ce projet de loi n'est autre que la transposition en droit français d'une directive européenne datant de 2004 visant à renforcer la protection de la propriété intellectuelle dans tous les domaines. Celui de l'échange illégal de fichiers par l'intermédiaire des réseaux peer-to-peer est évidemment concerné. Il fait l'objet de mesures spécifiques qui ne simplifient pas un paysage déjà passablement complexe. En gros, la plupart des commentateurs retiennent les points suivants : - Renforcement du pouvoir des polices privées. Cela fait plusieurs années que les éditeurs de musique ou de films ont en effet suppléé à la relative absence de la police nationale sur le terrain de la répression du téléchargement illégal en créant leurs propres éqipes d'enquêteurs. Peuplées d'agents assermentés, ces polices parallèles de la contrefaçon doivent voir leur existence reconnue et leurs pouvoirs encadrés par la loi. C'est le cas ici puisque la loi leur attribue des droits nouveaux, notamment celui de s'auto-saisir pour mener des enquêtes et collecter des preuves. C'est en particulier [l'Alpa->http://www.alpa.asso.fr/], association de lutte contre la piraterie audiovisuelle, qui est concernée ici. - Aggravation des peines encourues. A l'origine, la directive européenne avait restreint son champ d'application aux contrefacteurs cherchant un «avantage économique et commercial direct». La notion d'«échelle commerciale», qui permettait aux téléchargeurs individuels d'échapper à la rigueur de la répression mise en place par cette directive a été suppriméedans son application dans la loi française. Désormais, l'adolescent utilisateur d'emule et le trafiquant à une échelle internationale seront traités sur un pied d'égalité. - Principe d'une peine plancher pour les contrefacteurs. Le principe retenu est celui d'une indemnisation minimum des ayant droits sur la base du prix public de l'oeuvre téléchargée. Le magazine en ligne Ratiatum c[onteste vigoureusement ce principe->http://www.ratiatum.com/news5849_Loi_Fourtou_au_Senat_des_peines_plancher_pour_les_P2Pistes.html] car, indique-t-il, rien n'indique que chaque téléchargement soit équivalent à une vente perdue. Dans [un autre article->http://www.ratiatum.com/news5827_Albanel_fait_du_chantage_a_Free_les_lobbys_approuvent.html], Ratiatum met violemment en cause la Ministre de la Culture Christine Albanel. Celle-ci, conclut Ratiatum, se révèle finalement plus néfaste que son prédécesseur, Renaud Donnedieu de Vabres, qui s'était distingué par son incompétence au cours du débat sur la loi DADVSI. On peut être étonné de voir le quotidien Le Monde prendre une voie similaire dans [un article pour le moins critique->http://www.lemonde.fr/web/article/0,1-0@2-651865,36-968556@51-956314,0.html]. Très informé, le journal révèle en effet le dessous des cartes de tout le processus législatif. Ainsi, le rapporteur de la directive européenne n'est autre que la députée européenne Janelly Fourtou, épouse du président du directoire de Vivendi Universal, Jean-René Fourtou. Celle-ci s'était battue sans succès au niveau européen pour que ne soit pas retenu le principe de l'échelle commerciale. Elle a eu finalement gain de cause au niveau national. De la même manière, l'association de lutte contre la piraterie audiovisuelle (ALPA) est dirigée par Jérome Seydoux, président de Gaumont, lequel, nous apprend Le Monde, vient de voir doubler ses subventions venant du CNC. Pour finir, l'ensemble du dispositif sera mis en oeuvre en conformité avec les recommendations de la commission contre le téléchargement illicite, dirigée par le président directeur Général de la FNAC, Denis Olivennes, nommé par la Ministre de la Culture. Vivendi, Gaumont, la FNAC ; on voit que les plus puissants représentants des industries culturelles occupent les positions clés dans un dispositif législatif dont on peut légitimement se demander s'il poursuit le bien général ou cherche à protéger des intérêts particuliers. Premiers effets sans doute dans ce secteur, d'une «décomplexitude» bien assumée.
2007-10-19 07:07:19
Le Monde
http://www.lemonde.fr/web/article/0,1-0@2-651865,36-968556@51-956314,0.html
Du jeudi 25 octobre au samedi 27 octobre, Les Rencontres Place Publique organise un cycle de conférences-débats sur le thème : «Hackulturation. Culture libre, Culture hacker». Très varié, le programme accueillera des personnalités aussi diverses que Kenneth Mckenzie Wark, auteur du Hacker Manifesto, Alain Giffard, spécialiste des écritures et lectures numériques, Paul Mathias et Patrice Maniglier, philosophes, parmi d'autres. Selon Jacques Serrano, directeur des Rencontres, il s'agit ici de proposer «une réflexion sur la Culture libre la Culture hacker, mouvement de pensée et approche politique ayant pour but de défendre la libre diffusion des oeuvres de l’esprit, l’appropriation collective et l’approche collaborative de la création. Du 25 au 27 octobre, Les Rencontres Place Publique proposent aux initiés et aux amateurs, trois journées de rencontres et de débats qui seront l’occasion de réunir de nombreux professionnels, artistes, philosophes et théoriciens autour de questions essentielles : qu’est-ce que la culture hacker et comment se propose-t-elle de transformer le mode même d’existence de la culture, quelles sont ses références et ses pratiques ?». Programme Attitude, Manifeste et éthique hacker _ Avec : Mckenzie Wark, Alain Giffard, Patrice Maniglier, Stephen Wright _ cipM, centre de la Vieille Charité _ le 25 octobre à 18 h 00 Culture libre, institutions culturelles, économie marchande _ Avec : Patrice Maniglier, Thierry Crouzet, Arnaud Esquerre, Paul Mathias _ Salle des délibérations, Mairie du deuxième secteur _ le 26 octobre à 14 h 30 La culture libre peut elle briser la chaîne du livre _ Avec : Patrick Lowie, Aliette Guibert, Alain Giffard _ cipM, centre de la Vieille Charité _ le 27 octobre à 14 h 30
2007-10-23 09:32:16
Centre International de Poésie Marseille
http://www.cipmarseille.com/evenement_fiche.php?id=607
. «La formule web 2.0 a été récemment forgée, au milieu des années 2000, pour désigner une nouvelle génération d’applications internet dont les plus connues se nomment YouTube, MySpace ou encore FaceBook, et rassemblent aujourd’hui plusieurs millions d’utilisateurs. L’emploi de cette formule s’est étendu dans pléthore de discours (journalistiques, politiques, mais aussi scientifiques) pour célébrer l’avènement d’un nouvel âge de l’internet – le Web 2.0 – et la promesse d’une véritable transformation de la société. Le présent ouvrage se place à contre-courant de ce type d’affirmations prophétiques, non pour en critiquer les idéaux (participation, égalité…), mais pour montrer que l’utopie techniciste ne se transforme pas « naturellement » en réalité sociale. De nombreux exemples choisis dans les domaines de l’information et de la culture, particulièrement mobilisés dans les discours sur la « révolution internet », étayent le propos : blogs dédiés au journalisme « citoyen », échanges en réseau (peer-to-peer) de fichiers musicaux, sites de partage de vidéos… Point par point, les principales idées avancées par les tenants d’une révolution numérique en matière de culture et d’information sont ainsi examinées. L’objectif est d’introduire de la complexité et de la nuance dans des couples d’opposition qui, de façon trop simpliste, décrivent un avant et un après internet : verticalité de la diffusion / horizontalité des échanges ; passivité de la consommation mass-médiatique / activité de l’internaute ; contrôle industriel de la production / liberté de la création amateur. De préférence à une révolution supposant l’éradication de l’existant, l’analyse proposée ici invite à discerner des évolutions dans les mouvements et mutations actuellement à l’œuvre. La défense de cette thèse débouche sur la formulation de propositions d’ordre méthodologique permettant de mieux appréhender la reconfiguration des productions informationnelles et des pratiques culturelles avec l’internet. L'auteur, Franck Rebillard est maître de conférences à l’Université Lyon 2. Enseignant à l’Institut de la communication, chercheur au sein du laboratoire Elico, ses travaux portent sur la socio-économie des médias et de l’internet. » <a href="http://www.amazon.fr/gp/redirect.html?ie=UTF8&location=http%3A%2F%2Fwww.amazon.fr%2Fweb-2-0-perspective-socio-%25C3%25A9conomique-linternet%2Fdp%2F2296040365%2F&tag=homonumericus-21&linkCode=ur2&camp=1642&creative=6746">le web 2.0 en perspective</a><img src="http://www.assoc-amazon.fr/e/ir?t=homonumericus-21&l=ur2&o=8" width="1" height="1" border="0" alt="" style="border:none !important; margin:0px !important;" /> Publié chez l'Harmattan, Collection Questions Contemporaines ISBN : 978-2-296-04036-6-• 15 € • 162 pages
2008-02-02 00:00:00
Le web 2.0 en perspective (sur Amazon)
http://www.amazon.fr/gp/redirect.html?ie=UTF8&location=http%3A%2F%2Fwww.amazon.fr%2Fweb-2-0-perspective-socio-%25C3%25A9conomique-linternet%2Fdp%2F2296040365%2F&tag=homonumericus-21&linkCode=ur2&camp=1642&creative=6746
Si l'offre légale sur Internet ne parvient pas vraiment à endiguer le piratage, ce n'est pas faute de chercher les formules. Si possible magiques comme l'espèrent les industries culturelles. Paiement à l'unité, systèmes d'abonnement, recettes publicitaires pour payer les ayants droit, tout le monde traque frénétiquement la pierre philosophale. Mais qui sont ces pirates, ces "hors-la-loi", si l'on reprend les termes de notre cher président (<a href="http://www.elysee.fr/webtv/index.php?intHomeMinisterId=0&intChannelId=3&intVideoId=208">voir son discour</a>) ? Quel est ce "Far Ouest high-tech", cette "zone de nom droit" numérique ? La situation demeure complexe. Un individu qui s'abonne à des formules d'accès à Internet haut débit est tout aussi bien un consommateur de produits en ligne, qu'il faut donc choyer, qu'un pirate en puissance, capable de télécharger toutes sortes de contenus. Le gouvernement s'est ainsi lancé à l'abordage du piratage, aux côtés des industries culturelles. En septembre dernier, Christine Albanel, ministre de la Culture, confie à Denis Olivennes, PDG de la Fnac, une double mission : lutter contre le piratage et développer l'offre légale. Les conclusions du "rapport Olivennes" sont tombées hier, accompagnées d'un accord tripartite (Etat ; professionnels de l'audiovisuel, du cinéma, de la musique ; fournisseurs d'accès à Internet). En résumé, l'accord prévoit : - des mesures de filtrages des contenus sur Internet, - l'envoi de messages d'avertissement aux internautes fraudeurs, - et en cas de récidive, une suspension, voire une résiliation de leur abonnement Internet. En échange, les ayants droits et majors s'engagent à quelques concessions : - l'abandon total des DRM (mesures de protection qui empêche de lire sur plusieurs terminaux un morceau de musique acheté en ligne), - la sortie des films en VOD sera désormais alignée sur celle des DVD (6 mois après la sortie en salle, contre 7 et demi actuellement). Alors que l'industrie du disque a enregistré une nouvelle baisse de son activité de 22 % sur les neuf premiers mois de l'année et que les ventes de DVD commencent à baisser dans l'Hexagone, le gouvernement fait le pari, en se basant sur des exemples étrangers, que de simples avertissements suffisent dans la majorité des cas à dissuader les internautes de s'adonner à des pratiques illégales de partage de fichiers (P2P). Aux Etats-Unis et en Grande-Bretagne, les messages d'avertissement expérimentés par Time Warner Cable ou British Telecom auraient suffi dans 90 % des cas à mettre fin à ces pratiques. Après un échec relatif de l'application de la <a href="http://fr.wikipedia.org/wiki/Dadvsi">loi DADVSI</a>, qui prévoyaient des peines de prison pour les contrefacteurs, le nouveau gouvernement préfère désormais une approche graduée avec des peines civiles et non plus pénales. Il s'agit d'une nouvelle mouture inspirée notamment de la politique mise en place pour le permis de conduire : deux messages d'avertissement puis le passage aux sanctions. Le rapport prévoit une première suspension de l'abonnement de dix à quinze jours en cas de récidive puis, stade ultime, une résiliation du contrat de l'abonné et son inscription dans un fichier d'internautes radiés, sorte de "liste noire", pendant une durée qui pourrait tourner autour d'un an. "C'est un accord important par ses mesures, et surtout l'unanimité", a assuré M. Olivennes. Pourtant, l'Adami (société de gestion collective des droits des artistes-interprètes) regrette "que les organisations représentant les consommateurs et le public n'aient pas fait partie des négociations de cet accord, alors que l'efficacité des dispositifs destinés à lutter contre la gratuité dépend aussi du consentement du public et donc de son adhésion aux objectifs poursuivis". "Nous n'avons jamais dit que nous allions éradiquer le piratage, conclut Olivennes ; mais seulement le rendre plus compliqué et plus coûteux pour les petits téléchargeurs ordinaires." Presque immédiatement, de nombreuses voix se sont élevées pour dénoncer des mesures répressives, leur inefficacité démontrée et la systématisation des sanctions à travers la mise en place d'une autorité administrative indépendante toute-puissante. "Je veux bien que l'on m'accuse d'être liberticide, ironise M. Olivennes, mais quatre avertissements pour en arriver là, ça ne me paraît pas être un régime de sanctions digne de la Chine ou de la Corée du Nord." "Surenchère répressive", "police privée du Net", "justice parallèle". Le mots fusent. Les associations de défense des internautes, comme la <a href="http://fr.wikipedia.org/wiki/Ligue_ODEBI">ligue Odebi</a>, rappellent qu'il est "inacceptable que le pouvoir du juge soit transféré à une autorité dotée des moyens humains et techniques nécessaires à l'avertissement et à la sanction, et chargée d'appliquer le mécanisme de la riposte graduée". Les industriels de la musique font un pas vers l'ouverture et s'engagent à abandonner les DRM sur les œuvres françaises dans l'année suivant l'instauration de ce dispositif de riposte. Les industriels de l'audiovisuel et du cinéma offrent quant à eux une contrepartie et sont prêts à réduire le laps de temps entre la sortie en salle et la distribution en vidéo à la demande. C'est toujours ça de pris. Mais le jeu en vaut-il la chandelle ? Force est de constater l'impossibilité juridique des mesures envisagées, notamment à cause des réseaux Wi-Fi, trop perméables qui ne permettraient pas de savoir qui a réellement utilisé la connexion Internet filaire. De plus, quant à la mise ne place de systèmes de filtrage, comment accepter que des personnes privées puissent filtrer et vérifier des échanges privés, licites ou non ? Ensuite, le fait, en cas de récidive du pirate, de devoir couper la connexion à Internet ne réjouit aucun fournisseur d'accès. En débranchant Internet, on risque de couper aussi le téléphone et la télévision pour les abonnés aux offres triple play. Cerise sur le gâteau, le discours prononcé par le président de la République, lors de la remise officielle de l'accord. La vision d'Internet exprimée par Sarkozy donne à penser : "C'est à une véritable destruction de la culture que nous risquons d'assister." "Pourquoi le citoyen ordinaire, habituellement respectueux de la loi, préférerait s'approvisionner dans des entrepôts clandestins." "(…) des comportements moyenâgeux, où, sous prétexte que c'est du numérique, chacun pourrait librement pratiquer le vol à l'étalage." Et enfin, ma préférée : "La France va retrouver une position de pays leader dans la campagne de civilisation des nouveaux réseaux." (nostalgie de l'époque coloniale ?…) Ces propos ont immédiatement fait réagir l'April (association française de défense et promotion du logiciel libre), qui considère Nicolas Sarkozy totalement incompétent dans le domaine : "Il parle de comportements moyenâgeux, de vol, mais c'est son discours qui est d'une autre ère et montre qu'il n'a pas compris les différences fondamentales entre biens matériels et créations immatérielles". Concernant le calendrier de mise ne place de cet accord, le Parlement ne débattra manifestement qu'après les municipales et l'autorité indépendante n'aura sans doute de vrais moyens qu'en 2009. Quant au chef de l'Etat, il a donné rendez-vous dans six mois aux signataires de l'accord "pour faire le bilan" de son application et si besoin est, faire évoluer l'accord. Denis Olivennes nous prévient cependant que le système "ne sera efficace que si son application es massive et systématique". A bon entendeur…
2007-11-25 11:47:05
La semaine dernière, j'ai pu enfin rencontrer Pierre Col, responsable marketing et business développement d'UbicMedia. Cette jeune entreprise a développé PUMit, une technologie "post-DRM" qui permet de diffuser du contenu (films, musique) sur Internet. Tout ceci est franco-français et très prometteur ! Le point de départ de PUMit : Comment faciliter la circulation des œuvres sur Internet sans la freiner à coup de DRM ou de piratage abusifs ? Le fonctionnement de PUMit : L'ayant droit va sur <a href="http://www.pumit.com/UIPUMIT/?locale=fr">le site</a> pour y mettre le fichier source. PUMit sépare le fichier en deux parties. D'un côté, un "fichier nomade" MPEG4 contenant 95 à 99 % du contenu librement copiable et rediffusable. De l'autre, un flux de contrôle envoyé par le serveur PUMit à très faible débit, qui va reconstituer le contenu original. L'ayant droit définit les conditions de diffusion, la zone géographique, les prix. Il peut ensuite à tout moment modifier ces conditions directement sur le site. L'utilisation concrète de PUMit : Les fichiers peuvent être distribuer via les systèmes de P2P, performants et très utilisés. L'utilisateur va alors télécharger le fichier et par exemple pouvoir visionner les 2 premières minutes puis sera invité à payer 2 € pour pouvoir voir le fichier dans son intégralité. Ou alors le site d'un festival, comme <a href="http://www.cinemanouvellegeneration.com/salle-de-projection/">celui du festival Cinéma Nouvelle Génération</a> pourra proposer en VOD les films en compétition. PUMit, lui, se rémunère sur un pourcentage fixe par unité achetée et pour chaque visionnage. Pourquoi PUMit a un avenir prometteur : Idéal pour les producteurs indépendants, adapté aux nouvelles attentes de tester avant de payer pour un téléchargement, répondant à un besoin d'économie de bande passante, simple et souple, PUMit est un système très séduisant, tant pour l'utilisateur que pour l'ayant droit. Pourquoi PUMit ne pourra pas devenir, en l'état, un standard pour la distribution de films sur Internet : Accessible seulement pour les utilisateurs de PC, les adeptes de Mac devront attendre. Le multi-plateforme demeure cependant un gage de réussite pour les futurs systèmes de distribution de contenu sur Internet.
2008-01-21 12:09:27
Les plate-formes de gestion de réseaux sociaux, telles [Facebook->http://www.facebook.com], [Linkedin->http://www.linkedin.com], [Myspace->http://www.myspace.com] ou [Orkut->http://www.orkut.com], sont d'abord perçues sous la forme de sites web. On pourrait croire que c'est l'apparence de ces sites ou les fonctionnalités qu'ils offrent qui font la différence entre elles. Mais pour un utilisateur, le premier critère de choix entre les plate-formes est bien plutôt la qualité des données qui s'y trouvent déjà ; à savoir, précisément, le nombre de ses amis ou contacts qui sont inscrits sur la plate-forme. Les évolutions des derniers mois le montrent bien : le site web par lequel on y accède, perd progressivement de son importance. C'est sans doute Facebook qui a donné le coup d'envoi, en mai de l'année dernière, [en ouvrant son système à des programmeurs indépendants->http://www.vnunet.fr/fr/news/2007/09/17/facebook-mini-r-volution-via]. [La mise en place d'une [?API] ouverte- est l'élément déterminant qui a donné à la plate-forme une longueur d'avance sur ses concurrentes. En quelques mois, Facebook a pu bénéficier du développement de milliers d'applications exploitant ses données, sans avoir eu à les financer bien sûr. Aujourd'hui, [Myspace tente de rétablir l'équilibre en ouvrant son code à son tour->http://www.sfgate.com/cgi-bin/article.cgi?f=/c/a/2008/01/30/BUGHUODUC.DTL]. Mais dans le même temps, Facebook reprend l'avantage en offrant aux développeurs [une api javascript permettant d'exploiter les données en provenance de la plate-forme sur d'autre sites web->http://www.techcrunch.com/2008/01/26/facebook-apps-on-any-website-clever-move/]. On le voit bien, la concurrence entre les réseaux sociaux les conduit à adopter la plus grande ouverture de l'accès à leurs données, afin d'en développer les usages au maximum. Ce faisant, on aboutit à une déconnexion progressive entre les données et leur exploitation, ce qui pose quelques questions relatives aux modèles économiques sur lequels reposent ces plate-formes. Aujourd'hui, on commence à s'interroger sur la possibilité de faire circuler les données d'une réseau à un autre. La question de la portabilité des données fait l'objet de recherches menées par un groupe de travail rassemblant les principaux acteurs du domaine. Cette initiative répond à la question de l'enfermement des utilisateurs dans les réseaux sociaux auxquels ils s'inscrivent. L'idée en train d'émerger est que, propriétaire de leurs données personnelles, les utilisateurs doivent être en mesure d'en maîtriser la migration d'un réseau à un autre. [Dataportability->http://dataportability.org/], c'est le nom de cette initiative, plaide pour la mise en place d'un cadre commun s'appuyant sur des formats et des protocoles ouverts.
2008-01-31 10:09:22
Dataportability
http://www.dataportability.org
L’accès à la vidéo gratuite n’a jamais été aussi facile, riche et qualitatif, car l’offre gratuite de contenu a proliféré. La TNT et l’offre ADSL de base satisfont une bonne partie de la demande. Avec la <I>catch-up TV</I>, le <I>streaming</I> et le téléchargement, le spectateur a un large choix. Moins disponible et plus exigeant, il devient beaucoup plus sélectif vis-à-vis des offres payantes. Aujourd’hui, l'intérêt pour la vidéo-à-la-demande n'est pas sans rappeler l'engouement qu'avait suscité le DVD à sa sortie. La VOD est un moyen innovant d'accès à la vidéo sur Internet, avec une liberté inégalée. "Reste à accompagner la maturation et le développement des habitudes de consommation avec l’amélioration progressive des catalogues et la mise au point d’offres fidélisantes", comme l'indique la dernière <a href="http://www.cnc.fr/CNC_GALLERY_CONTENT/DOCUMENTS/publications/etudes/qualivideo_271107.pdf">étude du CNC</a> sur les nouvelles formes de consommation des images. A la différence des majors, qui tentent de proposer une offre payante sur Internet, pour réagir face au piratage, quelques <I>start-ups</I> issues de la culture Internet développent des architectures techniques, pour (agir) répondre à un besoin réel. Ce besoin, c'est la consommation de contenu audiovisuel en ligne <I>on demand</I>. Ainsi, avec Internet, c'est quand je veux, où je veux, comme je veux. <a href="http://www.vivacode.eu/cms/index.php">VIVACODE</a> l'a bien compris. Cette jeune entreprise innovante propose un système de maîtrise de la dissémination des contenus multimédias sans DRM, qui assure aux auteurs, producteurs et distributeurs de ne pas être privés de leurs droits sur le Web. Plus qu'un simple outil de distribution sécurisée, VIVACODE permet d'utiliser la puissance virale d'Internet. Les avantages comparatifs sont indéniables. Avec le .fun (Format Universel Numérique) conçu par VIVACODE, les fichiers deviennent multi-plateformes et multi-formats. Le fait qu'une clé et un lecteur uniques soient générés à chaque demande de lecture, permet d'éviter l'un des principaux freins à l'expansion de la VOD, à savoir le coût d'encodage. De plus, pas besoin d'être forcément connecté au réseau pour visionner la vidéo téléchargée. Pour l'instant, le gros de l'activité de VIVACODE est réalisé dans le domaine du <I>e-learning</I>. Espérons que les producteurs et distributeurs cinéma vont vite réaliser le potentiel de cette technologie pour rendre viables les modèles économiques sur Internet et commencer à établir une offre homogène et conviviale pour le consommateur final.
2008-02-25 06:45:17
Il y a 3 ans, [Homo Numericus annonçait->http://www.homo-numericus.net/spip.php?breve545] la naissance de[ Persee.fr->http://www.persee.fr], un portail de revues en sciences humaines et sociales mis en oeuvre par la direction des bibliothèques du ministère de la recherche. Spécialisé sur le travail de numérisation rétrospective à partir des exemplaires papier des revues, ce portail s'est depuis considérablement développé. Il met aujourd'hui à disposition du public une cinquantaine de revues en libre accès. C'est hier, au [Salon du Livre->http://www.salondulivreparis.com/], que Persée a dévoilé au public la nouvelle version de son portail. Proposé encore en version Beta, [Persée 2->http://www.persee.fr/beta] s'inspire hardiment des innovations du Web 2.0. Outre l'interface renouvelée, plus dynamique, plus légère, on voit en effet apparaître des fonctionnalités qui incitent les lecteurs à contribuer et enrichir les documents. Chaque utilisateur enregistré se voit en effet proposer un «espace de travail personnel» au sein duquel il peut gérer l'historique de ses recherches et de ses consultations. Dans ce cadre, il est invité à décrire au moyen de mots-clés les articles qui collectionne dans son espace. Ces mots-clés alimentent un classique nuage de tags qui propose un mode différent de navigation dans le corpus. Plus osé, le portail propose au lecteur un outil qui lui permet d'annoter les différentes pages des articles qu'il lit, ainsi que de créer de nouveaux documents qu'il peut rédiger et partager directement à partir de son espace de travail avec d'autres utilisateurs. D'autres outils intéressants sont proposés au public lecteur : la présence d'un agrégateur de fils RSS par exemple, mais aussi d'un système de liens automatiques permettant de naviguer d'un article à un autre en suivant les citations croisées des articles entre eux, complète utilement la palette. Tous ces outils seront-ils effectivement utilisés ? Peut-être pas systématiquement. Ils ont néanmoins le mérite d'inciter les lecteurs à développer de nouveaux usages. Ils ont ainsi une vertu pédagogique qui ne peut être pleinement réalisée que si Persée reste ouvert à l'interconnexion avec d'autres plate-formes de services que les lecteurs peuvent lui préférer. Les responsables du portail ont en tout cas affirmé être conscients de cette question, à laquelle ils leur importent de répondre, comme acteurs publics.
2008-03-18 09:28:40
Persée 2.0
http://www.persee.fr/beta
Au lendemain de la sévère défaite enregistrée par la majorité présidentielle aux élections municipales, [le remaniement ministériel->http://www.liberation.fr/actualite/politiques/316359.FR.php] tant attendu a enfin été annoncé. En fait de remaniement, il s'agit pour l'essentiel d'ajustements à la marge. Les milieux professionnels des nouvelles technologies [réclamaient depuis plusieurs mois->http://www.vnunet.fr/fr/news/2008/02/23/un_prochain_ministre_internet___francois_fillon_botte_en_touche] un interlocuteur qui leur faisait cruellement défaut au sein du gouvernement . La presse se faisait l'écho de la possible création d'un «ministère de l'Internet», puis, plus sérieusement d'un secrétariat d'Etat pour l'économie numérique. Les uns et les autres en sont pour leurs frais. Car si cet intitulé fait bien son entrée au gouvernement, il n'est [qu'une attribution supplémentaire de l'actuel secrétaire d'Etat à la prospective et à l'évaluation des politiques publiques->http://www.vnunet.fr/fr/news/2008/03/18/eric_besson_prend_l_economie_numerique_en_main_dans_le_gouvernement_fillon_ii]. Ceux qui s'interrogeraient sur la cohérence d'un paquet d'attributions aussi diverses ne seront sans doute pas rassurés d'apprendre que leur détenteur, Eric Besson, n'a apparemment[pas d'expérience particulière dans ce domaine->http://fr.wikipedia.org/wiki/%C3%89ric_Besson]. Le secrétaire d'Etat, ancien membre du Parti Socialiste ayant fait défection en pleine campagne présidentielle pour rejoindre les rangs de Nicolas Sarkozy, aura donc fort à faire alors que la France est un pays où ce secteur est moins développé que chez ses voisins européens. A titre d'exemple, la [récente proposition->http://www.neteco.com/90366-sarkozy-taxe-internet-fin-pub-france.html] avancée par le chef de l'Etat, consistant à taxer les communications Internet pour financer la télévision publique en lieu et place de la publicité dont il a annoncé la suppression pour ces chaînes, illustre bien la manière dont les nouvelles technologies y sont considérées. Léger et à la marge sur le fond, le remaniement annoncé hier soir se double de changements beaucoup plus profonds en ce qui concerne le dispositif de communication mis en place autour de Nicolas Sarkozy. Le départ attendu du porte-parole de l'Elysée est complété par[ celui de Marc-Georges Benamou->http://www.lefigaro.fr/politique/2008/03/18/01002-20080318ARTFIG00314-le-chef-de-l-etat-reorganise-sa-communication.php], jusqu'ici en charge de la communication culturelle à l'Elysée. On remarquera parmi les nouveaux venus, l'arrivée de [Nicolas Princen->http://www.liberation.fr/actualite/politiques/316312.FR.php], un jeune normalien de 24 ans, chargé tout spécialement de la veille Internet pour l'Elysée. Sa nomination a déjà provoqué [une vive polémique dans la blogosphère->http://www.zdnet.fr/actualites/internet/0,39020774,39379727,00.htm] où s'expriment de nombreuses craintes concernant les menaces sur la liberté d'expression que cette nomination pourrait signifier. Ce n'est évidemment pas la mise en place d'une veille Internet à l'Elysée qui permet de fonder ces craintes. Il n'y a rien d'anormal, et tous les partis politiques le font aujourd'hui, à suivre ce qui se dit des différents leaders politiques sur la Toile et singulièrement au sein de la blogosphère, qui joue un rôle croissant dans le processus de construction de leur réputation. Le problème, dans ce cas précis, réside plutôt dans l'attitude de Nicolas Sarkozy, qui a montré dans un passé récent, qu'il n'hésitait pas à [s'attaquer à des éditeurs, des organes de presse, ou des journalistes->http://www.lemonde.fr/politique/article/2007/10/19/nicolas-sarkozy-a-l-elysee-sans-cecilia_968668_823448.html] pour tenter de contrôler l'image publique qu'il veut donner de sa personne, et particulièrement de sa vie privée. Dans ce contexte, et avec l'historique qui est le sien, le chef de l'Etat ne peut en effet qu'alimenter les craintes par cette nomination, alors que le Web a jusqu'à présent plutôt échappé à l'influence qu'il exerce, par ses amitiés ou ses menaces, sur bien d'autres médias.
2008-03-19 01:07:24
Nicolas Sarkozy remanie l'Elysée plutôt que le gouvernement
http://www.lemonde.fr/politique/article/2008/03/18/nicolas-sarkozy-remanie-l-elysee-plutot-que-le-gouvernement_1024564_823448.html
Pour tous ceux qui s'intéressent au monde de l'édition et à la manière dont de secteur aborde le défi du numérique, [Lafeuille->http://lafeuille.homo-numericus.net] constitue une ressource essentielle. Fondé en 2002 par [Hubert Guillaud->http://www.internetactu.com], ce blog suit avec passion les événéments, publications et débats qui témoignent d'un monde en mutation. Les liens et renvois entre Homo Numericus qui traite de manière plus large des relations entre technologies numériques et société et LaFeuille, sont suffisamment pertinents et nombreux pour justifier un rapprochement entre les deux publications. Ce rapprochement se concrétise aujourd'hui avec l'arrivée de Lafeuille sur la plate-forme de blogs d'Homo-Numericus, aux côtés de [Blogo Numericus->http://blog.homo-numericus.net] et de [Linux pour de vrai->http://lpdv.homo-numericus.net]. D'ici peu, les trois blogs devraient voir leur maquette harmonisée avec celle du portail. D'autres blogs ouvriront sans doute dans un second temps. Divers dans leur mode d'expression et leurs centres d'intérêt, ils auront pour point commun d'explorer d'une manière particulière la révolution numérique sous l'angle des usages. Merci beaucoup à Hubert de donner l'impulsion de cette ouverture en apportant sur la plate-forme une publication passionnante. Remerciements particuliers à Marin qui en a eu l'idée et aide par son enthousiasme créatif, Homo Numericus à se transformer. Suivez le lien : [->http://lafeuille.homo-numericus.net]
2008-03-20 07:35:32
La Feuille sur Homo Numericus
http://lafeuille.homo-numericus.net
Depuis quelques semaines, un moteur de recherche d'un nouveau type a partiellement ouvert ses services au public. Il s'agit de [Searchme->http://www.searchme.com/], un moteur dont l'interface visuelle emprunte fortement au logiciel iTunes. Ceux qui utilisent ce logiciel savent qu'il offre la possibilité de visualiser le contenu de leur bibliothèque musicale sous la forme de pochettes d'album glissant sur l'écran comme si elles se trouvaient sur un présentoir tournant. C'est d'ailleurs un des grands points forts de la firme Apple que d'avoir réussi à se démarquer de ses concurrents en présentant l'information de manière visuelle plutôt que textuelle. Le succès de son téléphone iphone est là aussi pour le prouver. De la même manière, le moteur Searchme, plutôt que de présenter ses résultats de recherche sous forme de liste textuelle comme le font la plupart de ses concurrents, les donne à voir sur une sorte de présentoir virtuel affichant des captures d'écran de grand format des pages indexées. Le système est complété par une catégorisation des pages retournées permettant de ne consulter qu'une partie du corpus, ainsi que d'un système astucieux qui surligne en jaune les termes cherchés à l'intérieur des captures d'écran affichées. Pour feuilleter les résultats, il suffit de faire tourner le présentoir virtuel et faire défiler les photos devant ses yeux. Le service proposé n'est pas un gadget ; car il repose sur un élément fondamental qu'ont oublié bon nombre de spécialistes de l'information numérique et qui est présent au coeur des métiers de l'édition depuis que l'imprimerie existe : un des moyens les plus efficaces pour qualifier l'information, renseigner sur son statut est tout simplement visuel ; il s'agit de la mise en page, de la typographie, des illustrations éventuellement qui en habillant le texte donné à lire, en disent long sur son origine et les usages pour lesquels il est destiné. Dans ses conditions, les moteurs de recherche classiques doivent faire des efforts considérables pour documenter l'information qu'ils extraient des sites afin de la présenter sous forme de liste à leurs utilisateurs. Searchme fait au contraire le pari qu'en présentant directement les pages dans leur forme originelle ceux-ci pourront accéder à cette information documentaire d'un seul coup d'oeil. Les limitations sont évidentes : le moteur ne peut présenter de cette manière autant de résultats que sous forme de liste. Peut-être ne fait-il que tirer les conclusions du constat selon lequel très peu d'utilisateurs dépassent la première page de résultats sur les moteurs classiques. Par ailleurs, il repose sur le postulat que ses utilisateurs disposent d'une culture suffisante du web pour analyser et tirer parti de l'information visuelle qui leur est fournie. C'est le point le plus problématique car ce type de compétence documentaire est très inégalement réparti entre dans l'état actuel des choses. Pour un analyste de Searchnews, Searchme est pourtant une des initiatives qui montrent que [l'évolution naturelle des technologies de recherche passe par l'image->http://www.searchnewz.com/topstory/news/sn-2-20080312ImagesaretheNaturalEvolutionofSearch.html]. Voilà qui réjouira les initiateurs du programme de recherche[ Quaero->http://www.quaero.fr], qui porte précisément sur cette question. Après moult difficultés, Quaero semble aujourd'hui bien parti puisque la commission européenne [vient de donner son feu vert->http://www.neteco.com/128946-ue-valide-aide-99-quaero.html] pour le financement de 100 millions d'euros qui lui était promis.
2008-03-25 02:33:49
Searchme
http://www.searchme.com/
La féroce répression par les autorités chinoises des manifestations tibétaines a occupé la une des journaux de cette semaine. Il est bien évident que la vision des événements tels que la presse chinoise les rapporte est quelque peu différente. Cette crise aura été l'occasion de constater aussi l'efficacité grandissante de la [censure chinoise sur les moyens de communication numérique->http://arstechnica.com/news.ars/post/20080321-china-shuts-off-video-sharing-sites-in-wake-of-tibet-riots.html]. Web 2.0 oblige, ce sont les vidéos postées par les internautes sur le portail Youtube en particulier mais pas seulement, qui auront fait les frais de ce contrôle, rapporte[ Le Monde->http://www.lemonde.fr/asie-pacifique/article/2008/03/17/la-chine-bloque-youtube-dans-le-volet-electronique-de-sa-guerre-populaire-au-tibet_1024015_3216.html]. [01.net met en évidence->http://www.01net.com/editorial/374580/quand-les-internautes-chinois-echappent-a-la-censure-sur-le-tibet/?rss] la finesse avec laquelle il s'exerce d'ailleurs, puisque les autorités réussissent désormais à «caviarder» directement les textes et photos publiés par les sites filtrés. Plus inquiétant, cet événement fait l'objet d'une véritable contre-offensive sur des portails comme Sina.com et des forums de discussion, puisque s'y multiplient des messages violents, voire des appels au meurtre contre les tibétains, provenant d'internautes chinois. Ce phénomène de «haine 2.0» si l'on peut dire, trouve son point d'aboutissement avec la publication d'avis de recherche accompagnés de photos d'émeutiers, [sur les portails Yahoo! et MSN dans leur version chinoise->http://observers.france24.com/fr/content/20080321-yahoo-msn-chasse-emeutiers-tibetains], selon France24. La cyber-manifestion que le réseau [Reporters sans frontières->http://www.rsf.org] a organisé quelques jours auparavant tombe à pic. [Cette opération baptisée «24h contre la censure»->http://www.ecrans.fr/Cyber-manifestation-contre-la,3572.html], dénonçait «la censure exercée par certains gouvernements et réclamer plus de libertés sur Internet», dont la Chine, bien évidemment, mais pas uniquement. Ce fut aussi l'occasion pour l'organisation de défense des droits de l'homme, de mettre à jour son [Guide pratique du cyberdissident->http://www.rsf.org/article.php3?id_article=26182] , sorte de manuel expliquant comment utiliser les outils de communication sur Internet comme les blogs, pour accéder à une parole libre dans les pays où elle est sévérement contrôlée. Il est difficile de comparer la censure que des pays comme la Chine, la Lybie et l'Arabie Saoudite exercent, avec la situation d'un pays comme la France. En France pourtant, comme aux Etats-Unis ou d'autres pays occidentaux, les blogueurs sont quelquefois menacés, rarement par leur gouvernement, mais plutôt par des entreprises privées soucieuses de contrôler leur image. L'arme que ces dernières utilisent principalement est alors la lettre de menace envoyée par un cabinet d'avocat, exerçant par là, un véritable terrorisme juridique à l'encontre de ceux que l'on veut faire taire. Ceux-là devraient alors lire [un récent billet de l'avocat-blogueur Maître Eolas->http://www.maitre-eolas.fr/2008/03/25/909-que-faire-quand-on-recoit-un-courrier-d-avocat] donnant des conseils sur l'attitude à adopter en pareil cas. Son billet fait d'ailleurs suite à une très utile [mise au point sur les véritables responsabilités du blogueur en droit français->http://maitre-eolas.fr/2008/03/24/905-blogueurs-et-responsabilite-reloaded].
2008-03-26 11:22:01
Ars Technica
http://arstechnica.com/news.ars/post/20080321-china-shuts-off-video-sharing-sites-in-wake-of-tibet-riots.html
Les relations entre les enseignants et Internet sont souvent vues sous l'angle du choc des civilisations. D'un côté on aurait le royaume de l'ordre et de la hiérarchie, de la transmission unilatérale de savoirs constitués, de l'autre le bazar, l'anarchie, la polyphonie participative. En France, des philosophes comme Alain Finkelkraut se sont fait[ les spécialistes de ce genre d'opposition->http://www.dailymotion.com/video/x3a4a5_debrancher-lecole], voyant là deux univers intellectuels totalement irréconciliables. Au delà des slogans, plusieurs signes indiquent pourtant que des mutations profondes sont à l'oeuvre. Récemment, le blog Ecrans de Veille en Education, faisait le point [sur l'usage des wikis dans les pratiques éducatives->http://www.inrp.fr/blogs/vst/index.php/2008/01/30/usages_des_wikis_dans_la_co_construction] dans un billet qui faisait suite à une formation organisée par l'Institut National de la Recherche Pédagogique sur le sujet :« La production collaborative de contenus : quelles pratiques pédagogiques ?». Le sujet est en effet fondamental, car s'il est vrai que les conditions de production de connaissances ont profondément changé dans la société de l'information, alors il faut bien que l'Ecole prépare ceux qui s'y intégreront aux pratiques qui lui sont propres : partage de l'information, co-production des connaissances, travail collaboratif. A un tout autre niveau, plusieurs initiatives montrent que le corps enseignant est bien moins rétif qu'on ne le dit au nouveau paradigme qui s'annonce. On peut évoquer par exemple Sésamath, un manuel de mathématique entièrement conçu par les professeurs de mathématique de manière collaborative et publié sous licence libre. Le portail Framasoft publie ces jours-ci [un passionnant entretien avec Sébastien Hache->http://framablog.org/index.php/post/2008/03/25/mathematiques-troisieme-manuel-scolaire-libre-sesamath], un des membres fondateurs de cette initiative. Il montre bien comment ce genre de projet repose en fait sur toute une ingénierie du travail collaboratif, où les wikis jouent là encore un rôle important. Relevons au passage la remarque de Sébastien Hache sur l'absence totale de soutien venant de l'Institution. Voilà qui jette une lumière bien intéressante sur les slogans modernisateurs et réformateurs qu'elle jette à l'encontre d'un corps enseignant censé rester engoncé dans ses habitudes. Sésamath montre peut-être que les archaïsmes ne sont pas forcément là où on le croit. Plus profondément, on peut s'interroger sur le parti que veut prendre l'Instition, alors que des initiatives de ce type remettent forcément en cause la domination du très lucratif marché des manuels scolaires par quelques grands éditeurs commerciaux.
2008-03-27 01:20:06
Framasoft
http://framablog.org/index.php/post/2008/03/25/mathematiques-troisieme-manuel-scolaire-libre-sesamath
C'est ce qui ressort de la lecture d['un article publié récemment sur le site Publishing 2.0->http://publishing2.com/2008/03/25/decommoditizing-social-networks-by-connecting-user-profiles-via-opensocial/]. Ce texte évoque le développement de l'initiative [OpenSocial->http://code.google.com/apis/opensocial/], portée par Google, mais rejointe par la plupart des acteurs du domaine, à l'exception notable de[ Facebook->http://www.facebook.com]. OpenSocial est une interface de programmation standard permettant de développer des applications pour réseaux sociaux interopérables (pour l'instant Myspace, Ning, Orkut, Linked in, Viadeo,...). Pourquoi Facebook refuse-t-il de rejoindre OpenSocial ? Parce que ses fonctionnalités sont relativement indifférenciées et qu'il ne peut donc augmenter ses utilisateurs qu'en les enfermant sur une plate-forme non-interopérable. Autrement dit, Facebook apporte peu de valeur ajoutée hormis le fait d'exister et d'être une des plus importante base d'utilisateurs au monde. Ainsi, le fameux effet de réseau qui démultiplie la valeur d'une application en fonction de l'importance du nombre de personnes qui l'utilise ne doit pas faire oublier qu'il doit y avoir un service à la base ; le réseau en soi ne suffit pas. Que font ensemble les utilisateurs de Facebook ? Ils communiquent. Est-ce suffisant ? Peut-être pas. C'est la conclusion que l'on pourrait retenir de cet article qui corrobore [le point de vue d'autres analystes->http://www.fredcavazza.net/2008/03/26/twitter-au-coeur-de-la-revolution-des-medias-sociaux/] pointant les difficultés à venir de la plus célèbre des plate-formes. Les réseaux sociaux sont-ils pour autant condamnés ? Certainement pas car on ne peut qu'être étonnés de la multiplication de plate-formes appliquées à des usages particuliers. On connaissait déjà [Flickr->http://www.flickr.com], plate-forme de partage de photos qui regroupe des millions d'utilisateurs autour d'une passion commune. On voit maintenant apparaître des plate-formes tirant parti de manière très astucieuse de la notion de réseau social. Ainsi l'étonnant [Inpowr->http://www.inpowr.com], plate-forme de développement personnel, permettant à ses utilisateurs de se prendre à témoin et de s'encourager mutuellement dans la voie qui les conduira vers le plus parfait épanouissement. Plus appliquées encore, une plate-forme comme [Babbel->http://www.babbel.com], consacrée à l'apprentissage des langues, permet à ses membres de former des binômes avec les locuteurs dont ils ont besoin pour progresser. A un autre niveau,[ Ning->http://www.ning.com] se présente comme une matrice de réseaux sociaux, permettant à tout un chacun de créer et développer sa propre plate-forme autour du sujet qui l'intéresse....et d'y ajouter ses propres applications grâce à OpenSocial. Si l'on ajoute maintenant le développement de plate-formes spécialisées à l'usage d'une interface de programmation quasi-universelle et aux récentes initiatives de gestion unique de l'identité numérique ([OpenID->http://openid.net/], [Data Portability->http://dataportability.org/]), on commence à pouvoir entre-apercevoir ce qui pourrait être le futur des réseaux sociaux ; bien plus intéressant, il faut bien le dire, que le modèle Facebook : une multiplicité de plate-formes à la fois ouvertes et très spécialisés, orientées par des centres d'intérêt et des activités bien précises, agrégeant d'un côté des individus gérant leur identité numérique en amont de leur participation à telle ou telle plate-forme, et de l'autre par des applications développées de manière transversale. Le plus étonnant, si cette évolution se confirme, est bien la puissance du modèle des réseaux numériques qui, de l'Internet 0.0 qu'était Arpanet jusqu'au 2.0 que représentent les plate-formes de réseaux sociaux impose sa marque et ses lois contre tout autre type d'initiative : décentralisation, ouverture, standardisation de fait, émergence d'un écosystème fondé sur la différenciation des éléments qui le constituent.
2008-03-28 10:06:05
ecommoditizing Social Networks By Connecting User Profiles Via OpenSocial
http://publishing2.com/2008/03/25/decommoditizing-social-networks-by-connecting-user-profiles-via-opensocial/
Jeudi dernier, le Tribunal de Grande Instance de Paris a [condamné en référé Eric Dupin, éditeur du site Fuzz.com à verser des dommages et intérêts à l'acteur Olivier Martinez pour atteinte à sa vie privée->http://www.ecrans.fr/Olivier-Martinez-fait-condamner,3730.html]. Cette condamnation, qui survient quelques jours après une autre du même type [concernant le site Lespeoples.com->http://www.ecrans.fr/Olivier-Dahan-vs-les-flux-RSS,3498.html], a provoqué [une émotion considérable dans le milieu français du web 2.0->http://libertesnumeriques.blogspot.com/] en raison du risque juridique qu'il fait désormais peser sur les sites participatifs, et dont l'alimentation repose sur l'agrégation de nouvelles. Fuzz.com n'est en effet en aucune manière à l'origine des nouvelles qu'il publie, mais ne fait qu'agréger des milliers d'informations collectées par flux RSS qui sont ensuite ordonnées en fonction du vote des internautes. Fuzz est ce que l'on appelle un «Digg-like», du nom du [site américain->http://digg.com] qui en est le modèle. Jusqu'à présent, les éditeurs de ces sites pensaient bénéficier de la protection relative qu'offre[ la loi de 2004 pour la Confiance dans l'Economie Numérique->http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=LEGITEXT000005789847&dateTexte=vig] qui définit un statut d'hébergeur, dégagé de toute responsabilité vis-à-vis des contenus qu'il publie pourvu qu'il les retire à temps. Mais cette loi est déjà ancienne par rapport aux nouvelles pratiques éditoriales qui se sont développées avec le Web 2.0. Elle visait surtout, pour ce chapitre en tout cas, à protéger les responsables de forum, incapables de contrôler a priori les messages publiés par les internautes. Le jugement de jeudi dernier tend à montrer que la loi n'est pas suffisamment précise, en particulier parce qu'elle ne permet au juge de comprendre que les flux RSS relèvent de la même problématique. On devrait bien se garder pourtant de porter des jugements définitifs sur cette affaire. On est loin de la mort du web 2.0 en France, comme on peut le lire [ici ou là->http://www.numerama.com/magazine/9092-Le-27-mars-2008-le-jour-ou-le-web-20-francais-est-mort.html]. Ce qui est évoqué est le résultat [d'une procédure de référé->http://www.maitre-eolas.fr/2008/03/28/911-l-ordonnance-de-refere-dans-l-affaire-fuzz-fr]. Procédure rapide donc, aboutissant à une décision provisoire dont on peut faire appel. Manifestement, une décision de référé [n'a pas la valeur d'une décision au fond.->http://fr.wikipedia.org/wiki/R%C3%A9f%C3%A9r%C3%A9_en_droit_fran%C3%A7ais] On voit donc mal comment cette ordonnance pourrait avoir beaucoup de conséquences sur la jurisprudence. On relèvera cependant l'ironie de l'affaire, puisqu'elle suit la publication il y a quelques semaines, d'un pré-rapport par lequel [l'Assemblée nationale fait le bilan de la Loi sur la Confiance dans l'Economie Numérique->http://www.juriscom.net/actu/visu.php?ID=1038]. Il est très intéressant d'y lire une certaine perplexité des parlementaires à l'égard de cette distinction entre hébergeurs et éditeurs, mal précisée dans la loi. Ainsi, peut-on y lire : «En tout état de cause, un hébergeur qui définit une typologie des blogs sur son site, et qui ventile ces blogs, au sein du classement qu’il a établi, en fonction de leur nature annoncée a une action beaucoup plus proche de celle d’une chaîne de kiosques à journaux, qui regroupe sur ses présentoirs les magazines en fonction de leurs centres d’intérêt, que celle d’un éditeur».
2008-03-29 01:35:14
Net Iris
http://www.net-iris.fr/veille-juridique/actualite/19351/plusieurs-decisions-de-premieres-instances-precisent-la-responsabilite-des-hebergeurs-et-editeurs-de-sites-web.php
L'industrie musicale change d'avis. Après s'être lancée il y a quelques années à corps perdu dans la lutte contre le piratage afin de préserver son modèle économique traditionnel (la vente de cd), elle semble prendre conscience aujourd'hui que la bataille est en voie d'être perdue. Les campagnes de poursuites extrêmement répressives qui ont été déclenchés, aux Etats-Unis surtout, contre des dizaines de milliers d'internautes n'ont pas entraîné l'effet escompté. Les ventes de disques ont continué à chuter. Par ailleurs, ces campagnes ont eu un impact très négatif sur l'image des société qui les ont suscitées. Par conséquent, un nombre croissant d'artistes, ne pouvant se permettre de s'aliéner leurs fans, ont pris leurs distances à l'égard d'éditeurs de plus en plus agressifs contre leur public. Après avoir été dédaigneusement rejetée, la licence globale revient aujourd'hui en force. Par licence globale, on entend généralement un mode de paiement forfaitaire payé par l'internaute, par exemple avec son abonnement à Internet, pour pouvoir écouter sans limite un catalogue de titres, et même l'échanger via des réseaux peer to peer qui sont du coup légalisés. Le point faible de la licence légale, c'est le mode de répartition des revenus entre tous les ayant-droits. Il n'y a plus dans ce cas de figure, de vente à la pièce pour mesurer les usages sur la base desquels distribuer les revenus. Il faut donc imaginer d'autres systèmes de mesure, qui peuvent être biaisés. Malgré ces préventions, plusieurs acteurs importants du secteur montrent aujourd'hui de réels signes d'intérêts pour ce type de solution. Cet été, c'est l'opérateur Neuf Cegetel qui a pu [passer un accord avec Universal Music->http://www.lexpansion.com/economie/actualite-high-tech/la-licence-globale-fait-son-retour-grace-a-alice-et-neuf-cegetel_135491.html] pour proposer à ses abonnés un accès illimité à une partie du catalogue. [Selon le magazine en ligne Numerama->http://www.numerama.com/magazine/9102-Vers-une-licence-globale-chez-Warner-Music-Group.html], le groupe Warner Music songerait à proposer un système d'abonnement à tout son catalogue, faisant suite à des informations similaires en provenance de Sony BMG. Il y a quelques jours, le Financial Times révélait que [la firme Apple réfléchissait à une offre de même type->http://www.cnetfrance.fr/news/musique/apple-reflechit-a-une-licence-globale-pour-l-iphone-et-l-ipod-39379756.htm] couplée à la vente des ipods et iphones. Au Canada, [nous apprend Temps Réel->http://www.temps-reels.net/article1740.html], c'est l'équivalent de la SACEM qui vient de publier un rapport préconisant une solution ressemblant fort à la licence globale. Au même moment, [Wired révèle->http://www.wired.com/entertainment/music/news/2008/03/music_levy] qu'un consultant spécialisé sur les modèles économiques des nouvelles technologies vient de déclencher une polémique sans précédent sur le même sujet. L'histoire est particulièrement ironique pour le législateur français, qui a voté il n'y a pas si longtemps [une loi rejetant sans ambiguité toute solution similaire->http://www.assemblee-nationale.fr/12/dossiers/031206.asp]. On se souvient des débats qui avaient enflammé l'Assemblée Nationale à l'occasion de[ l'adoption de la loi DADVSI->http://fr.wikipedia.org/wiki/Histoire_de_la_loi_DADVSI] et du [refus par le ministre->http://www.numerama.com/magazine/2578-DADVSI-la-licence-globale-rejetee.html] de la culture d'alors, Renaud Donnedieu de Vabres, d'un amendement ouvrant la voie de la licence globale. Ce simple amendement avait provoqué [la mobilisation des éditeurs musicaux et d'un certain nombre d'artistes->http://www.justiceblog.org/breve.php3?id_breve=9] rejetant ce mode de rémunération. Les uns et les autres n'ont pas vu à l'époque qu'ils n'avaient guère le choix, non pas entre la licence légale et la rémunération au pourcentage sur les ventes de disques, mais bien entre deux formes de licence globale. Ils auront donc écarté la mise en place d'un système de mesure et de répartition des revenus par les pouvoirs publics au profit d'un système similaire, mais entièrement contrôlé par les maisons de disque. On verra bien s'il sera aussi favorable aux artistes qu'ils pouvaient l'espérer. Il semble en tout cas qu'il le sera moins pour le consommateur puisque celui-ci, plutôt que de pouvoir s'abonner en une seule fois à l'ensemble des catalogues, devra multiplier les abonnements (aux alentours de 5dollars dans la plupart des cas) pour pouvoir écouter les artistes qu'il aime, pour peu que ceux-ci ne soient pas sous contrat au sein des mêmes groupes.
2008-04-01 13:13:35
Numerama
http://www.numerama.com/magazine/9102-Vers-une-licence-globale-chez-Warner-Music-Group.html
La presse spécialisée s'en est largement fait l'écho : le format de documents bureautiques [?OOXML] développé par Microsoft vient d'être [accepté comme norme internationale->http://www.theregister.co.uk/2008/04/02/ooxml_iso_approved/] par l'ISO. C'est en septembre dernier que les grandes manoeuvres avaient véritablement commencé, [comme Homo Numericus le rapportait alors->http://www.homo-numericus.net/spip.php?breve912]. Après un premier tour de vote négatif, Microsoft, ou plutôt son représentant [Ecma->http://www.ecma-international.org/], porteuse de la demande de certification, a dû revoir sa copie. [Selon les informations publiées par le MagIT->http://www.lemagit.fr/2008/04/02/openxml-est-normalise%e2%80%a6-le-processus-de-vote-de-la-france-lui-lest-moins/], les améliorations proposées par Ecma ont consisté à, d'une part, séparer le format en deux parties - un coeur et une annexe dédiée à la compatibilité avec les formats antérieurs Microsoft - et à promettre la constitution d'un groupe de travail consacré à l'interopérabilité avec l'autre norme ISO pour le formats bureautiques, [?ODF]. Les questions de fond posées par la présence de désormais deux normes internationales partiellement incompatibles de formats bureautiques restent ouvertes et sont pour la moins difficiles à démêler. Pour autant, ce n'est pas cette question qui focalise l'attention des commentateurs aujourd'hui. Il s'agit bien plutôt des conditions dans lesquelles le vote final sur OOXML s'est fait. De très nombreux témoignages font en effet état d'irrégularités diverses dans les différents pays ayant pris part au vote. Ainsi, de la Norvège, qui a émis un vote positif alors que la plupart des techniciens composant son comité ont voté contre. Ainsi de la France, au coeur d'une [intense polémique sur le rôle joué au sein de l'Afnor par les deux représentants de l'administration->http://www.couchet.org/blog/index.php?2008/04/06/314-intervention-elyseenne-dans-le-dossier-ooxml]. Ainsi de la Pologne où les abstentions auraient été comptabilisées comme des votes favorables. L'intense travail de lobbying effectués par Microsoft, mais aussi d'autres acteurs soutenant ODF, auprès de plusieurs de ces instances est pointé du doigt. Aux dernières nouvelles, il semblerait que[ la Commission Européenne soit décidée à mener une enquête->http://www.zdnet.fr/actualites/informatique/0,39040745,39380191,00.htm] sur la manière dont ce vote s'est déroulé. Finalement, de l'aveu de [la plupart des observateurs->http://www.lemonde.fr/technologies/article/2008/04/01/le-format-open-xml-de-microsoft-toujours-controverse-mais-bientot-valide_1029859_651865.html], c'est l'organisme de certification ISO qui semble avoir perdu de la crédibilité dans cette affaire en adoptant une norme internationale qui, loin d'être le résultat d'un consensus au sein de la profession, fait toujours l'objet de vives polémiques.
2008-04-07 02:18:40
Le Monde
http://www.lemonde.fr/technologies/article/2008/04/01/le-format-open-xml-de-microsoft-toujours-controverse-mais-bientot-valide_1029859_651865.html
La célèbre plate-forme de partage de photos [Flickr->http://www.flickr.com] annonce aujourd'hui qu'elle autorise ses membres disposant d'un compte «pro», à partager des vidéos longues au maximum de 90 secondes. On peut légitimement se demander quel peut être l'intérêt d'ouvrir un service de ce type alors que les plate-formes de partage de vidéos, comme [Youtube->http://www.youtube.com] et [Dailymotion->http://www.dailymotion.com], sont déjà présentes sur le marché et bien installées. La réponse tient en un concept particulier que Flickr entend bien promouvoir ; le concept de «photo longue», sorte d'instantané en mouvement d'un instant particulier au cours de la vie quotidienne. Voici en tout cas[ la manière->http://www.flickr.com/help/video/#2214] dont l'équipe proposant cette nouvelle fonctionnalité la présente : «Nous ne voulons pas brider votre créativité artistique, nous essayons juste de créer quelque chose de nouveau. Qui n’a pas subi une interminable projection de vidéo de mariage durant laquelle même la mariée aurait aimé appuyer sur la touche Avance rapide !» La remarque est assez juste, il faut bien le dire. Elle touche en tout cas à un point important : une des caractéristiques de Flickr depuis ses débuts est de mettre en oeuvre une forme particulière d'éducation esthétique pour ses membres. La constitution de groupes, la mise en place d'une sélection quotidienne sur le[ Flickr Blog->http://blog.flickr.net/fr], l'ordonnancement par «interstingness» sont autant d'éléments d'un dispositif global incitant les utilisateurs à améliorer la pertinence et les qualités esthétiques des photos qu'il partagent sur la plate-forme. Les plate-formes de vidéo de leur côté n'ont pas pris le même chemin. Et le résultat est très différent en terme d'usage : alors qu'il est très facile de trouver de superbes photos sur Flickr, on est rapidement noyé dans un flot de vidéos gags, interminables vidéos de mariage ou de soirées alcoolisées, exploits militaires en Irak ou ailleurs sur Youtube et Dailymotion. La contrainte des 90 secondes qu'impose Flickr jouera-t-elle son rôle d'aiguillon esthétique ? Réponse dans quelques semaines ou quelques mois, lorsque le corpus produit par les membres de cette plate-forme sera suffisamment large pour manifester une tendance. On peut en attendant faire une hypothèse. Quelle est l'appareil de prise de vue le plus adapté à l'heure actuelle pour faire des prises de vue de cette longueur, sinon le téléphnoe portable ? Ce qui ne plaide pas a priori pour la qualité. L'expérience peut cependant être opposé : le [festival Pocketfilm par exemple->http://www.festivalpocketfilms.fr/], parie depuis 2005 sur l'émergence d'un véritable genre esthétique pour ce type de réalisation. A suivre.
2008-04-09 01:02:47
Flickr
http://blog.flickr.net/en/2008/04/09/video-on-flickr-2/
Riche actualité cette semaine concernant la mise en place d'une société de surveillance, objet de craintes de plus en plus nombreuses et vives. On peut signaler pour commencer une parution, celle d'un petit ouvrage intitulé [Sous Surveillance !->http://www.scrineo.fr/pages/surveillance.html] écrit par une géographe spécialiste des technologies de l'information et un consultant en observation spatiale. Il s'agit, pour les deux auteurs, de tenter de démêler le mythe de la réalité concernant un sujet qui provoque peurs et fantasmes. Le glissement progressif de notre époque vers une paranoïa globale fait justement l'objet d'un colloque en ce moment même au Palais de Tokyo. Très intéressant, [le programme->http://www.palaisdetokyo.com/fo3_content/pd/cp_Globale_Paranoia.pdf] incite en effet à mettre en relation tous les éléments qui la nourrissent : vidéo-surveillance, environnements intelligents, puces RFID, bases de données biométriques, etc. Sur un plan plus concret, c'est le déploiement programmé d'un nombre toujours plus important de caméras de surveillances dans nos rues qui a fait l'objet d'une actualité des pouvoirs publics cette semaine. Le Ministre de l'intérieur Michèle Alliot-Marie [avait en effet déclaré il y a quelques mois->http://www.lemonde.fr/societe/article/2007/10/12/alliot-marie-compte-tripler-les-cameras-de-videosurveillance-d-ici-fin-2009_966230_3224.html#ens_id=914171] vouloir tripler le nombre de caméras en fonctionnement dans les deux prochaines années. Cette semaine, la CNIL lui répond. En réclamant en effet [par une lettre publique envoyée au Ministre->http://www.cnil.fr/index.php?id=2413], que le vidéo-surveillance tombe désormais dans son domaine de compétence la commission Informatique et Libertés affirme fermement que la généralisation des systèmes de surveillance ne peut de faire sans une certaine....surveillance. Bref, c'est le classique «qui gardera les gardiens eux-mêmes» de Juvénal qui revient en force. Peurs d'un côté, généralisation du système de surveillance de l'autre, inquiétudes par rapport à ce mouvement ; le tableau ne serait pas complet s'il ne faisait état d'un phénomène assez étrange et qui est assez peu évoqué : c'est l'acceptation et la demande par les populations elles-mêmes de ces systèmes de surveillance. Ainsi, selon l'enquête d'opinion commandée par la CNIL, [près de 71% des Français se déclareraient favorable au déploiement de caméras de vidéo-surveillance->http://www.cnil.fr/fileadmin/documents/La_CNIL/actualite/CNIL-sondagevideosurveillance.pdf]. Ce sondage fait écho à une autre enquête, très curieuse, présentée récemment par le Pew Internet & american life Project, montrant qu'[une majorité de chinois approuvent la surveillance de l'Internet par leur gouvernement->http://www.pewinternet.org/pdfs/PIP_China_Internet_2008.pdf], contrairement à ce qu'on pourrait croire (avec toutes les réserves d'usage concernant ce type d'enquête mené dans un pays où la liberté d'expression n'est pas respectée). Mais si les Chinois sont bien confrontés à un système de surveillance de type Big Brother, il n'en va pas forcément de même dans des pays plus démocratiques. Ainsi, pour Jan Chipchase dont [Internet Actu rapporte les propos->http://www.internetactu.net/2008/04/07/de-big-brother-a-little-sister/], il faudrait moins se méfier des méfaits d'un éventuel Big Brother que de ceux d'une «little sister». Une société non pas de sur-, mais de sous-veillance ; c'est ce qui nous attend si nous continuons à céder à la pression sociale et technologique qui nous encourage à rendre public chacun de nos actes de notre vie quotidienne. Les logiciels sociaux, le développement du «micro-blogging» et du «lifecast» que Fred Cavazza [a récemment analysé sur son blog->http://www.fredcavazza.net/2008/04/05/lifecast-podcast-20-et-plus-si-affinite/] sont autant de vecteurs de cette société très particulière qui nous attend...pour notre plus grand contentement à ce qu'il semble.
2008-04-11 09:26:27
Lettre de la CNIL
http://www.cnil.fr/fileadmin/documents/La_CNIL/actualite/CNIL-Notevideosurveillance.pdf
Depuis plus de dix ans, des acteurs de la la recherche scientifique dans la plupart des pays développés cherchent à libérer les résultats de la recherche des verrous qui empêchent d'y accéder librement. Ce mouvement, qualifié de libre accès, ou open access, oppose la plupart du temps une partie des chercheurs, qui ont besoin de pouvoir lire l'ensemble de la littérature scientifique de leur domaine, aux maisons d'édition scientifique qui cherchent à rentabiliser leur activité. Pendant toute une première période, les institutions publiques de recherche ont adopté une position relativement attentiste dans ce conflit. C'est essentiellement la [Déclaration de Berlin en 2003->http://oa.mpg.de/openaccess-berlin/berlindeclaration.html] qui a marqué un tournant en la matière avec un engagement du CNRS, de l'Institut Max Planck, de l'INSERM et d'autres organismes de recherche en faveur du libre accès. Aux Etats-Unis, les[ National Health Institutes (NIH)->http://www.nih.gov/], sorte d'agence fédérale de financement de la recherche dans les sciences du vivant vient de faire un pas supplémentaire en [rendant obligatoire->http://publicaccess.nih.gov/] le dépôt dans Pubmed Central de toute publication issue de recherches qu'elle aurait financé en totalité ou partie. [Pubmed Central->http://www.pubmedcentral.nih.gov/] est une sorte de grande base d'articles en ligne et en libre accès, souvent après un délai de restriction, dans les domaines de la médecine et de la biologie. La «politique de libre accès» imposée par les NIH ne va pas sans poser problème, en particulier parce qu'elle est incompatible avec les politiques de copyright d'un certain nombre d'éditeurs qui refusent le dépôt des articles qu'ils publient dans des bases ouvertes comme Pubmed Central. Le bras de fer n'est donc pas arrivé à son terme. De l'autre côté de l'Atlantique, on est plus prudent. Malgré tout, la Commission européenne vient de publier le [résultat d'une enquête->http://ec.europa.eu/research/era/pdf/comm-pdf-sec-2008-0430-1-documentdetravail_en.pdf] relative à la construction d'un espace scientifique européen (European research area). Une partie de cette enquête fait état d'un engagement d'une part importante des acteurs interrogés en faveur du libre accès. Là encore cependant, les acteurs industriels et les éditeurs expriment leurs inquiétudes et pointent du doigt les incertitudes que le libre accès pourrait faire peser sur la rentabilité économique de leur activité. Plus généralement, deux observateurs du mouvement pour l'open access (OA) font état dans [Library Journal->http://www.libraryjournal.com/article/CA6547086.html] d'un «OA tsunami» en relevant la multiplication des initiatives un peu partout dans le monde et à tous les niveaux. Désormais, les plus importantes et prestigieuses institutions de recherche semblent vouloir (ou devoir) s'engager dans un mouvement toujours plus important. Le très reconnu [Directory of Open Access Journals (DOAJ)->http://www.doaj.org/] recense aujourd'hui près de 3300 revues scientifiques en accès libre. Signe supplémentaire d'un véritable changement de modèle dans le monde de l'édition scientifique. via [OA News->http://www.earlham.edu/~peters/fos/fosblog.html]
2008-04-16 01:03:46
Periodicals Price Survey 2008: Embracing Openness
http://www.libraryjournal.com/article/CA6547086.html
C'est ce qui ressort du [récent échec de Microsoft->http://www.lemonde.fr/web/depeches/0,14-0,39-35308256@7-58,0.html] dans sa tentative d'achat de l'acteur historique Yahoo, numéro 2 de la publicité sur Internet. Après plusieurs mois de négociation et de bataille acharnée, Steve Ballmer, directeur général de Microsoft [vient en effet d'envoyer une lettre->http://gizmodo.com/386912/microsoft-retires-yahoo-offer-wont-try-hostile-takeover] à Jerry Yang, son homologue chez Yahoo pour l'informer de la fin des négociations. Microsoft renonce à acquérir Yahoo pour deux raisons au moins : tout d'abord le prix d'achat, bien trop élevé à l'issue de discussions au cours desquelles il a été relevé plusieurs fois ; mais aussi et surtout, à en croire la lettre envoyée par Steve Ballmer, un projet d'accord entre Yahoo et Google qui prévoirait une sorte de Yalta sur le marché de la publicité en ligne, le premier se réservant les bannières classiques, pour sous-traiter à son concurrent le secteur des liens contextuels sur les résultats de recherche. Cet accord, dont on ne sait pas très bien s'il s'agit seulement d'un coup de bluff ou d'un projet réel, viderait de son sens une fusion entre les deux firmes, puisque celle-ci avait justement pour objectif de faire contre-poids à la domination de Google. A plusieurs reprises, à partir du moment où cette offre d'achat avait été connue, Yahoo [avait exprimé son opposition à être absorbé par le géant du logiciel->http://www.zdnet.fr/actualites/internet/0,39020774,39378434,00.htm?xtor=RSS-1]. Il faut dire que pour l'acteur historique de l'Internet qu'est Yahoo, cette perspective était loin d'être joyeuse, dans la mesure où Microsoft a toujours montré par le passé un certain manque de pertinence dans ce domaine. Au lendemain du feuilleton haletant qui a vu s'affronter de très gros acteurs du numérique, le paysage risque d'être encore plus déséquilibré qu'avant. Pour Yahoo, la plupart des analystes prévoient[ un effondrement boursier dès lundi->http://www.lepoint.fr/actualites-economie/yahoo-sous-pression-apres-l-abandon-de-l-offre-de-microsoft/916/0/243039]. Cette société devra faire la preuve dans les mois qui viennent de la solidité de sa stratégie si elle veut remonter la pente. Pour Microsoft, le désastre risque d'être encore plus grand : la société a une nouvelle fois fait la preuve de son incapacité à prendre pied sur Internet. C'est d'autant plus inquiétant qu'elle est soumise à une double pression : sur le marché des systèmes d'exploitation, la sortie de Vista a reçu un [accueil glacial de la part des utilisateurs->http://www.pcworld.com/businesscenter/article/145457/vista_inevitable_at_work_analyst_says.html], professionnels et personnels, notamment en raison des défauts intrinsèques au logiciel. Mais le pire concerne le marché des applications bureautiques, où la suite de Microsoft, Office, est menacée, sur sa gauche, par le succès grandissant de concurrents libres, comme la suite Open Office, et sur sa droite, par le développement des applications en ligne, où un acteur en particulier, développe une offre de plus en plus attrayante. Il s'agit bien sûr de ... Google, avec son offre Google docs, disponible aussi pour les entreprises via Google apps. Avec ces échecs successifs, le magazine en ligne Techcrunch posait ce soir ouvertement la question de [la démission de Steve Ballmer->http://feeds.feedburner.com/~r/Techcrunch/~3/283361471/] dont [le rôle semble avoir été crucial->http://www.sfgate.com/cgi-bin/article.cgi?f=/n/a/2008/05/04/financial/f113019D57.DTL&feed=rss.business] dans cette affaire Le leader de la recherche d'information voit donc ses positions renforcées et semble donc bien destiné à dominer largement et durablement, un paysage numérique en voie de stabilisation.
2008-05-04 12:12:17
01 net
http://www.01net.com/article-actualites/microsoft-retire-son-offre-sur-yahoo-high-tech-reuters.-01net.html?rss
Quoi de neuf dans le multivers ? Il dispose désormais d'un guide touristique. L['Association of Virtual Worlds->http://www.associationofvirtualworlds.com], association consacrée à la promotion, l'étude et la discussion sur les mondes virtuels vient en effet de publier son [Blue Book->http://www.associationofvirtualworlds.com/publishing.htm], librement téléchargeable au format pdf. Dans ce guide, on trouvera recensés près de 250 mondes virtuels, classés par ordre alphabétique, mais aussi décrits par catégories. Très rudimentaire, ce guide du routard virtuel fait apparaître la grande richesse et la variété de ces mondes parallèles au nôtre, au delà des habituels Second Life et World of Warcraft sur lesquels se focalise l'attention. Le document permet ainsi de mieux comprendre la diversité des usages et des publics que les mondes virtuels peuvent toucher. Loin d'être uniquement destinés aux adolescents dans un contexte ludique, ils peuvent aussi s'adresser à de jeunes enfants (c'est le pari qu'est en train de faire le fabricant de jeux [Lego->http://universe.lego.com/en-US/default.aspx] par exemple) ou à des adultes actifs, par exemple dans des contextes professionnels. Ils peuvent être ciblés sur un sujet précis ou largement ouvert à toutes sortes de préoccupations. Techniquement, ils ne reposent pas nécessairement sur l'utilisation de moteurs graphiques 3D mais peuvent déployer des formes de représentation beaucoup plus proches du Web classique. Bref, il ne faut pas manquer de feuilleter cet indispensable guide qui constitue une bonne introduction à un univers, pardon multivers particulièrement polymorphe. Dans le même ordre d'idées, signalons, pour ceux qui ne le connaissent pas encore, l'existence de la meilleure source d'information et de réflexion sur le sujet, [le blog Terra Nova->http://terranova.blogs.com/], animé par un petit groupe d'acteurs professionnels et d'universitaires observateurs du domaine.
2008-05-05 01:12:49
An Atlas of ourt Terra Nova
http://terranova.blogs.com/terra_nova/2008/05/an-atlas-of-our.html#more
<multi>[fr]La dissolution de l'entreprise fordiste continue. Et la multiplication d'outils de communication numériques toujours plus performants, simples d'utilisation et surtout d'accès universel n'y sont pas pour rien. Un dossier publié [par The Economist->http://www.economist.com/opinion/displaystory.cfm?story_id=10950394] et [décortiqué par Hubert Guillaud->http://www.internetactu.net/2008/05/06/homo-mobilis/] dans Internet Actu signale l'émergence d'un homo mobilis toujours en mouvement, toujours connecté. Ce nouveau mode de vie, en faisant voler en éclat les frontière matérielles et symboliques qui isolent le lieu de travail d'autres espaces d'activité est marqué pour l'individu, par un effacement progressif des limites entre le temps personnel et le temps professionnel. Cet effacement repose sur une double invasion d'ailleurs : d'un côté l'équipement des salariés par de multiples outils de communication nomades augmente leur disponibilité pour répondre aux sollicitations plus ou moins urgentes liées au travail. C'est [l'effet Blackberry->http://www.homo-numericus.net/spip.php?breve916]. De l'autre, l'accès au téléphone, au courrier électronique et au Web de la plupart des postes de travail permet une utilisation, sur le lieu de travail, de ces outils pour des fins personnelles. Le roman satirique [D'un point de vue administratif->http://www.amazon.fr/gp/product/2842194314?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=6746&creativeASIN=2842194314], récemment publié par Francis Mizio en fournit une illustration caricaturale et hilarante. Syndicats et directions d'entreprises ne voient chacun que la moitié du problème et tentent tant bien que mal de contingenter ces invasions réciproques via des chartes informatiques et une jurisprudence qui s'élabore progressivement. Les unes et les autres se rejoignent cependant en défendant une conception de l'organisation du travail typique de l'ère industrielle, c'est-à-dire reposant sur une séparation radicale entre les deux univers. Le problème semble cependant beaucoup plus profond qu'il n'y paraît et on peut être sceptique quant à la pérennité de ce modèle. Car outre les lieux et les temps, ce sont les systèmes de signes eux-mêmes qui s'effondrent aujourd'hui les uns sur les autres. On oublie trop facilement combien l'ordinateur personnel a joué le rôle d'un Cheval de Troie au sein des foyers en y faisant entrer tout un vocabulaire, un système de représentation documentaire et donc des types d'activités directement hérités de l'entreprise moderne : le bureau, les dossiers et les fichiers, les traitements de texte, claviers et moniteurs sont autant de supports à des postures physiques et intellectuelles, à des activités et de types de représentations qui proviennent directement du monde du travail et qui ont envahi les activités de loisirs. Mais, exactement de la même manière que pour les lieux et les temps, on assiste aujourd'hui à une invasion réciproque où les outils qui se sont développés pour l'activité de loisir s'introduisent de moins en moins subrepticement dans les lieux de travail. L'émergence des outils dits Web 2.0, ou plus classiquement ceux que fournissent aujourd'hui gratuitement des géants de l'Internet comme Google commencent à constituer une lame de fond en terme d'usages qui n'est pas sans répercussion sur les univers professionnels. Le phénomène dit du [P.A.L.C.->http://blog.ronez.net/?p=708] est typique de cette évolution. Il représente l'énervement des utilisateurs qui ont du mal à comprendre pourquoi les environnements de travail que leur fournit leur entreprise sont moins puissants, moins utilisables, de moins bonne qualité que ceux qu'ils utilisent gratuitement chez eux pour leurs loisirs. De nombreux signes indiquent que les services informatiques de ces organisations de travail réagissent mal à cette pression. Utilisant souvent l'argument sécuritaire, ils tentent d'en décourager l'utilisation, par exemple en bridant les machines de leur parc informatique. [Un récent article paru dans ReadWriteWeb->http://www.readwriteweb.com/archives/social_tools_for_the_office_worker_subvert_it_and_play_at_work.php] expliquant comment contourner ces barrières pour continuer à chater, échanger des fichiers, rester en contact avec ses réseaux sociaux, en dit long sur l'état du rapport de force entre les services informatiques et les salariés au sein des organisations. Plus récemment, et plus localement, le service qui assure la sécurité du patrimoine scientifique du CNRS a préparé une recommandation pour l'utilisation des services gratuits par les personnels de l'organisme de recherche français. [Commenté en particulier par Hervé Le Crosnier, ce document->http://www.a-brest.net/article3944.html] décourage évidemment toute utilisation de ces outils dans un cadre professionnel, ciblant ses attaques en particulier sur le logiciel Gmail. Les arguments évoqués sont évidents : manque de fiabilité, problèmes de confidentialité, problèmes de dépendance, brouillage des cadres de l'activité. De manière un peu étrange, le document insiste aussi sur le caractère lucratif de cette activité de service pour les entreprises qui les fournissent, comme si c'était un problème en soi. Plus intéressant : les auteurs s'adressent aussi aux responsables des services informatiques en les encourageant à fournir des services à la hauteur des attentes de leurs utilisateurs. Peine perdue ? L'argument de la taille ne joue pas autant qu'on pourrait le croire ; car la plupart des services Web 2.0 très attirants, faciles d'usages et efficaces que l'on voit fleurir tous les jours sont conçus et supportés par de petites équipes au sein de start-ups. Alors, quel pourrait être l'élément déclencheur ? Eh bien peut-être justement la prise de conscience au sein de ces services informatiques qu'ils ne travaillent pas dans des bulles étanches, que leur utilisateurs ne constituent plus un public captif et qu'ils se trouvent placés en situation de concurrence avec une foultitude de fournisseurs de service en dehors de leur organisation ; bref, que la bataille des usages n'est jamais gagnée d'avance. C'est la figure du professionnel-amateur qui émerge finalement au terme de cette analyse. [Le terme de Pro-Am->http://blog.homo-numericus.net/spip.php?article12] qui désigne les amateurs concepteurs de services ou de produits qui n'ont rien à envier à ceux conçus par les professionnels peut très bien s'appliquer ici, dans un sens légèrement différent : il désigne aussi les professionnels qui tirent parti de leurs expériences d'amateur pour améliorer leur efficacité et leur satisfaction au travail. [en]The dissolution of the company Fordist continues. And the proliferation of digital communication tools ever more efficient, easy to use and, above all, universal access is not for nothing. A dossier published by The Economist and husked by Hubert Guillaud Internet News reported the emergence of a homo mobilis always moving, always connected. This new way of life, making fly to shine the border material and symbolic that isolate the workplace other areas of activity is marked for the individual, by a blurring of boundaries between the personal time and time professional . This deletion is based on a double invasion elsewhere: on the one hand equipment for employees through multiple communication tools nomadic increases their availability to meet the demands more or less urgent work-related. That is the effect Blackberry. On the other hand, access to telephones, e-mail and the web of most workstations allows for use in the workplace, these tools for personal purposes. The satirical novel of an administrative point of view, recently published by Francis Mizio provides an illustration grotesque and hilarious. Trade unions and managements companies do see that each half of the problem and try somehow to these invasions reciprocal quota charters via computer and precedents that develops gradually. Both, however, join in defending a concept of work organization typical of the industrial era, ie based on a radical separation between two worlds. The problem, however, seems much deeper than it seems and can be skeptical about the sustainability of this model. For in addition to the places and times, it is the sign systems themselves today collapsing on each other. We forget too easily how the personal computer has played the role of a Trojan horse within the home by bringing an entire vocabulary, a system of representation documentary and therefore the types of activities directly inherited from the modern enterprise : The office, records and files, word processors, keyboards and monitors are all carriers of intellectual and physical postures, activities and types of performances that come directly from work and who invaded activities leisure. But exactly the same way as for places and times, we are now witnessing an invasion reciprocal where the tools that were developed for leisure activity enters less and less surreptitiously in the workplace . The emergence of tools called Web 2.0, or more typically those that now provide free Internet giants like Google are beginning to be a blade of substance in terms of practice is not without impact on the world professional . The phenomenon known as P.A.L.C. is typical of this development. It represents the irritation of users who have difficulty understanding why working environments that provides them with their businesses are less powerful, less usable, lower quality than those they use them for free at their leisure. Many signs indicate that the services of these organizations work do not respond well to that pressure. Using the argument often safe, they are trying to discourage their use, for example bridant machines in their park. A recent article published in ReadWriteWeb explaining how to circumvent these barriers continue to chat, exchange files, keep in touch with its social networks, says a lot about the state of the power relationship between IT departments and employees within organizations . More recently, and more local service that ensures the safety of the CNRS scientific heritage has prepared a recommendation for the use of free services by the personnel of the research organization french. Reviewed particularly by Herve Le Crosnier, this document clearly discourages any use of these tools in a professional setting, targeting in particular its attacks on the software Gmail. The arguments raised are clear: lack of reliability, confidentiality problems, problems of addiction, jamming frames of the activity. In a little strange, the document also emphasizes the lucrative nature of this service activity for companies that supply them, as if it were a problem in itself. More interesting: the authors are also responsible for the services by encouraging them to provide services to meet the expectations of their users. Not a chance? The argument that size does not play as much one might believe, as most Web 2.0 services very attractive, easy to use and effective that we see every day flower are designed and supported by small teams within start-ups. So what could be the trigger? Well maybe just awareness within these services they do not work in tight bubbles, that their users are no longer a captive audience and they are placed in a situation of competition with a multitude service providers outside their organization; short, that uses the battle is never won in advance. That is the figure of professional-amateur who finally emerges at the end of this analysis. The term Pro-Am, which means fans designers of services or products that have nothing to envy those designed by professionals may well apply here, in a slightly different meaning: it also includes professionals who draw from their experiences amateur to improve their effectiveness and job satisfaction. </multi>
2008-05-06 04:03:05
A propos des services gratuits sur le web
http://www.a-brest.net/article3944.html
L'agence américaine de recherche pour la défense, DARPA, a récemment lancé, [selon le magazine en ligne Wired->http://blog.wired.com/defense/2008/05/the-pentagon-wa.html], une initiative massive pour le développement de moyens de guerre électronique dans les systèmes d'information. Selon les informations de Wired, ce programme, doté à hauteur de 2 milliards de dollars, vise à construire un réseau parallèle à Internet, une sorte de cyber-maquette, sur laquelle les forces américaines pourraient concevoir et expérimenter des moyens de guerre électronique offensifs et défensifs. Selon [une autre information publiée par Wired->http://blog.wired.com/defense/2008/05/the-pentagons-w.html], la DARPA demanderait aux entreprises travaillant sur ce programme de concevoir des agents simulant le comportement d'être humains sur les réseaux électroniques. Finalement, il s'agirait de construire une gamme complète d'armes pour mener [une cyber-guerre au niveau international->http://www.wired.com/politics/security/commentary/securitymatters/2008/05/blog_securitymatters_0501]. Cette initiative, la première de cette ampleur depuis la création de la Darpa à la fin des années 50, témoigne de l'importance que la guerre de l'information prend aux yeux de la plupart des gouvernements. Dans une toute autre région du monde, [le Times of India mettait au jour récemment->http://arstechnica.com/news.ars/post/20080506-china-behind-recent-hack-attacks-says-indian-government.html] les dessous d'un conflit qui oppose l'Inde à son rival régional, la Chine. Plusieurs indices montrent en effet que ce dernier pays éprouve en ce moment même les défenses des réseaux électroniques indiens par des séries d'attaques coordonnées. Les deux pays ne sont plus en guerre ouverte depuis le conflit qui les a opposé en 1962. Leurs relations se sont améliorées depuis, notamment sur les questions territoriales, mais restent marquées par le problème du Tibet, dont le gouvernement en exil est réfugié en Inde. Plus globalement, les deux pays sont en concurrence pour un leadership régional sur le plan stratégique et économique. La récente campagne internationale pour le respect des droits de l'homme en Chine et au Tibet a provoqué, on le sait, une réaction nationaliste chinoise. Il est bien difficile d'évaluer la spontanéité réelle des internautes chinois dans cette réaction. Il semble bien que le gouvernement chinois est très actif dans les formes que prend ce nationalisme sur Internet. [Carine Senft-Gouin explique dans la lettre de l'Atelier->http://www.atelier.fr/article.php?artid=36510], comment les sites et messages appelant au boycott des produits français par exemple, sont apparus sur la Toile de manière très coordonnée. On le voit, la cyber-guerre ne passe pas nécessairement par l'intrusion ou le piratage des réseaux informatiques et de communication. Elle prend aussi la forme d'une guerre d'image et de réputation à l'heure où se développent les médias globaux participatifs. Ainsi, récemment, le blog Electronic Intifada animé par le militant pro-palestinien Ali Abunimah, révélait l'existence de [stratégies organisées venant d'activistes pro-israëliens pour intervenir de manière camouflée sur l'encyclopédie en ligne Wikipedia->http://electronicintifada.net/v2/article9474.shtml]. Selon Abunimah, un groupe localisé à Boston et nommé CAMERA, chercherait non seulement à réécrire certains articles les plus sensibles - ce qui est assez banal -, mais aussi à prendre des positions à l'intérieur de la communauté des contributeurs et éditeurs de Wikipedia. Plusieurs d'entre eux ont d'ailleurs été [repérés et bannis->http://en.wikipedia.org/wiki/Wikipedia:Administrators%27_noticeboard/Incidents/Statement_re_Wikilobby_campaign#Sanctions] depuis cette affaire.
2008-05-13 01:48:57
Wired
http://blog.wired.com/defense/2008/05/the-pentagon-wa.html
Avec le printemps vient d'éclore le nouveau projet "Outils-réseaux" ! Une nouvelle structure : l'association "Outils-réseaux" Depuis 2004, l'[association Tela Botanica->http://www.tela-botanica.org] pilotait le programme "Outils-réseaux", en collaboration avec de nombreux intervenants et partenaires. Pour rendre plus lisible et cohérent le projet et ainsi optimiser son fonctionnement, nous avons décidé de rendre autonome le programme outils-reseaux. Une association "Outils-réseaux" a donc été créée en avril 2008, avec pour objectif d'assurer le fonctionnement du programme "Outils-réseaux" : "Outils-réseaux a pour but d'initier et d'accompagner les pratiques coopératives, en s'appuyant notamment sur des outils Internet. Son territoire d'action privilégié est la Région Languedoc-Roussillon. Outils-réseaux est en interconnexion avec des initiatives francophones comparables." (article 4 des statuts) En 2008, une part des activités restera au sein de l'association Tela Botanica aux vues des partenariats engagés, mais dès 2009, toute l'activité sera autonome. Nous étudions parallèlement la possibilité d'un passage en scop ("[Kaleïdos.coop->http://kaleidos-coop.org]"), c'est une piste que nous continuons à explorer... Une nouvelle équipe Qui dit nouvelle structure, dit nouvelle équipe : - David Delon : informaticien, formateur - Jessica Deschamps : infographiste, chargée de communication - Mathilde Guiné : coordinatrice, formatrice - Laurent Marseault : coordinateur, animateur, formateur - Florian Schmitt : informaticien, formateur Ces noms vous disent quelque chose ? Ce sont en fait les différentes personnes qui intervenaient déjà dans "Outils-réseaux" qui se sont regroupées et qui se structurent en équipe. ... et un nouveau conseil d'administration - Jean-Michel Cornu : président - Michèle Cornillon : trésorière - Daniel Mathieu : secrétaire Un nouveau site : [outils-reseaux.org->http://www.outils-reseaux.org] Le site outils-reseaux.org a été "re-looké" pour l'occasion : nouveau graphisme, nouvelles fonctionnalités, des ressources et des contenus de formation nettoyés et ré-organisés ! De nouvelles coordonnées Nous restons hébergé au même endroit mais nous changeons de numéro de téléphone. Pour nous joindre, composez le : 08 70 44 52 60 (prix d'un appel local). Un nouveau programme de formations Le programme de formations "Outils-réseaux" se poursuit, avec plusieurs dates déjà prévues pour la fin de ce semestre : - [Charte graphique de votre outil Internet->http://outils-reseaux.org/wakka.php?wiki=ModCourt160508], vendredi 16 mai 2008 - Montpellier (Lycée Agropolis) - [Atelier wikini->http://outils-reseaux.org/wakka.php?wiki=ModCourt230508], vendredi 23 mai 2008 - Alès (dans les locaux de Solid@rnet) - [Des outils et des méthodes pour le télé-travail->http://outils-reseaux.org/wakka.php?wiki=ModCourt060608], vendredi 6 juin 2008 - Montpellier (Lycée Agropolis) - [Stages sur projet : votre projet coopératif de A à Z->http://outils-reseaux.org/wakka.php?wiki=StagesOutilsInformatiques], du 16 au 18 juin 2008 - Montpellier (Lycée Agropolis) - [Des outils, des usages et des méthodes pour coopérer->http://outils-reseaux.org/wakka.php?wiki=ModCourt200608], vendredi 20 juin - Nîmes (lieu précisé ultérieurement) Pour le prochain semestre, nous souhaitons recueillir votre avis pour programmer des stages correspondant à vos besoins : répondez à notre sondage en ligne : [http://www.outils-reseaux.org/enquetes->http://www.outils-reseaux.org/enquetes] ! Un nouveau système de gestion des contacts Nous inaugurons également une nouvelle méthode pour gérer la diffusion d'informations, avec le gestionnaire de contact "phpliste". Vous pouvez complètement configurer vos préférences pour ne recevoir que l'information qui vous intéresse (ou vous désabonner) , pour cela cliquez sur [le lien suivant->http://outils-reseaux.org/listes]. A bientôt pour la suite des actions "Outils-réseaux", Coopérativement votre, L'équipe "Outils-réseaux"
2008-05-14 00:09:05
Outils-Réseaux
http://www.outils-reseaux.org
C'est la question que posent ensemble la section virtuelle du Parti Socialiste [Temps Réel->http://www.temps-reels.net/article1777.html], et le blog [Béta politique->http://www.betapolitique.fr]. Pour ce faire, ce dernier a ouvert [un wiki->http://www.betapolitique.fr/wiki/index.php/BilanNum%C3%A9riqueSarkozy] où l'on peut voir détaillés la quarantaine d'engagements que le candidat à l'élection présidentielle avait pris dans le Journal du Dimanche en avril 2007. Encore à l'état de brouillon, cette page donne une première représentation d'une politique pour le moins...brouillonne. Ce qui frappe, c'est l'incapacité de ce gouvernement (comme des précédents du reste), à identifier dans les faits les secteurs économiques d'avenir. C'est très clair dans le secteur culturel où, malgré les déclarations verbales et générales, ce sont les industries du passé qui donnent le ton de la politique gouvernementale. Ainsi, confier [une mission sur le piratage->http://www.zdnet.fr/actualites/internet/0,39020774,39372680,00.htm?xtor=RSS-1] au patron d'une chaîne de magasins «en dur», la Fnac, vendant des livres et des cd, c'est-à-dire directement concurrencé par les nouveaux modes de consommation culturelle sur Internet, est assez significatif. Très logiquement, la commission Olivennes a [préconisé d'encadrer très sévèrement ces usages->http://www.temps-reels.net/article1734.html] de manière à les décourager. La riposte graduée, qui fait le coeur du projet de loi que prépare dans la foulée le gouvernement vise à interdire d'Internet les pirates ou présumés tels. Aussitôt évoquée, cette mesure a fait l'objet des plus vives condamnations, de la part des [industries de l'Internet->http://www.ecrans.fr/Le-Web-Communautaire-torpille-la,4030.html], ce qui est assez normal, mais aussi de la part de nos [voisins européens->http://www.ecrans.fr/L-Europe-tacle-la-riposte-graduee,3811.html]. Ce qui est intéressant, c'est que la mise en oeuvre de ce que certains qualifient de [«guillotine numérique»->http://www.laquadrature.net/fr/guillotine-numerique] doit se faire en dehors de tout contrôle judiciaire, sous la houlette d'une haute autorité dont on ne sait pas encore grand-chose. Cet organisme parapublic doit cependant être mis en perspective avec les pratiques déjà courantes de recherche et de constatation des infractions par des agences privées agissant au nom des ayant-droit (et non du bien public). Au total, on a donc la constitution d'un système régulateur parallèle et privé, au service d'industries dont les intérêts sont menacés par Internet, et ayant pouvoir de vie et de mort numérique sur les usagers du réseau. Lorsque Nicolas Sarkozy a [proposé que le manque à gagner du fait de la suppression de publicité sur les chaînes publiques qu'il venait d'annoncer soit financé par une taxe sur les fournisseurs d'accès à Internet et de téléphonie mobile->http://www.zdnet.fr/blogs/2008/01/08/sarkozy-veut-taxer-internet-pour-compenser-la-fin-de-la-publicite-sur-les-chaines-publiques/], il s'est situé dans la même logique. C'est pourtant sur le plan des libertés individuelles que le bilan du Président de la République, qui fut aussi Ministre de l'Intérieur est le plus frappant ; la mise en oeuvre du [passeport biométrique->http://afp.google.com/article/ALeqM5j9CWz0X3YQvdZMv1ZrIfYk1J1e6Q] vient couronner une longue évolution caractérisée par la [multiplication de fichiers de toutes sortes, et d'abord policiers->http://www.edri.org/edrigram/number6.2/privacy-france-2007]. Ce nouveau titre d'identité contient en effet stockées sur une puce [?RFID] des informations d'identification basées sur les caractéristiques biologiques de l'individu : empreintes digitales et forme du visage. Sa mise en oeuvre est justifiée, comme souvent, par l'injonction européenne. Il reste que les mesures prises par le gouvernement français vont bien au delà de ce que demande l'Europe. Au coeur de la polémique, on trouve bien sûr la constitution d'une base de données centrale contenant toutes ces informations. En décembre 2007, la Commission Informatique et Libertés avait émis une [recommandation très défavorable->http://www.cnil.fr/?id=2427] à l'égard de cette base de données. Le gouvernement a décidé de passer outre sans même prendre la peine d'organiser un débat public comme le demandait la Commission. Conclusion : passéisme et panoptisme semplent bien être les deux mamelles de la France numérique selon Nicolas Sarkozy (n'est pas Sully qui veut).
2008-05-15 09:34:26
AFP
http://afp.google.com/article/ALeqM5gYx6HZAGRUx9yKQVWEBKqiboe6RQ
<multi>[fr]L'[?ICANN] a 10 ans. Cet organisme para-public chargé d'établir les règles d'attribution des noms de domaine et des adresses IP a suscité, depuis sa création, de nombreux débats. Il représente un élément très important du dispositif de gouvernance globale de l'Internet. Entre le 23 et le 26 juin prochains, [l'ICANN se réunira d'ailleurs à Paris->http://paris.icann.org] pour débattre des questions en cours et de son avenir. Ce sera l'occasion pour les acteurs français de faire entendre leur voix avec un peu plus de force qu'on en a l'habitude jusqu'à présent. Ainsi, et dans le contexte de la prochaine présidence française de l'Union Européenne, quatre organismes ont appelé à la [construction de ce qu'ils appellent une «gouvernance européenne de l'Internet»->http://www.zdnet.fr/actualites/internet/0,39020774,39380881,00.htm?xtor=RSS-1]. Il s'agit de la Commission Nationale Informatique et Libertés, du Forum des Droits de l'Internet, de l'AFNIC et du chapitre français de l'Intrernet Society. Selon eux, les acteurs européens seraient bien trop dispersés et mal coordonnés dans les instances de gouvernance de l'Intternet, comme le [Forum International sur la Gouvernance de l'Internet->http://www.intgovforum.org/], qui a été créé à la suite du Sommet Mondial sur la Société de l'Information ([?SMSI]) en 2005. La conséquence de ce manque de coordination est évidemment la faiblesse des européens face aux représentants des Etats-Unis, beaucoup plus efficaces. Il faut dire qu'aux Etats-Unis, la question de la gouvernance de l'Internet fait l'objet de débats permanents et riches, qui touchent un public plus important que les techniciens et spécialistes habituels. Ainsi, le Berkman Center for Internet and Society vient de lancer une initiative intitulée [Publius Project->http://publius.cc/] visant à organiser un dialogue constitutionnel entre plusieurs acteurs connus, sur cette question de la gouvernance de l'Internet. Le plus intéressant est que ce ne sont pas les spécialistes qui s'expriment sur le site du projet. Ainsi, on peut y lire des papiers rédigés par David Weinberger, Doc Searles, Dans Gillmor ou Clay Shirky. Du côté des universitaires aussi, cette question suscite de plus en plus de recherches. Ainsi, en juin prochain, à l'occasion de la rencontre de l'ICANN à Paris, le réseau Giganet [organisera lui aussi un atelier->http://tinyurl.com/3y9ld8] pour permettre aux différents chercheurs travaillant sur le sujet de se présenter mutuellement l'état de leurs travaux. De son côté, le programme de recherche [Vox Internet->http://www.voxinternet.org] organise aux alentours de la même date un [séminaire sur le thème : «Réévaluer la gouvernance Internet dans un réseau d'humains et d'objets».->http://certop.fr/DEL/spip.php?article1421] [en]ICANN is 10 years old. This para-public body responsible for setting rules for assigning domain names and IP addresses has raised since its inception, many debates. It represents a very important element of the system of global governance of the Internet. Between next 23 and June 26, ICANN also will meet in Paris to discuss current issues and its future. This will provide an opportunity for french actors to make their voices heard with a little more force that is accustomed to so far. Thus, in the context of the forthcoming French presidency of the European Union, four organizations have called for the construction of what they call a "European governance of the Internet." It is the Commission Nationale Informatique et Libertés, the Forum des Droits de l'Internet, AFNIC and french chapter of the Internet Society. According to them, European players are far too scattered and uncoordinated in bodies of Internet governance, as for example the International Forum on Internet Governance, which was established following the World Summit on the Information Society (WSIS) in 2005. The consequence of this lack of coordination is clearly the weakness of Europeans compared to representatives of the USA, much more effective. It must be said that in USA, the question of Internet governance is being discussed permanently, affecting an audience larger than the usual technicians and specialists. Thus, the Berkman Center for Internet and Society has launched an initiative called Publius Project to organize a constitutional dialogue on this question of Internet governance beetween famous players on the Internet. The most interesting is that these are not the specialists who speak on the project site. Thus, one can read papers written by David Weinberger, Doc Searles, or Gillmor In Clay Shirky. As far as academics, this issue arouses more and more research. Thus, next June, at the ICANN meeting in Paris, the network Giganet also hold a workshop to enable researchers working on this topic to attend each other on their work. Meanwhile, the research programme Vox Internet hosts around the same date a seminar on the theme: "Reassessing the Internet governance in a network of people and objects". </multi>
2008-05-19 04:33:14
Publius Project
http://www.publius.cc
<multi>[fr]A partir du 20 juin 2008, Paris accueille la Semaine de l'Internet Mondial. Différentes réunions privées et publiques sont organisées autour des questions de l’Internet et de sa gouvernance. Sous les auspices de l’Icann, de l’Isoc, de l’Afnic ou d’autres, elles sont ouvertes à tous ceux qui souhaitent mieux comprendre les enjeux, participer aux débats en cours ou émettre de nouvelles idées. D’accord - ou pas - avec les organisations qui se réunissent à Paris, en accord - ou en désaccord - avec les autres participants qu’ils soient des utilisateurs, des fournisseurs, de la société civile, des pouvoir publics, du secteur privé ou de la communauté technique, venez écouter, participer à l’une ou l’autre de ces réunions. Egeni La septième édition d’Egeni, organisée par Isoc France, et dont Sociétés de l’information est partenaire, se tient à Paris le 20 juin 2008, au Méridien Montparnasse sur le thème : « Internet 2020 ». Trois grands débats rythment cette journée de rencontres : - Internet et l’Europe : vers un FGI Europe ? A la veille de la présidence de l’Union Européenne par la France : débat sur le rôle de l’Europe dans la gouvernance de l’Internet entre grands témoins et responsables politique. - Le futur de l’Internet et l’internet du futur. Des experts confrontent leurs visions à celles de grands témoins. - Les utilisateurs au cœur de l’Internet. Des responsables politiques et d’organisations de la gouvernance de l’Internet dialoguent avec les représentants des utilisateurs du réseau. Icann L’Icann prend le relais du 21 au 27 juin ; sa 32ème réunion internationale se tient pour la première fois en France. Les hôtes français sont nombreux et regroupés au sein de l’Agifem : l’Afnic, le W3C, Renater, Namebay, Internet fr, Indom, EuroDNS, Domaine.fr, Amen et Isoc France avec le soutien de la Mairie de Paris, du ministère de l'Economie, des finances et de l'emploi, du ministère des Affaires étrangères, de France Télécom et du Toit de la Grande Arche avec le Musée de l’informatique et seront rejoints par d’autres, sponsors et partenaires. Les conférences de l’Icann se tiennent trois fois par an donnent lieu à de multiples réunions – le plus souvent ouvertes – regroupant des participants soit autour de thèmes communs soit pour leur appartenance à un groupe, ou à une constituante. Pour cette édition, les sujets principaux, qui vont sans doute évoluer dans les semaines qui viennent, sont : - La transition et l’évolution de l’Icann à la fin du JPA (Join Project Agreement) entre l’Icann et le DoC (Département du Commerce américain), - Les nouveaux gTLDs – Quand, comment, combien… ? - Les IDNs (noms de domaine internationalisés) pour les ccTLDs et les gTLDs, - Les adresses du protocole Internet, vers la fin de la distribution d’IP version 4 et la montée en puissance d’IP version 6. Une réunion particulière retient notre attention, celle d’EuRalo – pour European Regional At-Large organization – qui regroupe des structures nationales représentant des utilisateurs individuels comme Isoc France et d’autres chapitres européens de l’Isoc, Terre des femmes e.V. et peut-être bientôt France At-Large. La structure est ouverte à d’autres organisations qui souhaiteraient participer plus directement et sur le long terme aux débats de l’Icann. Ce sera la première réunion d’EuRalo depuis sa formation. Elle devrait être l’occasion d’un large échange de vue des Européens sur les questions liées à la gestion technique des noms de domaine et des adresses IP. Isoc L’Isoc organise différentes réunions, notamment celle des représentants des chapitres présents à Paris ou celle du Conseil d’Administration d’Isoc Monde. Juin 2008 est l’occasion de faire prendre conscience à de nombreuses personnes de l’importance du mot d’ordre de l’Isoc : Internet pour tous et Internet par tous ! Sébastien Bachollet – président Isoc France [en]Starting 20 June, 2008, Paris will host Internet World Week. A number of private and public meetings have been organized around the issues of Internet and its governance. Hosted by Icann, Isoc, AFNIC among others, they are open to all who wish to better understand the issues, participate in ongoing discussions or put forward new ideas. Agree - or not - with the organizations that will meet in Paris, agree - or disagree - with the participants who are users, providers, from civil society, public authorities, private sector or from the technical community, just come to listen or participate. Egeni The seventh meeting of Egeni, organized by ISOC France, partnering with Sociétés of information, is held in Paris on June 20, 2008, at the Meridien Montparnasse on the theme: "Internet 2020". Three major debates punctuated this day of meetings: - Internet & Europe: toward a European IGF Just before the presidency of European Union by France: debate on the role of Europe in the Internet governance between political leaders and keynote speakers. - Future of Internet and internet of the future Experts and keynote speakers outline their different views and visions. - Users at the hearth of the Internet Political leaders and organisations heads will discuss Internet governance dialogue with user representatives. Icann Icann takes over from 21 to 27 June; its 32nd international meeting held for the first time in France. The French hosts are numerous and are gathered within Agifem: Afnic, W3C, Renater, Namebay, Internet fr, Indom, EuroDNS, Domaine.fr, Amen and Isoc France with the support of Mairie de Paris, Ministry of Economie, finances and employment, Ministry of Foreign Affairs, France Telecom and the "Toit de la Grande Arche” with the “Musée de l’informatique”. They will be joined by others, sponsors and partners. The Icann conference takes place three times per year and comprises multiple meetings - generally open - that gather participants either around common topics or for their membership of a group or constituency. For this meeting, the main topics that are likely to evolve in the coming weeks are: - The transition and evolution of Icann at the end of the JPA (Join Project Agreement) between Icann and DOC (US Department of Commerce), - New gTLDs - When, how, how much…? - IDNs (International Domain Names) for ccTLDs and gTLDs, - Internet Protocol addresses, towards the end of the distribution of IP version 4 and the taking off of IP version 6. Of particular interest is a special meeting of EuRalo - the European Regional At-Large organization - will bring together national structures representing individual users as Isoc France and other European chapters of Isoc, Terre des femmes eV and possibly in a near future France At-Large. The structure is open to other organizations who wish to participate more directly and in the long term in the Icann discussions. This will be the first meeting of EuRalo since its formation. It should be an opportunity for a broad exchange of view of Europeans on issues related to the technical management of domain names and IP addresses. Isoc Isoc will organize a number of meetings, including one for the representatives of the chapters present in Paris, and the Board of Directors of Isoc World. June 2008 therefore represents a unique opportunity to raise awareness among many people of the importance of Isoc's slogan: Internet for all and Internet by each! Sébastien Bachollet – Isoc France President </multi>
2008-05-20 23:25:15
Egeni
http://www.egeni.org/
C'est une première. Le [Centre pour l'édition électronique ouverte->http://cleo.cnrs.fr] vient d'[annoncer->http://leo.hypotheses.org/118] l'ouverture d['Hypotheses.org->http://hypotheses.org/], une plate-forme d'hébergement de carnets de recherche éditoriaux. Il s'agit en réalité de blogs alimentés par des chercheurs et des équipes de recherche en sciences humaines et sociales en relation avec des projets ou des activités de publication. Cette initiative, qui en est encore au stade de l'expérimentation[[La ligne éditoriale de la plate-forme est susceptible d'évoluer en fonction des réactions de la communauté scientifique]] vise d'abord à permettre aux chercheurs de tester auprès d'un public a priori plutôt constitué de collègues, les «hypothèses» sur lesquelles ils travaillent et qui feront l'objet d'une publication canonique sous forme de livre. Dans ce cas, les blogs de recherche complètent bien les séminaires qui remplissent la même fonction, mais sont limités par les contraintes spatiales et temporelles. Le carnet de recherche permet ainsi à un auteur d'enrichir et de corriger son argumentation en amont de la publication par les commentaires qu'il reçoit, puis, après la publication, de poursuivre la conversation avec ses lecteurs. Editeur du portail de revues en ligne [Revues.org->http://www.revues.org], le Centre pour l'Edition Electronique Ouverte (CLEO) offre aussi par ce moyen la possibilité aux revues, de communiquer de manière souple et rapide avec leurs lecteurs et auteurs : annonces des prochaines livraisons, appels à communication, annonces de séminaires, colloques et rencontres, débats autour d'un article publié dans la revue peuvent faire l'objet de publications sur un blog associé. Pour l'instant, ce sont les revues [Vertigo->http://vertigo.hypotheses.org/] et [Contextes->http://contextes.hypotheses.org/] qui ont pris l'initiative sur la plate-forme. Cela fait longtemps qu'on [parle des blogs de recherche en France->http://urfistinfo.blogs.com/urfist_info/2006/01/autorits_noncia.html]. Jusqu'à présent, aucun acteur de l'édition scientifique, ni du côté des éditeurs privés, ni du côté des établissements de recherche n'avait prix l'initiative pourtant [[A l'exception de [l'Université Paris V René Descartes->http://blogs.univ-paris5.fr/], dans un contexte plutôt pédagogique cependant]]. Cela n'a pas empêché les chercheurs les plus avertis d'ouvrir leur blog, mais de manière individuelle et dispersée, et sans avoir toujours de perspective éditoriale. Hypotheses.org semble constituer une étape supplémentaire dans la modernisation des pratiques de communication en sciences humaines et sociales en ouvrant un espace coordonné autour des initiatives de publication. Si le pari est réussi, il devrait constituer un bel observatoire de la vie des idées à l'articulation des pratiques de recherche et des enjeux de société. Le CLEO est une structure d'édition électronique en sciences humaines et sociales soutenue par le CNRS, l'EHESS, l'Université de Provence et l'Université d'Avignon.
2008-05-28 01:37:34
LEO
http://leo.hypotheses.org/118
Hier, le Secrétaire d'Etat à l'Economie Numerique, Eric Besson a donné le coup d'envoi des [Assises du Numérique->http://assisesdunumerique.fr/actualites/] à l'Université Paris Dauphine. Ces Assises, qui se dérouleront pendant deux mois, devront aboutir à un rapport censé identifier des pistes d'action pour permettre à la France de rattraper son retard dans le développement de l'économie numérique. Eric Besson a prévenu d'entrée de jeu : [il ne dispose pas d'un budget pour alimenter le futur plan numérique->http://www.lemondeinformatique.fr/actualites/lire-assises-du-numerique-27-pistes-de-travail-pour-un-budget-nul-26211.html]. Celui-ci ne devra donc pas coûter un euro à l'Etat et pourrait même lui en rapporter via l'attribution de nouvelles fréquences. Les débats qui se sont déroulés au cours de la première journée sont [visibles sur le site de la chaîne télévisée de l'Assemblée Nationale->http://www.lcpan.fr/assisse_numerique.asp?tc=adn_290508]. De manière assez étonnante, deux députés socialistes spécialistes des nouvelles technologies étaient invités à animer des ateliers, l'un sur le très haut débit (Christian Paul), l'autre sur les enjeux de la culture et du loisir numérique (Patrick Bloche). Peut-être afin de prévenir tout malentendu, ces deux députés ont pris la peine la veille de l'ouverture des Assises, de [publier un communiqué de presse->http://tempsreel.nouvelobs.com/actualites/medias/multimedia/20080529.OBS6145/deux_deputes_ps_lancent_une_alerte.html] dans lequel ils expriment leur désaccord avec la politique numérique du gouvernement sur trois points : le haut-débit, dans lequel l'Etat n'investit pas, la politique culturelle, toujours marquée par des combats d'arrière-garde contre le piratage et le fichage généralisé des citoyens. De fait, c'est l'atelier sur les enjeux culturels et les loisirs numériques qui a fait l'objet des contestations les plus vives. La préparation de la [loi HADOPI->http://www.zdnet.fr/actualites/internet/0,39020774,39381140,00.htm?xtor=RSS-1] qui se déroule au même moment n'y est pas pour rien. Cette loi doit mettre en place ce qu'on appelle la risposte graduée, c'est-à-dire la possibilité de couper, après plusieurs avertissements, l'abonnement à Internet d'usagers se livrant à des téléchargements illégaux. Plusieurs acteurs se sont étonnés qu'aucune association représentant les consommateurs n'ait été invitée à participer à cette table-ronde. C'est le cas en particulier de l'assocation [La Quadrature du net->http://www.laquadrature.net/fr/assises-du-numerique-limposture] qui dénonce une «imposture». Et il est vrai que leur présence aurait permis d'assiter à des débats un peu plus équilibrés. Car la table-ronde, trustée par les représentants des sociétés d'auteur, n'a finalement réussi a véhiculer qu'un seul message : après l'échec de la loi DADVSI (qui protégeait les systèmes anti-piratages - les fameux DRM), parions que la loi HADOPI changera enfin la donne et mettra fin au piratage. On peut toujours parier en effet. Plus globalement, le Secrétaire d'Etat à l'Economie Numérique a choisi des faire plancher les participants aux assises sur [27 propositions->http://assisesdunumerique.fr/pdf/27pistes.pdf?f=2]. L'une d'elle, pas anodine, vise à rassembler dans un organisme de gouvernance unique, la multitude de petites autorité administratives ou para-administratives qui existent actuellement : Il s'agit donc de «créer un Conseil National du Numérique, regroupant les attributions du comité de la télématique anonyme (CTA), du conseil supérieur de la télématique (CST) du forum des droits de l’Internet (FDI), du Conseil Consultatif de l’Internet (CCI), du Conseil Stratégique des Technologies de l’Information (CSTI), du comité de coordination des sciences et technologies de l’information et de la communication (CCSTIC), etc.» Les concernés n'ont toujours pas réagi.
2008-05-30 08:21:11
Assises du numérique
http://assisesdunumerique.fr/actualites/
Pour la 4è année consécutive, trois associations montpelliérennes organisent une rencontre MOUSTIC sur les usages innovants des TICs à forte valeur ajoutée sociale ou sociétale (Mise en Œuvre d’Usages Sociaux et sociétaux de l’internet et des TICs), en mettant cette année l’accent sur le thème "usages d’internet et coopération". D’une pièce en un acte, on passe cette année à une pièce en 3 actes. Il y sera question non seulement de projets qui n’ont pas encore été présentés mais aussi du devenir de projets qui ont déjà fait l’objet de présentations les années précédentes "que sont-ils devenus ?" En matière d’internet et de Technologies de l’Information et de la Communication (TICs), les acteurs de l’économie sociale et solidaire, se révèlent souvent promoteurs de nouveaux usages, au travers des projets qu’ils développent et des pratiques de leurs usagers. Afin de découvrir des projets de ce genre, nous vous proposons pour la quatrième année consécutive à Montpellier une rencontre MOUSTIC sur les usages innovants des TICs à forte valeur ajoutée sociale ou sociétale (Mise en Œuvre d’Usages Sociaux et sociétaux de l’internet et des TICs). Cette année, Moustic se déroulera en trois temps, "trois actes" : une rencontre en juin, un événement en juillet et deux temps en octobre - novembre ! L’acte I de Moustic 2008 aura lieu le jeudi 19 juin 2008 et sera l’occasion de partager les expériences de chacun et d’ouvrir une réflexion collective. La rencontre comportera la présentation de projets TIC avec un retour sur des projets présentés lors des précédentes éditions de Moustic et de nouveaux projets. Cet état des lieux servira de base à une discussion et à un questionnement collectif autour de la notion de coopération. La rencontre se terminera par un temps convivial d’échange entre les participants. L’entrée est libre, dans la mesure des places disponibles. Contact : Pour en savoir plus, contactez-nous par mail à l’adresse suivante : moustic2008@outils-reseaux.org, ou par téléphone au 08 70 44 52 60. Pour participer et/ou inscrire un projet Consultez [le site des journées Moustic->http://www.moustic.info/wakka.php?wiki=Moustic4Acte1]. Lieu de l’évènement Espace Martin Luther King 27 Bd Louis Blanc 34000 Montpellier Tram Louis Blanc ou Corum Programme de la journée MOUSTIC 2008 - Acte I - 14h - 14h30 : accueil - 14h30 - 16h : échange entre porteurs de projets - 16h - 16h30 : pause - 16h30 - 18h : synthèse et débats - 18h - 19h : échanges conviviaux d’expériences et démonstrations autour d’un cocktail piquant Et bientôt... - Moustic 2008 - Acte II : 9 au 11 juillet, retransmission et participation locale en visio-conférence au Forum des usages coopératifs de Brest - Moustic 2008 - Acte III : 2 évènements dans le cadre du mois de l’économie sociale et solidaire (Octobre- novembre 2008) : * une journée de présentation de projets dans le cadre d’ateliers thématiques, * une synthèse - débat avec la participation de Jean-Michel Cornu, directeur scientifique de la FING, spécialiste de la coopération. Les partenaires de MOUSTIC 2008 : - Outils-réseaux :[ http://www.outils-reseaux.org-> http://www.outils-reseaux.org] et l’association Tela Botanica :[ http://www.tela-botanica.org-> http://www.tela-botanica.org] - Observatoire des Usages de l’Internet : [http://oui.net->http://oui.net] - ECM Kawenga : [http://www.ecmkawenga.com->http://www.ecmkawenga.com]
2008-05-30 22:27:47
MOUSTIC
http://www.moustic.info/wakka.php?wiki=Moustic4Acte1
C'est la question que nombre de blogueurs commencent à se poser à la suite d'un court article paru ces jours-ci dans le Financial Times et sobrement intitulé : [«Le Web 2.0 ne rapporte pas d'argent»->http://www.ft.com/cms/s/0/6c968990-2b4c-11dd-a7fc-000077b07658.html]. Pour le célèbre journal britannique, il commence à devenir clair, alors que le mouvement du web participatif a été lancée il y a plus de quatre ans, que la plupart des entreprises qui ont développé leur activité dans ce domaine n'ont toujours pas trouvé de modèle économique. Or, le ralentissement de l'économie américaine risque fort d'avoir des répercussions sur le niveau d'investissements nouveaux dans ce secteur, jusqu'alors toujours en croissance. L'illusion dissipée, nombre d'entreprises seront conduites à fermer leurs portes, selon les analystes interrogées par le Financial Times. Pourtant, conclut l'article, l'adoption par un nombre croissant d'utilisateurs de nouveaux services, comme [?Twitter], sont le signe d'une augmentation globale et rapide des usages sociaux en ligne dans une part croissante de la population ; signe qu'en ce qui concerne les usages, le Web 2.0 représente une réalité qui n'est pas artificielle. Ce qui semble artificiel en revanche, c'est la multiplication accélérée de nouveaux services Web 2.0 toujours plus pointus. Le blog [Techcrunch->http://techcrunch.com] s'est fait une spécialité d'en suivre l'actualité, et la vitesse avec laquelle ils surgissent ressemble de plus en plus à ce qui s'est passé avant l'éclatement de la bulle Internet en 2000 : toujours plus de start-ups, offrant des services toujours plus improbables, avec des perspectives de rentabilité toujours aussi nulles. Pour en revenir plus précisément à la question du modèle économique, plusieurs éléments inquiétants semblent se conjuguer. Ainsi par exemple, Read Write Web rapporte que l'affaiblissement de la croissance économique aux Etats-Unis entraîne une [diminution des revenus publicitaires en ligne->http://www.readwriteweb.com/archives/slowing_economy_means_online_ad_slowdown.php] dans ce même pays, ce qui est une situation nouvelle : habituellement, les périodes économiques plus difficiles étaient plutôt favorable à la publicité en ligne, réputée moins chère que son équivalent dans la presse écrite ou les médias audio-visuels. Plus profondément, c'est toute la logique de production de contenus propre au Web 2.0 qui semble remise en cause. Car si les UGC («user generated contents») alimentent un usage communautaire des sites et services, il semble malgré tout difficile de se passer totalement des contenus produits par les industries culturelles pour obtenir de grosses fréquentations. Or, la mise en relation, sur les plate-formes collaboratives de l'un et de l'autre est aujourd'hui empêché par plusieurs éléments : d'abord, le droit d'auteur qui restreint les usages sur les oeuvres. Ce n'est pas un hasard si l'un des promoteurs du Web 2.0, Michael Arrington a récemment demandé sur son blog Techcrunch une [révision de la loi sur le copyright->http://www.techcrunch.com/2008/05/27/its-time-to-rethink-copyright-law/]. Cette mise en relation est ensuite empêchée par l'absence de modèle de rétribution dans l'état actuel des choses. Récemment interrogé par Ecrans, Gilles BianRosa qui tente de développer un réseau de peer to peer payant l'a récemment confirmé : [la demande pour des contenus audio-visuels payants sur ce type de réseau est encore quasiment nulle->http://ecrans.fr/Vuze-il-y-a-tres-peu-de-demande,4248.html]. On pourrait évoquer pour finir la question des réseaux sociaux. Le cas de Facebook illustre bien tout le paradoxe et le cul-de-sac économique dans lequel le Web 2.0 semble s'être empêtré. Concurrencé par l'initiative Open Social proposée par Google, la plate-forme est face à un dilemme : jouer la stratégie inverse, en fermant son réseau sur lui-même, ou l'ouvrir, sur le même modèle qu'[?OpenSocial] via son API. Le problème, argumente [Bernard Lunn dans Read Write Web->http://www.readwriteweb.com/archives/the_fork_in_the_road_for_social_media.php], c'est qu'il n'existe pas encore de modèle économique pour l'une et l'autre voies ; et que Facebook, du fait de sa capitalisation surestimée, est coincé entre les deux.
2008-06-03 15:16:07
Web 2.0 fails to produce cash
http://www.ft.com/cms/s/0/6c968990-2b4c-11dd-a7fc-000077b07658.html
A l'issue d'une campagne longue et mouvementée, il semble que ce soit [Barack Obama qui soit en mesure d'être désigné candidat aux élections présidentielles par la convention du Parti Démocrate qui se déroulera en août->http://www.rue89.com/2008/06/04/la-couleur-etoilee-de-barack-obama]. Barak Obama est le candidat qui a réussi à mobiliser la plus importante somme d'argent, 250 millions de dollars, dans une élection primaire. Le mensuel The Atlantic publie dans son dernier numéro [une enquête fouillée->http://www.theatlantic.com/doc/200806/obama-finance] sur les méthodes, révolutionnaires, employées par le candidat pour lever ces fonds. Alors qu'Hillary Clinton, du fait de son ancienneté sur la scène politique nationale a capté la plupart des gros contributeurs traditionnels du Parti Démocrate, Obama pour sa part est apparu comme le candidat de la Silicon Valley. Joshua Green, le correspondant de The Atlantic explique en effet que les entrepreneurs de l'économie numérique furent d'une part négligés par Clinton du fait de leur nouveauté et d'autre part séduits par un candidat leur ressemblant : jeune, neuf, plein d'idées et vecteur de changement ; en un mot : une startup. Mais le soutien de la Silicon Valley n'a pas apporté que de l'argent à Obama ; il lui a aussi apporté une méthode révolutionnaire pour lever encore plus de fonds. Plutôt que de s'en remettre à un petit de nombre de gros contributeurs, toute la dynamique de son financement a en effet reposé sur la mobilisation par le bouche à oreille, le buzz, d'un bien plus grand nombre de contributeurs apportant chacun une somme plus limitée. Cette descente dans ce qu'on pourrait qualifier de «longue traîne» du financement politique, a reposé au final, sur la mobilisation de tous les types de réseaux sociaux appuyés sur les technologies de la communication. Ainsi, le magazine en ligne [ClickZ->http://www.clickz.com/showPage.html?page=3629685] rapporte que le candidat démocrate a dépensé cette année plus de 3 millions de dollars en publicité en ligne, la majeure partie allant évidemment chez Google. Longuement analysé par Joshua Green, le site de campagne d'Obama, [->http://my.barackobama.com/] se présente comme un hub multipliant les incitations à soutenir le candidat de toutes les manières possibles. Il constitue au final une sorte de boîte à outils permettant aux militants de propager la bonne parole et de recruter de nouveaux soutiens via leurs propres réseaux : par mail, sur leur blog ou dans leur profil sur Myspace, Facebook ou autre, Une comparaison entre les deux candidats est parlante : en Février, le financement de la campagne d'Obama reposait à 94% sur des dons inférieurs à 200 dollars, alors qu'ils étaient 26% pour Clinton et 13% pour McCain. En mars, Obama pouvait compter sur 1,2 millions de contributeurs et près de 750000 bénévoles pour promouvoir son message, loin devant tous les autre candidats. Pour The Atlantic, Obama représente donc une nouvelle génération politique qui a su mobiliser les masses en réseau, alors que Clinton a fait la meilleure campagne possible, mais à l'ancienne. Est-ce que ces changements importants au niveau des primaires annoncent une «[présidence Internet->http://www.theatlantic.com/doc/200806/ambinder-obama]» en cas de victoire démocrate ? C'est loin d'être sûr. Il est certain en revanche, et la présidence Bush en est un exemple presque caricatural, que la politique menée par le Président des Etats-Unis est liée pour une part non négligeable à ceux qui ont financé son élection. Le mouvement vers un mode plus populaire de financement des candidats ne peut donc être interprété que comme un bon signe pour la démocratie américaine.
2008-06-05 04:36:22
The amazing money machine
http://www.theatlantic.com/doc/200806/obama-finance
<multi> [fr]Hier, le magazine en ligne [PC Inpact->http://www.pcinpact.com/actu/news/44018-filtrage-internet-neutralite-FAI-operateurs.htm] révélait l'existence d'une charte pour la confiance en ligne que le ministère de l'intérieur tente de faire signer aux fournisseurs d'accès et éditeurs de contenus afin d'améliorer notamment leur coopération avec les forces de l'ordre. Cette charte doit permettre à ceux qui la signent d'obtenir un label sanctionnant les meilleures pratiques en terme de sécurité en ligne. Les engagement qui composent cette charte sont nombreux : information auprès du public des risques en matière de sécurité et des moyens pour y remédier, configuration des équipements au «niveau de sécurité optimal selon l'état de l'art», restriction ou coupure de l'accès à Internet pour les usagers «mettant en jeu la sécurité du réseau», filtrage de l'accès à des sites illégaux, effacement des sites qui ne seraient pas mis à jour depuis plus de trois mois, signalement automatique des infractions auprès des «guichets uniques» mis en place par la police, conservation des données personnelles. Cette information a provoqué une grande inquiétude. Les journaux [20minutes->http://www.20minutes.fr/article/235580/High-Tech-Securiser-Internet-un-document-de-travail-du-ministere-de-l-Interieur-fait-polemique.php], [Le Monde->http://www.lemonde.fr/technologies/article/2008/06/06/le-grand-filtrage-des-internautes-francais-va-bientot-commencer_1055014_651865.html#ens_id=1048963], [01net->http://www.01net.com/editorial/382255/le-gouvernement-accuse-de-preparer-le-filtrage-du-net/?rss] et [Zdnet->http://www.zdnet.fr/actualites/internet/0,39020774,39381573,00.htm] en particulier évoquent les risques que fait peser sur les libertés publiques cette tentative gouvernementale de filtrage du réseau. On peut identifier, outre le Ministère de l'Intérieur, trois inspirateurs de cette démarche : le premier est le [Forum des droits de l'Internet->http://www.foruminternet.org], organisme para-public dont l'objectif depuis sa création est la construction d'une «civilité de l'Internet». Cet organisme n'en est pas à sa première tentative pour mettre en place une charte de bonne conduite et une labellisation des sites Web. Par ailleurs, la secrétaire d'Etat à la Famille Nadine Morano a récemment exprimé son intention de [contraindre les FAI à filtrer l'accès aux sites pédophiles->http://www.lefigaro.fr/actualites/2008/05/15/01001-20080515ARTFIG00089-nadine-morano-interdire-l-acces-aux-sites-pedophiles-.php]. Enfin, Nicolas Sarkozy et ses conseillers, puisqu'il avait déjà défendu [la création d'une label "confiance en ligne" en 2006->http://www.interieur.gouv.fr/misill/sections/a_la_une/toute_l_actualite/ministere/archives/securisation-internet/view], alors qu'il était ministre de l'intérieur. Ce projet de charte, dont l'objectif est officiellement d'améliorer la lutte contre les «contenus odieux», c'est-à-dire pédopornographiques, et incitant à la haine raciale, coïncide étrangement avec la préparation d'un projet de loi visant, pour sa part, à réprimer le piratage sur Internet. Or,ce projet de loi, instituant le système dit de riposte gradué, a fait l'objet de réserves de la part de trois organismes publics :[ l'ARCEP->http://feeds.feedburner.com/~r/vnunet/fr/VNUnetNews/~3/299957106/story01.htm], la [Commission Informatique et Libertés->http://www.laquadrature.net/fr/avis-critique-de-la-cnil-sur-le-projet-olivennes], et [le Conseil d'Etat->http://www.zdnet.fr/actualites/internet/0,39020774,39381510,00.htm?xtor=RSS-1], en raison de dispositions attentatoires aux libertés publiques. On est donc en droit de se demander si, sous couvert de lutte contre des «contenus odieux», le gouvernement n'est pas en train de tenter de mettre en place par la voie contractuelle ce qu'il aura certainement des difficultés à obtenir par voie législative. Le Ministère de l'Intérieur a cependant [nié toute relation entre les deux dossiers->http://www.pcinpact.com/actu/news/44046-ministere-charte-confiance-ligne-FAI.htm]. Sans pour autant lui prêter de mauvaises intentions, cette charte présente aux moins deux difficultés majeures : - d'abord, elle s'adresse à des acteurs très différents : mettre dans le même sac fournisseurs d'accès, hébergeurs et éditeurs de contenus n'est pas une bonne idée parce que la position et donc les obligations des uns et des autres sont très différentes. C'est ce qu'au moins la Loi sur la Confiance dans l'Economie Numérique avait reconnu ; la charte est ce de point de vue une régression. - ensuite, cette charte est inquiétante autant parce qu'elle ne contient pas que par ce qu'elle propose. Par exemple, si elle encourage la conservation et la transmission de données personnelles à des «autorités» d'ailleurs mal définies, elle ne dit rien des engagements de protection de ces données et de confidentialité que les intermédiaires techniques pourraient prendre envers les usagers. De la même manière, les propositions de suppression rapide de contenus illicites ne sont pas équilibrées avec les garanties qui pourraient être prises en matière de liberté d'expression face à des pressions venant par exemple de la classe politique ou des milieux économiques. Au bout du compte, cette fameuse charte se concentre sur des crimes dont il est difficile de dire qu'ils soient d'une grande fréquence (mais quand ils sont découverts, ils soulèvent une intense émotion), pour laisser de côté des violations de droits fondamentaux qui sont infiniment plus répandues (mais ne font pas, il est vrai, la une des 20 heures). Pour finir, l'idée de supprimer les sites non mis à jour est très étonnante. Alors que la fameuse «erreur 404» qui désigne un lien brisé est considérée comme une plaie du web, génératrice d'instabilité des contenus et de confusion, il est pour le moins étrange que le gouvernement encourage la multiplication de ces erreurs. Mise au point : le Ministère de l'Intérieur tient à préciser que ce texte n'est, dans l'état où il a été communiqué, qu'un document de travail, appelant à commentaires de la part des FAI. Il doit être plus largement débattu au cours de[ l'atelier sur la cybercriminalité->http://assisesdunumerique.fr/actualites/cooperation-contre-la-cybercriminalite-2/] organisé ce mardi dans le cadre des Assises du numérique. [en]Yesterday, the online magazine PC Inpact revealed the existence of a charter for the trust online that the french Ministry of the Interior is trying to make access providers and content publishers sign to improve their cooperation in particular with the police. The charter must allow those who sign to get a label certifying best practices in terms of online security. The measures that make up the Charter are many: information to the public security risks and ways to remedy them, configuring equipment «optimum level of security depending on the state of the art», restriction or cut Internet access to «users involving network security», filtering access to illegal sites, deleting sites that are not updated for more than three months, automatic reporting of offences from «stop shops» set up by the police, conservation of personal data. This information has caused great concern. The french newspapers, 20minutes, Le Monde, 01net, Zdnet and in particular mention the risks posed to civil liberties this attempt government filtering network. One can identify, in addition to the Ministry of Interior, three behind this approach: the first is the «Forum des droits de l'Internet», para-public organization whose goal since its creation is the construction of a «civility of the Internet». This body is not at its first attempt to establish a charter of good conduct and labelling of websites. In addition, Secretary of State for Family Nadine Morano has recently expressed its intention to force ISPs to filter access to paedophile sites. Finally, Nicolas Sarkozy and his advisers, since he had already defended the creation of a label named «trust online» in 2006, when he was interior minister. The draft charter, which aims officially to improve the fight against the «heinous content», ie child pornography and inciting racial hatred, strangely coincides with the preparation of a bill aimed, for its part, to curb piracy on the Internet. But this bill establishing a system of «graduated response», has been the subject of reservations on the part of three government agencies: ARCEP, the Information and Freedoms Commission and the Council of State, because of provisions violating civil liberties. It is therefore entitled to ask whether, under the guise of fight against «hateful content,» the government is not currently trying to establish through a contract that will certainly have difficulties in obtaining legislation. The Ministry of the Interior, however, denied any relationship between the two cases. Without him lend bad intentions, the charter has at least two major difficulties: - First, it is aimed at very different players: put in the same bag ISPs, hosts and publishers of content is not a good idea because the position and therefore the obligations of each other are very different. This at least the «Confiance dans l'Economie Numérique» law had acknowledged and the charter is a step backwards on this point. - Secondly, the charter is especially worrisome more for what it does not contain than for what it proposes. For example, if it encourages conservation and transmission of personal data to «authorities» (which are not clearly defined), it said nothing about the commitments about data protection and privacy thatISPs could take towards users. Also, the proposals for rapid removal of illegal content are not balanced with the guarantees which could be taken as regards freedom of expression against pressures from the political class or business interests. Ultimately, the famous charter focuses on crimes not so frequent (but when they are discovered, they raise an intense emotion), to leave aside human rights violations fundamentals that are infinitely more common (but don't hit CNN breaking news). Finally, the idea of removing sites not updated is very surprising. While the famous «404 error» which means a broken link is considered a scourge of web, generating content instability and confusion, it is at least strange that the government encourages the proliferation of these errors. </multi>
2008-06-08 09:02:31
PC Inpact
http://www.pcinpact.com/actu/news/44018-filtrage-internet-neutralite-FAI-operateurs.htm
107230. C'est le nombre de [billets de blogs qui ont été publiés->http://www.technorati.com/search/iphone+AND+3G] selon Technorati à l'occasion de l'annonce de l'Iphone de deuxième génération au cours du salon des développeurs organisé par Apple. Le nombre de requêtes mesurées par Google est lui aussi assez impressionnant. Ainsi, [Google Trends->http://www.google.fr/trends?q=iphone+3G], qui le mesure le sujet de «volcanique». C'est peu dire en effet que[ la présentation par Steve Jobs->http://www.techcrunch.com/2008/06/09/the-games-begin-live-coverage-of-apple-wwwc-event-in-san-francisco/] du nouveau gadget proposé par la firme de Cupertino a provoqué un raz-de-marée dans le petit monde des technophiles, geeks et autres early adopters. Au delà des atouts techniques et financiers indéniables que peut avoir cet appareil sur ses concurrents, et surtout par rapport à la première version actuellement commercialisée dont les ventes stagnent d'ailleurs, l'attention qu'il suscite témoigne d'un engouement qui va bien au delà de la simple dimension technique. Le journal [Le Monde analyse bien->http://www.lemonde.fr/technologies/article/2007/11/28/l-iphone-annee-zero-de-l-internet-mobile_983331_651865.html#ens_id=1037794] la manière dont Apple a su créer et entretenir depuis sa création une relation affective et émotionnelle avec ses utilisateurs. Le travail sur les matériaux, le design et les interfaces a, de ce point de vue, porté ses fruits. En ce qui concerne les fonctionnalités de l'Iphone 2 et son positionnement sur le marché, c'est le secteur hautement lucratif de la [communication d'entreprise->http://www.businessmobile.fr/actualites/technologies/0,39044306,39381631,00.htm] qui intéresse pourtant Apple au premier chef. Doté d'une application de messagerie compatible avec les serveurs Microsoft Exchange, l'Iphone 2, qui se connecte aux réseaux de téléphonie de 3e génération, à haut-débit donc, vise clairement à concurrence le Blackberry sur son terrain. [L'environnement Mobileme->http://www.apple.com/mobileme/] remplace .mac qui existait jusqu'à présent. Il permet de synchroniser tout son environnement de travail : mails, documents, calendrier entre son ordinateur personnel et son Iphone. Idéal pour les professionnels en déplacement. En jouant la carte du toujours connecté, toujours en mouvement - l'Iphone 2 est aussi doté de fonctionnalités GPS, Apple surfe sur un véritable phénomène de société. Plusieurs études et publications parues ces temps-ci mettent en lumière le phénomène de [l'Homo mobilis->http://www.internetactu.net/2008/05/06/homo-mobilis/] avec des conséquences pas toujours heureuses d'ailleurs pour la vie personnelle des salariés connectés. Les[ jeunes générations en particulier->http://www.internetactu.net/2008/06/10/les-mobiles-des-adolescents-ou-les-premices-de-linformatique-ambiante/] semblent avoir développé une habileté et une appétence particulière pour ce type de communication et l'Internet mobile semble promis à un brillant avenir. A quel prix ? Passée l'euphorie il semble bien en effet que l'offre d'Apple ne soit pas si alléchante : les taux de couverture 3G aux Etats-Unis est loin d'être aussi étendu que le GSM et [l'abonnement auprès de l'opérateur AT&T sera finalement de 10$ plus cher->http://pisani.blog.lemonde.fr/2008/06/10/ipiege-questions-sur-le-prix-du-nouvel-iphone-3g/].
2008-06-10 15:23:51
Apple
http://www.apple.com
Le livre est mort, vive le livre ! ; c'est le slogan sur lequel pourrait se converger la centaine de professionnels et de passionnés qui se réunissent ce samedi à La Cantine à Paris pour tenir leur premier «Bookcamp» et réfléchir à l'avenir du livre à l'heure d'Internet et des technologies numériques. C'est en effet d'abord par l'enthousiasme que se démarque cette communauté par rapport à des positions de crainte très souvent exprimées par une bonne part de la profession devant les changements qui bouleversent l'écosystème du livre. Loin d'être une menace, Internet représente plus souvent dans l'esprit de ces «bookcampers» une opportunité qui permet au livre de se renouveler et donc de retrouver le contact avec un public qui pouvait parfois le délaisser au profit d'autres supports de communication. Mais en même temps, ces opportunités sont encore mal cernées, elles sont en gestation, en expérimentation et c'est bien l'objectif de cette rencontre que d'en discuter concrètement. Pour cela, toutes les positions, toutes les compétences dans la chaîne du livre sont les bienvenues. On ne s'étonnera donc pas de retrouver parmi la centaine de participants des auteurs, des éditeurs, des imprimeurs, des libraires, des bibliothécaires, des lecteurs et des acteurs du web, intervenant dans des domaines très différents : depuis la littérature jusqu'à l'illustration, en passant par l'auto-édition, les guides pratiques, la bande dessinée ou les publications de sciences sociales. Inventer le livre électronique, qu'est-ce qu'un auteur numérique, l'impression à la demande, les modèles économiques de l'édition numérique, les usages d'une chaîne éditoriale XML, les encyclopédies à l'heure d'Internet, qu'est-ce qu'un site d'éditeur 2.0, tels sont quelques uns des ateliers qui vont ponctuer la rencontre. Au coeur du tourbillon, le journaliste Hubert Guillaud, rédacteur en chef d['Internet Actu->http://www.internetactu.com] et auteur du blog de référence sur l'édition numérique[ La Feuille->http://lafeuille.homo-numericus.net] que les lecteurs d'Homo Numericus connaissent bien. L'événement est par ailleurs soutenu par le programme de recherche [Mémoire de la librairie contemporaine->http://melico.org/] (Melico), l'éditeur numérique [M21 éditions->http://www.m21editions.com/], le think tank [Fondation Internet Nouvelle Génération->http://www.fing.org/] (FING) et le [Centre pour l'édition électronique ouverte (CLEO)->http://www.cleo.cnrs.fr] qui édite le portail [Revues.org->http://www.revues.org]. Le Bookcamp s'inspire des [?barcamp]s, bien connus des informaticiens, dont la particularité est de permettre à tous les participants d'intervenir au cours d'ateliers plutôt que d'écouter ce qui s'apparenterait à des conférences. Plusieurs d'entre eux ont déjà annoncé qu'ils twitteraient en direct, qu'ils blogueraient en direct ou en différé à partir de l'événement. A suivre donc.
2008-06-13 14:55:16
Bookcamp
http://barcamp.org/BookCampParis1
Ils sont nés après 1980 et utilisent les outils de communication numérique depuis leurs premières années. Ils forment la première génération numérique. Pour eux, les questions classiques de construction de l'identité, de rapport à l'autorité, de gestion des relations interpersonnelles, de relation aux savoirs se posent en des termes différents de leurs aînés. C'est en tout cas ce que l'on est en droit de supposer lorsqu'on est convaincu qu'Internet et l'informatique personnelle constituent une révolution globale pour la plupart des sociétés développées. Qu'en est-il exactement ? de quelle formation cette génération, que l'on suppose différente, a-t-elle fait l'expérience ? comment se construit-elle ? c'est à toutes ces questions que tente de répondre un gros programme de recherche lancé depuis plusieurs années par le Berkman Center for Internet and Society d'Harvard, en collaboration avec le Research Center for Information Law de l'Université de St Gallen, en Suisse. Intitulé Digital Natives, ce programme a tenté d'explorer différentes facettes de la vie des «natifs du numérique», comme l'identité, la créativité, l'information, la piraterie, l'éducation, les opportunités, etc. Richement documenté, le projet donne libre accès à certaines de ses données brutes, par l'intermédiaire d'un wiki,d'entretiens filmés, d'un blog, de signets partagés, le tout étant rassemblé sur [un site propre->http://www.digitalnative.org/]. Au delà cependant, il doit donner lieu à plusieurs publications, en particulier un ouvrage paraissant ces jours-ci. Intitulé Born Digital, understanding the first generation of digital natives, ce livre collectif doit faire la synthèse des résultats du programme de recherche. Il est dirigé par John Palfrey et Urs Gasser, deux professeurs de droit appartenant à l'une et l'autre institutions de recherche partenaires. <html> <iframe src="http://rcm-fr.amazon.fr/e/cm?t=homonumericus-21&o=8&p=8&l=as1&asins=0465005152&fc1=000000&IS2=1<1=_blank&m=amazon&lc1=0000FF&bc1=000000&bg1=FFFFFF&f=ifr&npa=1" style="width:120px;height:240px;" scrolling="no" marginwidth="0" marginheight="0" frameborder="0"></iframe> </html>
2008-08-25 14:01:58
Born digital
http://www.borndigitalbook.com/index.php
Dans un récent communiqué, l'Union Européenne [a déclaré vouloir soutenir le libre accès aux résultats de la recherche dans le cadre de son 7ème programme-cadre pour la recherche et le développement (PCRD)->http://europa.eu/rapid/pressReleasesAction.do?reference=MEMO/08/548&format=HTML&aged=0&language=EN&guiLanguage=en]. Ainsi, les travaux de recherche recevant des subventions de l'Union dans le cadre de ce programme se verraient contraints de diffuser en accès libre l'ensemble des publications auxquelles ils donnent lieu, dans une archive institutionnelle ou disciplinaire. Afin de préserver l'équilibre économique des éditeurs de publications scientifiques, l'Union prévoit que cette mise à disposition peut être faite à l'issue d'un délai de 6 ou 12 mois pendant lesquels elles peuvent faire l'objet d'une distribution commerciale exclusive. Cet engagement de l'Union Européenne constitue un signal extrêmement fort pour toute la communauté scientifique après qu'aux Etats-Unis les NIH et en Grande Bretagne les Research Councils aient pris des dispositions similaires. Etant donné l'importance des financements européens en matière de recherche (50 milliards d'Euros pour le 7ème PCRD), il est clair que cette initiative aura des répercussions importantes. Publier en libre accès, c'est bien, mais il faut encore pouvoir rendre compte des données sur lesquelles la publication s'appuie. Cette nouvelle européenne est donc à mettre en regard avec la situation française telle qu'André Gunthert[ la décrit dans un article à paraître dans la Revue de Synthèse->http://www.arhv.lhivic.org/index.php/2008/08/22/789-la-publication-scientifique-en-ligne-face-aux-lacunes-du-droit-francais] - déjà disponible sur son blog. Ce chercheur en histoire visuelle, maitre de conférences à l'EHESS y rappelle en effet que les restrictions que le droit de propriété intellectuelle fait peser sur l'accès aux oeuvres iconographiques en particulier constituent un véritable obstacle à la conduite de recherches par exemple en histoire de l'art. Il est facile de comprendre que la publication d'articles dans cette discipline doit nécessairement s'accompagner de reproductions des oeuvres analysées. Or, contrairement à la plupart des autres pays, qui connaissent des exceptions au droit d'auteur pour la recherche et l'enseignement (appelées fair use dans les pays anglophones), la France s'est distinguée en refusant toute exception de cette nature. Résultat, argumente André Gunthert, un certain nombre de publications prennent le risque de se placer en situation d'illégalité, tandis que d'autres paraissent sans aucune illustration. Au final, et c'est finalement le plus inquiétant, la situation déséquilibre les relations entre les ayants-droits et les chercheurs rendant difficile voire impossible dans certains cas toute construction d'un discours critique indépendant du bon vouloir des premiers. Alors que la situation légale semble bien difficile, certaines institutions détentrices de fonds iconographiques, photographiques en particulier, semblent vouloir prendre l'initiative en y donnant libre accès intégral. Remarquée [par Marin Dacos dans Blogo Numericus->http://blog.homo-numericus.net/spip.php?article160], l'initiative [Flickr Commons->http://flickr.com/commons] permet à des bibliothèques ou d'autres institutions publiques de donner accès à leur fonds via le célèbre service de partage de photographies. Parmi les premiers participants, on remarque la célèbre Library of Congress, la Smithsonian et, surprise, la Bibliothèque Municipal de Toulouse. Les photos ainsi mises à disposition ne connaissent pas de restriction de copyright. Cette initiative correspond bien à l'engagement de Flickr depuis sa fondation pour le libre accès aux photographies. Ainsi, ce service propose-t-il depuis très longtemps à ses utilisateurs d'apposer une licence Creative Commons aux photos qu'ils y téléchargent. On ne sera donc pas étonné d'apprendre aujourd'hui que Caterina Fake, co-fondatrice de Flickr, [rejoint le conseil d'administration de Creative Commons->http://creativecommons.org/press-releases/entry/8949].
2008-08-26 02:21:14
La publication scientifique en ligne face aux lacunes du droit français
http://www.arhv.lhivic.org/index.php/2008/08/22/789-la-publication-scientifique-en-ligne-face-aux-lacunes-du-droit-francais
C'est ce qui ressort de deux informations publiées tout récemment. [La première concerne la rareté des adresses IP->http://www.centpapiers.com/Demain-les-adresses-IP-vont-peut,4150] qui semble-t-il, devient critique. Les adresses IP (Internet Protocol) sont ces identifiants numériques qui permettent aux différents ordinateurs connectés au Réseau de se retrouver les uns les autres. Or, le protocole de communication actuellement utilisé, IPv4, permet de générer seulement 4 milliards d'adresse. Seuls 14% de ces adresses seraient aujourd'hui disponibles. Etant donné la rareté croissante de ces adresses, on utilise depuis longtemps des technologies permettant d'abriter plusieurs ordinateurs, voire des réseaux entiers derrière une seule adresse IP. La technologie de NAT (Network Adress Translation) en particulier est très utilisée. Récemment, Bernard Benhamou, délegué général aux usages de l'Internet, [déclarait pourtant qu'on était arrivé au bout de l'utilisation de ces palliatifs->http://www.journaldunet.com/solutions/systemes-reseaux/actualite/ipv6-l-icann-annonce-l-internet-de-demain.shtml]. Ils seront en effet incapables de répondre à l'explosion à venir de ce que certains appellent l'Internet 3.0, autrement dit, l'Internet des objets communiquants où des dizaines de milliards d'objets devront disposer d'une adresse sur le réseau pour y recevoir et transmettre de l'information. Pour répondre à ces nouveaux développements, une nouvelle version du protocole IP, IPv6, a été conçue il y a fort longtemps. Capable de fournir un nombre beaucoup plus important d'adresses, il peine en effet à entrer en fonction, pour de simples raisons économiques : tant qu'il restera des adresses disponibles, aucun opérateur n'a intérêt à prendre en charge les coûts de migration et de mises à jour logicielles pour un bénéfice nul. Bref, il faut attendre d'être le nez sur l'obstacle pour que le remède, connu depuis longtemps, soit enfin utilisé par la plupart des acteurs. La souplesse et l'auto-organisation qui caractérisent le réseau depuis ses débuts n'ont pas que des côtés positifs. [L'autre nouvelle en provenance du Defcon->http://it.slashdot.org/article.pl?sid=08/08/27/0141247&from=rss], l'un des plus grand rassemblement mondiaux d'informaticiens spécialisés dans les questions de sécurité, est encore plus inquiétante : on avait appris il y a quelques mois que le système de gestion de noms de domaine - DNS, sur lequel repose Internet était particulièrement fragile et susceptible d'attaques. Deux informaticiens viennent aujourd'hui de montrer qu'il est possible de mettre en place un dispositif permettant d'écouter le trafic Internet sans être détecté. On imagine facilement les conséquences en terme de protection de la vie privée et de vol d'identité. Le plus angoissant dans cette affaire, explique très bien [Wired->http://blog.wired.com/27bstroke6/2008/08/revealed-the-in.html], c'est que cette faille de sécurité ne repose pas sur un bug logiciel, un défaut réparable, mais sur la structuration même du protocole en question, qui présuppose que tous les agents qui l'utilisent sont de bonne foi. Démonstration supplémentaire de l'inadaptation croissante d'un réseau conçu par et pour les universités à son origine à des usages qui les débordent largement aujourd'hui.
2008-08-27 02:49:28
Revealed: The Internet's Biggest Security Hole
http://blog.wired.com/27bstroke6/2008/08/revealed-the-in.html
Grande-Bretagne, Etats-Unis, France. L'actualité en matière de protection de la vie privée aura été particulièrement riche ces dernières semaines dans ces trois pays et donne finalement un bon aperçu de la variété des menaces qui pèsent sur elle aujourd'hui, en provenance à la fois d'acteurs privés et d'Etats sécuritaires. Aux Etats-Unis, c'est encore une fois de Google que l'on parle et de son nouveau service Google street view qui photographie toutes les rues de certaines villes pour permettre aux internautes de s'y promener virtuellement. Mais il se trouve que les Etats-Unis connaissent depuis plusieurs années un mouvement grandissant de privatisation de l'espace public, remarquablement décrit par Jérémie Rifkin, aboutissant à la privatisation de quartiers entiers et parfois de petites villes, de telle sorte que les rues et routes elles-mêmes sont considérées juridiquement comme propriété privée. Manifestement, plusieurs photographes employés par Google ont outrepassé les limites de ces espaces suscitant la colère de leurs résidents. [Un article publié dans Cnet->http://news.cnet.com/8301-1023_3-10024294-93.html] fait état de plusieurs incidents en Californie notamment. En France, c'est plutôt l'Etat sécuritaire qui fait parler de lui avec la création en catimini d'un nouveau fichier de police. Baptisé Edvige, ce fichier accompagne la réorganisation des services de renseignement français. Publié au début de l'été, le décret qui institue sa création a soulevé un concert de protestation. Il permet en effet aux services de police de ficher tous «individus, groupes, organisations et personnes morales qui, en raison de leur activité individuelle ou collective, sont susceptibles de porter atteinte à l'ordre public». C'est évidemment sur ce dernier terme très flou que portent la plupart des critiques. D'autant qu'on apprend que les enfants aussi, à partir de l'âge de 13 ans, pourront y être inscrits. Consultée par le gouvernement, parce que c'est obligatoire, [la CNIL a émis de nombreuses réserves dont plusieurs n'ont pas été retenues->http://www.cnil.fr/index.php?id=2488&news[uid]=569&cHash=2e101fe0ec]. Aujourd'hui, plusieurs organisations politiques, comme le [Parti Socialiste->http://www.temps-reels.net/article1798.html] et associative comme [le réseau IRIS->http://www.iris.sgdg.org/info-debat/comm-edvige0708.html] demandent le retrait de ce décret. Du côté des acteurs privés, des entreprises donc, la situation n'est pas non plus très reluisante, indique [une enquête publiée par CFO-news->http://www.cfo-news.com/Loi-Informatique-et-Libertes-les-entreprises-sont-elles-a-la-hauteur-_a6465.html]. Portant sur les relations entre les entreprises et la loi Informatique et Libertés, elle montre que si la plupart d'entre elles semblent bien informées de la réglementation spécifique relative au traitement des données personnelles, elles éprouvent beaucoup de difficultés à la mettre en pratique. Peu au fait des outils de suivi et de gestion leur permettant de gérer efficacement leurs déclarations, elles utilisent très peu le dispositif des correspondants Informatique et Libertés. Mais c'est sans doute la Grande-Bretagne qui remporte la palme cette semaine en matière d'atteintes à la vie privée. Ce pays est engagée, on le sait, dans une très mauvaise voie sur ce plan avec le développement d'une société de surveillance généralisée dont il n'y a pas de meilleur symbole que les milliers de caméras vidéos qui couvrent son territoire. Un photographe amateur a d'ailleurs fait l'expérience récemment du caractère asymétrique de la transparence qui y règne. Prenant en effet par inadvertance dans son objectif une voiture banalisée de la police, il s'est vu [arrêté et molesté->http://go.theregister.com/feed/www.theregister.co.uk/2008/08/23/camera_analysis/] pour avoir photographié ce qu'il ne devait pas. Plus grave, on apprenait récemment que le Ministère de l'Intérieur britannique avait perdu les données personnelles de plus de 84000 détenus, venant couronner une longue série de pertes et de vols par différentes administrations [dont Le Monde fait le bilan->http://www.lemonde.fr/europe/article/2008/08/26/a-londres-vols-et-disparitions-en-serie_1087977_3214.html]. La raison principale de ces défaillances à répétition, explique Le Monde, vient en grande partie du recours par les administrations à la sous-traitance auprès d'entreprises privées. Bel exemple d'une situation où Etat sécuritaire et entreprises privées se donnent la main pour mettre à mal les droits les plus élémentaires des citoyens.
2008-08-28 07:54:12
A Londres, vols et disparitions en série
http://www.lemonde.fr/europe/article/2008/08/26/a-londres-vols-et-disparitions-en-serie_1087977_3214.html
Du 22 au 27 septembre, le festival Artischaud se déroulera à Lyon. Il s'agit d'une manifestation pluri-artistique qui vise à mettre en lumière les créations artistiques sous licences ouvertes déjà présentes sur internet par le biais de concerts, d’expositions, d’animations, de projections… Un cycle de conférences en partenariat avec Jarring Effects et l’Université Lyon 2 sera organisé pour informer le public ainsi que les professionnels sur la gestion individuelle des droits d’auteurs. En voici le programme : // LUNDI 22 SEPTEMBRE // >> 11h00 : Information sur la culture libre - Maison des étudiants de l’ Université Lyon2 (Bron). _ >> 13h00 : Concert Tsunami Wasahari (Bordeaux) Electro-Dub - à l’Amphi Culturel Université Lyon2 (Bron). Entrée Libre _ >> 20h00 : Scène Ouverte - au K-Barré. Espace de téléchargement et d’enregistrement libre et gratuit musiques et Logiciels. _ Entrée Libre - Adhésion K-Barré 1€. // MARDI 23 SEPTEMBRE // Thème «Internet et les auteurs, un danger? » _ >> 11h00 : Information sur la culture libre - cour du 74 rue Pasteur de l’Université Lyon2 (Quais). _ >> 15h00 : Conférence «Les enjeux du copyright et du copyleft» - à l’Université Lumière Lyon II (Quais). Entrée Libre _ >> 18h30 : Conférence «La culture libre de sa naissance à nos jours» - à l’Université Lumière Lyon II (Quais). Entrée Libre _ >> 21h00 : Projection « Good Copy Bad Copy » & Débat autour du téléchargement - à la Boulangerie du prado. Entrée Libre - Adhésion 1€ // MERCREDI 24 SEPTEMBRE // Thème « Les cultures par tous? » _ >> 11h00 : Information sur la culture libre - Maison des étudiants de l’ Université Lyon2 (Bron) et cour du 74 rue Pasteur (Quais). _ >> 15h00 : Conférence « La place de la culture en rapport avec les nouveaux moyens de créer et de diffuser » - à l’Université Lumière Lyon2 (Quais). Entrée Libre _ >> 17h00 : Atelier Logiciels Libres pour le graphisme - MJC Vieux Lyon. _ >> 19h00 : Exposition « Au dela du virtuel » - MJC Vieux Lyon. (Exposition toute la semaine du festival) _ >> 20h00 : Trio Led Crush (Lyon) Chanson-Théâtre-Humour - MJC Vieux Lyon. _ Entrée à prix libre - Chapeau _ Espace de téléchargement libre et gratuit musiques & Logiciels. // JEUDI 25 SEPTEMBRE // >> 11h00 : Information sur la culture libre - Maison des étudiants de l’ Université Lyon2 (Bron). _ >> 13h00 : Concert show case Godon (Lagraulière (86) Rock from Borrèze- Université Lyon2 Bron(Amphi culturel). Entrée Libre _ >> 20h30 : Concert Delgarma (Lyon) Folk-World - Péniche Le Sirius. >> 22h00 : Concert VS (Paris) Post-Rock - Péniche Le Sirius (cale). _ Entrée Libre – Chapeau. _ Espace de téléchargement libre et gratuit musiques & Logiciels. // VENDREDI 26 septembre // >> 21h00 : Concert Godon (Lagraulière (86)) Rock from Borrèze _ >> 23h00 : Performance pluridisciplinaire de la Cie Lakim (sortie de résidence) _ >> 00h00 : Concert Vax Enterpriz (Lyon) Electro Hip-Hop _ >> 01h00 : Concert Altoclark (Lyon) Electro 8 bits _ >> 02h00 : Concert Olip (Besançon) Drum’n'Break _ Ces concerts auront lieu au Marché Gare (fermeture des portes 3H) _ Tarifs : 5 à 7€. (tarif réduit précaires et étudiants) _ Espace de téléchargement libre et gratuit musiques & Logiciels // SAMEDI 27 septembre // >> 21h00 : Concert Tsunami Wazahari (Bordeaux) Dub-Electro featuring DamDi (Grenoble) Hip Hop _ >> 22h00 : Concert Volfoniq (Montpellier) Electro-Ethno-Dub _ >> 23h00 : Concert Cyber Mudjahedeen (Lyon) Hard Dub’n'Bass _ Ces concerts auront lieu au Sonic (péniche le Mascaret) _ Tarifs : 5 à 7€. (tarif réduit précaires et étudiants) _ Espace de téléchargement libre et gratuit musiques & Logiciels Toutes les informations sont disponibles sur [le site du festival->http://www.festival-articho.org/blog/]
2008-08-29 13:02:26
Créatif
http://www.creatif-public.net/article1001.html
De nombreuses publications récemment parues débatent des relations compliquées entre recherche scientifique et technologies numériques. Ces dernières sont en effet de plus en plus massivement utilisées par les chercheurs, aussi bien comme outils de communication que de calcul. C'est Chris Anderson qui a [lancé le débat cet été avec un éditorial paru dans le magazine Wired dont il est rédacteur en chef->http://www.wired.com/science/discoveries/magazine/16-07/pb_theory]. Intitulé «The End of theory», cet essai tente de montrer que l'énorme quantité de données aujourd'hui disponible conjuguée aux capacités de calcul gigantesques que permet la coopération d'ordinateurs en réseau change profondément les conditions dans lesquelles s'effectue la recherche scientifique. Alors que la recherche repose traditionnellement sur la construction d'une théorie et sa vérification par expérience et analyse de données, la science à l'âge du numérique pour Anderson peut se passer de la théorie : la puissance calculatoire peut désormais suffire à établir des corrélations entre les données et dégager des régularités statistiques. Hypothèse audacieuse ! qui appelle à quelques réponses repérées [par Enro, un observateur avisé des relations entre science et société->http://www.enroweb.com/blogsciences/index.php?2008/08/06/289-nouvelles-du-front-12]. Rapidement, on relève d'abord que le raisonnement d'Anderson est surtout valable en sciences appliqués ou ce sont des connaissances utiles à l'action qui sont surtout recherchées, alors que tout un autre pan de la science est orienté vers la recherche d'explications de phénomènes, qui ne peuvent surgir du simple établissement de corrélations. Autre type de réponse, bien plus radicale et exprimée avec clarté [par l'économiste Alexandre Delaigue sur son blog->http://econoclaste.org.free.fr/dotclear/index.php/?2008/06/29/1292-la-fin-de-la-theorie] : les données sne sont pas des morceaux de réalités ; elles sont elles-mêmes construites, le plus souvent en relation avec une...théorie scientifique particulière. Autrement dit, les données ne préexistent pas aux théories ; elles leurs sont intimement liées. Sans aller jusqu'au point de vue extrême d'Anderson, de nombreux chercheurs constatent cependant que les technologies numériques modifient les conditions dans lesquelles ils travaillent. C'est le cas par exemple de Lisa Spiro, une chercheuse américaine qui publie sur son blog [une communication très complète où elle tente de décrire ce qu'elle qualifie de «digital scholarship»->http://digitalscholarship.wordpress.com/2008/08/11/doing-digital-scholarship-presentation-at-digital-humanities-2008/]. La pratique de la recherche dans ce nouveau contexte explique-t-elle, repose sur la manipulation de toutes une gamme d'outils qui sont loin de se réduire au seul calcul statistique. Plutôt que de construire une représentation globalisante, elle tente de décrire ces nouveaux outils et ce qu'ils apportent au chercheur dans les différentes phases de son travail. Wikipedia peut-elle être comptée au nombre de ces outils ? Dans un autre article, la même Lisa Spiro pose une question dérangeante : [Wikipedia peut-elle devenir une source citable dans des articles scientifiques->http://digitalscholarship.wordpress.com/2008/09/01/is-wikipedia-becoming-a-respectable-academic-source/] ? Adoptant résolument une démarche qui ignore les tabous, la chercheuse remarque que le nombre de citations de la célèbre - et controversée -, encyclopédie en ligne augmente régulièrement depuis 2002 dans lesz publications scientifiques. Allant plus loin dans son investigation, elle s'interroge sur les différentes manières et les usages pour lesquels ces citations sont faites. Pour un certain nombre de chercheurs, sans doute très minoritaires, Wikipedia peut en effet être utilisée comme une source valable, à condition d'être utilisée à bon escient. Un des reproches que le monde académique fait à l'encyclopédie collaborative en ligne est l'anonymat de ses contributeurs. Cette caractéristique tient en réalité à la technologie de wiki qui l'anime, permettant ainsi à tous de modifier tous les contenus sans avoir nécessairement à s'identifier. Il y a pourtant quelque chose dans les wikis qui est très favorable à la science : c'est leur capacité à favoriser la collaboration. Dans la revue Nature genetics, un chercheur, [Robert Hoffmann->http://scholarship20.blogspot.com/2008/08/mememoir-radical-scientific-wiki.html#], présente [un nouveau logiciel de wiki adapté au contexte de la recherche scientifique->http://www.wikigenes.org/] : comme tous les wikis il favorise la coopération et permet à toute une communauté de collaborer dans le domaine des sciences de la vie. En revanche, il est doté d'un système de repérage et de traçage beaucoup plus puissant que les wikis classiques, permettant d'attribuer très facilement les contributions à leurs auteurs.
2008-09-01 15:12:28
The End of theory
http://www.wired.com/science/discoveries/magazine/16-07/pb_theory
Un accès illimité, libre et sans contrôle au Réseau. Cette expérience de l'Internet que vivent des millions d'usagers est peut-être sur le point de disparaître. Elle est en tout cas fortement menacée. Elle l'est d'abord par de nouvelles politiques commerciales qu'un certain nombre de fournisseurs d'accès promettent de mettre en oeuvre bientôt. [Selon ABC news qui publie un reportage sur la question->http://www.abcnews.go.com/Technology/story?id=5689480&page=1], de très importantes acteurs du secteur aux Etats-Unis, tel Comcast, promettent d'en revenir à une facturation liée à la quantité de données échangées par le titulaire d'un abonnement. Pour les fournisseurs d'accès, la mesure vise à empêcher la captation de bande passante par une infime minorité de très gros consommateurs au détriment de l'immense majorité des abonnés. Pour d'autres, l'argument n'est qu'un prétexte ; il s'agit surtout d'augmenter la rentabilité de l'activité. Les mêmes critiquent surtout des mesures qui risquent de porter un coup d'arrêt au développement de l'offre de vidéo à la demande sur le point d'éclore. De la même manière, les services qui ont fleuri à partir de l'idée d'une connexion permanente patiront nécessairement de ce qui apparaît au fond comme une régression. L'autre régression qui se profile à l'horizon, est celle du filtrage des contenus. Les signaux se multiplient qui indiquent que ce qui apparaissait jusqu'à présent comme un tabou risque bien de tomber dans les prochaines années. Evoquons le plus caricatural : [les récentes déclarations de Michèle Alliot-Marie, Ministre de l'Intérieur et de Nadine Morano, secrétaire d'Etat à la famille->http://www.ecrans.fr/La-police-internationale-de-la,4995.html] qui plaident toutes deux pour un filtrage des sites pédophiles. Il n'aura échappé à personne que ce qui compte dans ce genre de déclaration est moins les sites pédophiles - qui ne sont qu'un prétexte, que la notion de filtrage elle-même, susceptible d'être appliquée à bien d'autres choses plus intéressantes, comme les contenus piratés ou, éventuellement, les sites impertinents. Or, sur ce point, on peut s'inquiéter que les termes du débat soient sur le point d'évoluer depuis le procès Yahoo ! qui avait posé pour la première fois dans le débat public cette question du filtrage. Ainsi, depuis, un très bel exemple est venu confirmer dans les faits les prémisses un peu théoriques que [ce procès avançait déjà en 2001->http://www.homo-numericus.net/spip.php?article34]. il s'agit bien sûr de la Chine dont la politique en matière de contrôle de la liberté d'expression fut placée sous le feu des projecteurs à l'occasion des Jeux Olympiques. Occasion de découvrir qu'il est désormais tout à fait possible de [construire un Internet à la fois performant et filtré->http://www.numerama.com/magazine/10504-iTunes-de-nouveau-accessible-en-Chine-sans-l-album-pro-Tibet.html] alors même que les usages d'Internet et des nouvelles technologies s'y développent considérablement. Le tout avec [l'assentiment manifeste d'une bonne part de la population->http://www.pewinternet.org/PPF/r/246/report_display.asp]. Même si le contexte est très différent, les défenseurs des libertés civiques feraient bien d'y réfléchir à deux fois : le développement d'Internet n'est pas automatiquement corrélé avec celui de la liberté d'expression. De point de vue technique et des usages, des pays comme la Chine ou la [Tunisie->http://www.rsf.org/article.php3?id_article=28337] montrent qu'il est possible sur le plan technique et même des usages, de découpler les deux. Un Internet mesuré, filtré, et sans doute, à l'avenir, conditionnel, avec [l'adoption programmée de la riposte graduée en France->http://www.numerama.com/magazine/10538-Loi-Hadopi-Albanel-rassure-les-producteurs-sur-le-calendrier.html] et peut-être [en Europe->http://www.laquadrature.net/fr/septembre-le-paquet-telecom-arrive-en-pleniere], voilà ce que l'avenir semble nous promettre. C'est très certainement un aveu d'échec pour ceux qui rêvent d'un Internet libre, partagé et universel. On pourrait ainsi s'interroger sur l'efficacité de stratégies exclusivement défensives, tentant de mobiliser une opinion publique généralement indifférente lors des remises en cause successives avancées par les acteurs étatiques et industriels. Dans le même temps, d'autres proposent une autre démarche. Plutôt que de défendre des droits progressivement grignotés, ils tentent de revendiquer la reconnaissance positive de droits fondamentaux pour les internautes. Cet[ «Internet bill of rights»->http://internet-bill-of-rights.org/en/] fait l'objet de tout un travail de définition et de communication par un petit groupe d'acteurs, publics et privés. [Une récente enquête->http://www.pewinternet.org/PPF/r/260/source/rss/report_display.asp], menée au sein des milieux s'intéressant aux questions de gouvernance de l'Internet, montre que l'idée fait sens pour beaucoup d'entre eux. Très intéressante sur le fond cette démarche s'accompagne de difficultés importante : elle signifie un renforcement de l'opposition latente entre ancien et nouveau monde et une fragmentation de la citoyenneté selon les espaces où elle peut s'exercer.
2008-09-02 13:42:10
Is the end of unlimited Internet near ?
http://www.abcnews.go.com/Technology/story?id=5689480&page=1
Saison Culture multimédia 2008-2009 à la Maison populaire de Montreuil du 3 octobre 2008 au 16 mai 2009 Tout en questionnant cette saison encore les relations entre art, sciences et industrie, nous vous proposons de naviguer sur un océan virtuel, agité de paradoxes, d’incertitudes et de contradictions. Sur la piste des principes de rétroactions et d’échange de données, artistes, chercheurs, mathématicien, sociologue, économiste… nous aideront à nous interroger sur la part d’initiatives que nous laissent ces dynamiques complexes issues de systèmes préprogrammés. Captures de mouvements, de sons, d’images, de lumière, de température, de pression… sont aujourd’hui inhérentes aux pratiques multimédia. Ces périphériques, qui deviendront à court terme des centres de décision à part entière, tendent même à intégrer notre corps dans l’objectif de le rendre « plus efficace ». Ainsi, sous l’influence de nos actions, de nouveaux contenus sont générés, laissant place à une écume bouillonnante et perpétuellement changeante, poétiquement appelée « écume de l’espace-temps » et ici dénommée « interaction temps réel ». Aujourd’hui largement exploités sur Internet, ces allers-retours permanents entre réel et virtuel vont jusqu’à rentabiliser nos mécanismes physiologiques et nos tendances. Métaphore de la société et de l’échange, nous y oublions qu'une machine est un système qui se nourrit d'informations. Des communautés virtuelles à la préservation des données, notre mémoire collective devient contextuelle, l’accès à l’information enjeu de pouvoir pouvant parfois conduire au liberticisme et de façon acquise au contrôle des individus. Dans leur exploration de ces différents outils de visualisation, les artistes du numérique interrogent ces pratiques et proposent un dialogue entre l’imaginaire et le sens de nos réalités. Tentant de faire œuvre par le collectif, la création multimédia génère alors« un vaste ensemble d’idées de tous types, non structurées, non séquentielles », donnant une autre forme au rêve d’arborescence infinie du philosophe et sociologue Ted Nelson. [Soirées multimédia->http://www.maisonpop.net/spip.php?article898 ] vendredi 3 octobre 2008 à 20 h 30 _ Rétroaction et aléatoire _ avec Emmanuel Ferrand, mathématicien à l’institut de mathématiques de Jussieu et Sylvain Chaty, astrophysicien à l’Unité mixte de recherche du CEA/CNRS vendredi 28 novembre 2008 à 20 h 30 _ Réseau et création P2P, une informatique participative _ avec Maurice Benayoun, agrégé d’Arts plastiques, enseignant à l’université Paris 1 et directeur artistique du CiTu et Wendy Mac Kay, chercheuse à l’INRIA (sous réserve) vendredi 23 janvier 2009 à 20 h 30 _ Communautés virtuelles et société _ avec Stéphan Hugon, sociologue au Centre d’étude de l’actuel et du quotidien – Sorbonne (sous réserve), et Serge Soudoplatoff, économiste, président d’Almatropie vendredi 15 mai 2009 à 20 h 30 _ Outils libres, données personnelles et législation _ avec Gilles Vercken, avocat au cabinet Gilles Vercken (sous réserve), et Olivier Auber, chercheur et entrepreneur, co-fondateur du Laboratoire Culturel A+H Sarl. et de Navidis SA Tarif normal : 3 euros / Tarifs réduits pour les abonnés à la diffusion [Salons numériques->http://www.maisonpop.net/spip.php?article899] du 3 octobre au 23 octobre 2008 _ Pendule autopoiétique, par E.Rébus _ Daily Interpretation, par Berthe Salegos du 1er décembre au 20 décembre 2008 _ IN/OUT X.0, un projet de création connective initié par le CiTu _ avec Olivier Auber, Emilie Brout, Thomas Cheneseau, Vincent Ciciliato, Dominique Cunin, Florent Di Bartolo, Vincent Goudard, Yves-Maris Lhour, Maxime Marion, Benoît Meudic, Mayumi Okura, Olivier Perriquet… du 27 avril au 16 mai 2009 _ Psychic, par Antoine Schmitt Entrées libres - Du lundi au vendredi de 10 heures à 21 heures - Le samedi de 10 heures à 16 heures 30. - Fermé les dimanches, jours fériés et vacances scolaires Workshops de création du 3 octobre 2008 au 26 juin 2009 _ [Caméra stylo->http://www.maisonpop.com/ateliers.php?pour=adultes&activite=2115] _ animé par C. Ravussin _ Durée : 96 heures _ Tarifs Montreuillois ou travaillant à Montreuil : 233 € / non-Montreuillois : 281 € du 28 octobre au 29 novembre 2008 _ [Haïkus multimédia, poésie audiovisuelle générative->http://www.maisonpop.com/ateliers.php?pour=adultes&activite=2116] _ animé par Maxime Marion _ Durée : 24 heures _ Tarifs Montreuillois ou travaillant à Montreuil : 188 € / non-Montreuillois : 227 € du 13 décembre 2008 au 07 février 2009 _ [Images et gestes->http://www.maisonpop.com/ateliers.php?pour=adultes&activite=2060] _ animé par Wolf Ka _ Durée : 24 heures _ Tarifs Montreuillois ou travaillant à Montreuil : 188 € / non-Montreuillois : 227 €
2008-09-03 22:51:18
Le salon numérique
http://www.maisonpop.net/spip.php?rubrique21
Le « [bateau qui sillonne les mers voit la trace qu’il laisse sur les flots disparaître, tout comme sur le web les serveurs qui, sans états, sans mémoire et sans attente des requêtes passées, oublient les dialogues qu’ils ont avec les clients web. Cet oubli qui est au cœur de l’architecture du web est la condition de possibilité de son ouverture, tout en générant par effet de bord un mécanisme de désorientation.->http://www.christian-faure.net/2008/09/06/la-metis-de-google/] » La notion de mémoire représente bien en effet le point de vue central à partir duquel peut être comprise et analysée la rationalité de l'espace cybernétique, actualisation multiverselle [du memex imaginé il y a plus de 50 ans->http://www.theatlantic.com/doc/194507/bush]. La mémoire, qui est plus que le souvenir en ce qu'elle permet d'articuler le temps et l'espace où elle s'inscrit sous forme de traces, de vestiges ou de ruines. La mémoire qui est aussi le souvenir partagé, collectivisé et qui constitue dès lors le fondement des sociétés et des jeux de pouvoir qui les traversent : [maîtriser la mémoire collective étant le début et la fin de la domination->http://affordance.typepad.com/mon_weblog/2008/09/google-books-un.html]. Mais la mémoire n'est pas faite que de pleins ; elle ne se dessine pas uniquement à partir de souvenirs, mais aussi à partir d'oublis. Constitué en totalité de traces d'usages, de vestiges d'actions, l'espace cybernétique est proche, dans son mode de fonctionnement, de l'espace urbain, qui n'existe lui aussi que parce que des hommes y interagissent. Et de même que la Ville inscrit et construit, [efface et détruit->http://www.liberation.fr/actualite/monde/192648.FR.php] en même temps, et dans ce mouvement même dessine le visage de sa mémoire, de la même manière le Réseau [retient->http://ksgnotes1.harvard.edu/Research/wpaper.nsf/rwp/RWP07-022] et [oublie->http://en.wikipedia.org/wiki/404_error] alternativement et ce mouvement même constitue sa vie propre. Mais la mémoire est d'abord un champ de bataille sur lequel [chacun lutte avec l'énergie du désespoir->http://www.nytimes.com/2008/08/17/fashion/17photo.html] pour échapper à l'inéluctable disparition qui l'attend. Et dans l'un et l'autre cas, la menace ne peut être conjurée que par une médiation qui est d'abord une dépossession : je ne peux survivre à moi même [qu'en confiant à l'espace collectif, les traces de mon passage->http://www.readwriteweb.com/archives/the_future_of_blogging_reveale.php]. Traces qui seront la plupart du temps effacées, ou, si jamais elles échappent par miracle à la destruction, réfractées, modifiées et rendues méconnaissables parce que mutilées par le travail de sélection que d'autres font. Dans tous les cas, le prix à payer est une forme d'aliénation : ce qui me survit est à mon image, mais [une image ambivalente, dans laquelle je ne me reconnais jamais->http://innovationweb.branchez-vous.com/archives/2008/08/facebook_et_la_mort.html]. Alors, comment échapper à la contradiction ? C'est certainement dans le mouvement par lequel [chacun arpente cet espace peuplé de vestiges->http://hcsoftware.sourceforge.net/passage/index.html] qu'elle a le plus de chances d'être résolue. Car le parcours a beau être contraint par certaines limites, il n'en reste pas moins totalement singulier. Si chaque élément de l'espace cybernétique ou urbain que nous arpentons quotidiennement est [banal->http://www.flickr.com/search/?q=miranda+cat&ss=2&z=t], le chemin que nous suivons pour passer de l'un à l'autre est absolument personnel, en grande partie parce qu'il est l'expression de nos désirs pourvu que ceux-ci en constituent la véritable [boussole->http://upload.wikimedia.org/wikipedia/commons/8/88/Accuracy_of_Navigation_Systems.svg]. La bataille de la possession et de la représentation des vestiges qui peuplent ces espaces est par avance perdue, [semble-t-il->http://img238.imageshack.us/img238/6826/chromeeulafn3.jpg]. Il n'en va pas forcément de même du mouvement par lequel chacun passe d'un élément à l'autre et qui lui survit, en nourrissant sa mémoire, sous la forme apparemment banale de la [collection->http://daf.archivesdefrance.culture.gouv.fr/sdx23/pl/doc-tdm.xsp?id=FRDAFAPH_AD042_d0e3403&fmt=tab&base=fa]. Arpenter la ville, naviguer sur le réseau, vivre en homme, c'est d'abord collectionner, c'est-à-dire se mouvoir en choisissant, e[n accumulant selon son ordre subjectif et en s'appropriant les traces que d'autres produisent dans leur propre mouvement vital->http://www.internetactu.net/2008/02/08/10-proprietes-de-la-force-des-cooperations-faible/]. Ainsi, la mémoire authentique ne peut-elle être atteinte qu'en opérant [une révolution complète du regard->http://www.flickr.com/photos/amsterdamned/2060974024/] : elle n'est pas constituée de la somme des témoins que chacun laisse de sa propre activité – cela relève de la mémoire trahie bien plutôt, mais de la collection que chacun constitue des traces que d'autres laissent dans l'espace public. On ne pourrait mieux définir un espace social où le sujet peut survivre à l'individu grâce à la société et non contre elle, parce qu'il s'en nourrit et ne s'y dissout pas.
2008-09-07 15:03:44
La mètis de Google
http://www.christian-faure.net/2008/09/06/la-metis-de-google/
Pour la première fois, la scène du Net s'unit pour publier un texte manifeste intitulé «Téléchargez-moi», qui dit non au projet de loi «Création et Internet», projet présenté en juin par la ministre de la Culture que le Parlement est supposé adopter cet automne. Quatre-vingt-six artistes de milieux et de pratiques différents (art contemporain, art urbain, net-art, design, architecture, graphisme, littérature, poésie, son, théâtreŠ) signent cette pétition publiée sur Poptronics.fr lundi 8 septembre et dans « Libération » mercredi 10 septembre. Ce texte exige du gouvernement qu'il revoie sa copie en matière de «riposte graduée». Concrètement, cette expression désigne une politique fondée sur la surveillance généralisée des réseaux et sur la mise en place d'une politique d'exclusion des internautes via leurs fournisseurs d'accès en cas de comportement contraire à la loi, c'est-à-dire en cas de téléchargement illégal de fichiers musicaux ou de films. Cette pétition est désormais ouverte à tous sur le site d'Internet mon amour, le collectif d'«artisans » du réseau (chercheurs, artistes, critiques, observateurs et activistes) à l'initiative du texte. Elle sera au centre d'une Rencontre Internet Mon Amour «hors les murs» à Strasbourg le 27 septembre 2008, à deux pas du Parlement européen. Les Rencontres Internet Mon Amour ont été initiées à Paris au Centre Pompidou au début 2008. Pourquoi le parlement européen ? Parce qu'il étudie en cette rentrée le « paquet Télécom » grâce auquel la France tente de gagner du terrain en termes de « riposte graduée ». Des signataires et un représentant de la Quadrature du Net, un des groupes d'influence qui ¦uvrent contre ce texte, seront présents à Strasbourg dans le cadre du festival de musique électronique de l'Ososphère, le 27 septembre à 15h. La pétition : « Téléchargez-moi » Le projet de loi « Création et Internet » que le Parlement doit adopter cet automne nous préoccupe. Il est en total décalage avec notre réalité, bien loin de la « Création » et encore plus de cet « Internet » dont il prétend vouloir réguler les pratiques. Cela dit, il semble très naturel qu'une communauté de cinéastes «défendent cette loi sans réserve» et se fendent d'une tribune intitulée «Culture ne rime pas avec gratuité» dans « Le Monde » du 8 juillet. Comme il semble naturel que l'enjeu industriel soit au c¦ur de cette loi. Sauf que. Depuis les débuts du World Wide Web, nous nous sommes pris au jeu de cette mutation et existons 1.0, 2.0, et demain 3.0. Nous sommes les créateurs de demain, sans prétention aucune. Très sérieusement et depuis longtemps, nous nous posons la question du droit d'auteur, celle de la diffusion des ¦uvres sur les réseaux et de leur réception. Tout comme nous nous posons la question de l'économie de la création, sur l'Internet et ailleurs. Ce projet de loi est contraire à nos pratiques, tout comme il est extrêmement méprisant des usages et totalement ignorant d'un monde simplement contemporain. -Nous souhaitons qu'un projet de loi intitulé « Création et Internet » prenne en compte nos processus de création. C'est un droit. -Nous désirons partager et être téléchargés, sans filtrage aucun. C'est une nécessité. -Nous espérons que le principe démocratique selon lequel l'¦uvre existe ou n'existe pas au travers du regard de l'autre s'applique à cette multiplicité que d'autres nomment «piratage». C'est une revendication. L'auteur, le créateur, le spectateur, a muté. L'¦uvre est regardée, écoutée, partagée, comme jamais auparavant. Et c'est pourquoi créateurs et regardeurs ne peuvent être filtrés par une loi obsolète et crétine. Une loi qui asphyxie la «Création» et «l'Internet». Premiers signataires : Adrien Mondot, Agnès de Cayeux, Alain Escalle, Albertine Meunier, Alexandre Perigot, Anne Laforet, Annie Abrahams, Arno Fabre, Bérénice Belpaire, Bruno Samper, Caroline Hazard, Cécile Babiole, Cédric Pigot, Chloé Delaume, Christian Vialard, Christophe Bruno, Christophe Fiat, Christophe Jacquet dit Toffe, Claude Closky, David Guez, Dinah Bird, Electronic Shadow (Yacine Ait Kaci et Naziha Mestaoui), Emmanuel Maa Berriet, Emmanuelle Gibelo, Eryck Abecassis, Etienne Cliquet, Etienne Mineur, France Cadet, Franck Ancel, Francis Mizio, Gilbert Quélennec, Grégoire Courtois aka Troudair, Grégory Chatonsky, Invader, Jacques Perconte, Jan Kopp, Jean-Noël Montagné, Jean-Philippe Renoult, Jean-Philippe Roux, Jérôme Joy, Joachim Montessuis, Julien Lassort, Karine Lebrun, Karen O'Rourke, La Boîte Blanche, Louis Bec, Loz, Luc Dall'Armellina, Luc Martinez, Lucille Calmel, Lydwine van der Hulst, Lynn Pook, Magali Daniaux, Martin Le Chevallier, Mathieu Briand, Michaël Borras aka Systaime, M. Chat (Thomas Vuille du Collectif Chat), Nicolas Boone, Nicolas Clauss, Nicolas Frespech, Olga Kisseleva, Olivier Auber, Olivier Le Gal (collectif MU), Pascal Lièvre, Pascale Gustin, Paul-Armand Gette, Pavel Smetana, Pierre Beloüin (Optical Sound), Philippe Castellin (Akenaton/Doc(k)s), Philippe De Jonckheere, Philippe Langlois, Philippe Quesne, Pierre Bongiovanni, Pierre Giner, Ramona Poenaru, Roland Cahen, Shu Lea Cheang, Stéphane Sautour, Sylvie Marchand (Gigacircus), Thierry Théolier aka THTH, Triny Prada, Valéry Grancher, Vincent Elka aka Lokiss, Vincent Epplay, Wolf Ka (Compagnie Respublica), Xavier Cahen. Le site de la pétition : [->http://www.internetmonamour.fr] Le site des Nuits de l'Ososphère [->http://www.ososphere.org/2008/] La pétition sur Poptronics, l'agenda des cultures électroniques [->http://www.poptronics.fr/Telechargez-moi-86-artistes-contre] La pétition dans « Libération » : [->http://www.liberation.fr/rebonds/351044.FR.php] Contact : [->mailto:petition@internetmonamour.fr] [->mailto:info@poptronics.fr]
2008-09-15 13:15:54
Internet mon amour
http://www.internetmonamour.fr
Les spécialistes le savent depuis longtemps, et nous somme en train de le redécouvrir à chaque instant : les technologies numériques en réseau sont en réalité des technologies de coordination sociale. Souvent appréhendées comme des réalités machiniques extérieures à la société, les ordinateurs servent pourtant aujourd'hui autant à coordonner des groupes sociaux qu'à calculer. Ainsi par exemple, le Pew Internet & American life Project a récemment fait tomber le mythe tenace du jeu vidéo comme destructeur de relations sociales. L'étude qu'il publie montre au contraire que la pratique des jeux en ligne peut aider les adolescents à développer une certaine sociabilité et même un engagement civique. <quote> Lire sur Pew Internet & American life Project : [Teens, Video Games and Civics: Teens' gaming experiences are diverse and include significant social interaction and civic engagement->http://www.pewinternet.org/PPF/r/263/report_display.asp] - Joseph Kahne Ellen Middaugh Alexandra Rankin Macgill Chris Evans Jessica Vitak - 16/09/08</quote> Plus largement, l'avènement du web 2.0 peut être interprété comme la révélation du caractère social des technologies web. C'est ce que montre par exemple Danah Boyd dans une de ces dernières communications : <quote> Voir la vidéo sur Microsoft research : [Understanding Socio-Technical Phenomena in a Web2.0 Era->http://research.microsoft.com/CONFERENCES/MSRNEOpening/agenda.aspx] - Danah Boyd - 22/09/08 : «Web2.0 signals an iteration in Internet culture, shaped by changes in technology, entrepreneurism, and social practices. Beneath the buzzwords that flutter around Web2.0, people are experiencing a radical reworking of social media. Networked public spaces that once catered to communities of interest are now being leveraged by people of all ages to connect with people they already know. Social network sites like MySpace and Facebook enable people to map out their social networks in order to create public spaces for interaction. People can use social media to vocalize their thoughts, although having a blog or video feed doesn't guarantee having an audience. Tagging platforms allow people to find, organize and share content in entirely new ways. Mass collaborative projects like Wikipedia allow people to collectively create valuable cultural artifacts. These are but a few examples of Web2.0. Getting to the core of technologically-mediated phenomena requires understanding the interplay between everyday practices, social structures, culture, and technology. In this talk, I will map out some of what's currently taking place, offer a framework for understanding these phenomena, and discuss strategies for researching emergent practices. »</quote> Si l'on s'intéresse aux différents secteurs ou métiers dont l'organisation est perturbée par le développement des technologies web, on trouve toujours au coeur de ces bouleversement une dimension éminemment sociale. L'exemple de la presse est frappant. Le consultant Fred Cavazza y détecte un phénomène de fuite en avant vers du «tout social» : <quote> Lire : [L’avenir de la presse en ligne est-il dans le social ?->http://www.fredcavazza.net/2008/09/25/lavenir-de-la-presse-en-ligne-est-il-dans-le-social/] - Fred Cavazza - 25/09/08 : «Social Network, Social Games, Social Software, Social Computing… j’ai comme l’impression que “social” est devenu le nouveau buzzword à la mode ! Plus sérieusement, les médias sociaux ont modifiés profondément et durablement le paysage de l’internet, et il n’y aura pas de retour en arrière. J’irais même plus loin en écrivant que nous assistons plutôt à une fuite en avant vers du “tout social”. » </quote> Une récente étude montre même que le savoir-faire dans l'organisation de groupes sociaux cohérents et producteurs d'une information de qualité constitue certainement la base sur laquelle ce secteur sera capable de trouver sa rentabilité future. C'est tout ce que montre l'exemple de Cityvox, étudié par Felix Weygand : <quote> Lire sur Archivesic : [Comment se développe les nouveaux médias de l’Internet. Une étude de cas : Cityvox.->http://archivesic.ccsd.cnrs.fr/sic_00324381/en/] - Felix Weygand - 24/09/08 : «Cityvox , société éditrice de sites Internet pour le grand-public, de services et de contenus en ligne, résume le phénomène d’apparition des nouveaux médias de l’Internet en France : start-up créée dans l'effervescence du gonflement de la bulle en 1999, elle survit à la crise du secteur, réussit à adapter son modèle d'affaires au nouveau contexte et est reprise en 2008 par Orange, principal acteur national du secteur des technologies de l’information et de la communication. Décrire l'histoire de cette entreprise permet de comprendre comment et pourquoi des modèles d'affaires robustes, rentables et pérennes s'inventent depuis quelques années dans ce secteur, marqué par l'explosion des usages et l'effervescence technologique. Cela permet ensuite d’analyser, sur un exemple de taille modeste mais significatif économiquement, les processus qui attaquent et déséquilibrent le secteur traditionnel des médias, le poussant à une mutation souvent vécue comme une crise. »</quote> La semaine dernière, la conférence internationale sur l'innovation Picnic fut l'occasion pour un certain nombre d'orateurs de mettre en avant la dimension intrinsèquement sociale des technologies. Ainsi Jyri Engeström, l'inventeur d'un service de micro-blogging, propose de reconnaître dans la relation que chacun de nous établit avec des artefacts techniques, un désir d'établir en réalité des relations avec autrui : <quote> Lire sur Internet Actu : [Comprendre le caractère social de nos objets->http://www.internetactu.net/2008/09/30/jiry-engestrom-comprendre-le-caractere-social-de-nos-objets/] - Hubert Guillaud - 29/09/08</quote> Mais le plus étonnant reste à venir : il est un objet qui est encore très peu touché par les réseaux numériques, et dont les usages n'ont pas encore été véritablement bouleversés. Il s'agit du livre bien sûr. Selon Bob Stein, le directeur de l'Institute for the future of the book, la publication à l'ère des réseaux numériques a toutes les chances de révéler et libérer la dimension sociale de l'activité de lecture et écriture. La théorie qu'il propose redéfinit en ce sens les rôles respectifs de l'auteur et de l'éditeur qui ne sont plus des producteurs de contenus, mais des organisateurs de communautés dans ce nouveau contexte. Comment ? Tout simplement parce que par le moyen du lien et de l'interactivité, la publication n'apparaît plus comme un aboutissement, mais comme le début de nouvelles conversations engendrant indéfiniment de nouvelles publications dans un processus infini d'interactions sociales. <quote> Lire sur if:book : [a unified field theory of publishing in the networked era->http://www.futureofthebook.org/blog/archives/2008/09/a_unified_field_theory_of_publ_1.html] - Bob Stein - 04/09/08 : «Reading and writing have always been social activities, but that fact tends to be obscured by the medium of print. We grew up with images of the solitary reader curled up in a chair or under a tree and the writer alone in his garret. The most important thing my colleagues and I have learned during our experiments with networked books over the past few years is that as discourse moves off the page onto the network, the social aspects are revealed in sometimes startling clarity. These exchanges move from background to foreground, a transition that has dramatic implications. »</quote> Voilà des perspectives intéressantes : les débats et échanges autour des technologies numériques concerneront un nombre croissant de personnes, au delà des technologues passionnés par ces questions. Plus intéressant encore : lorsqu'on évoque le social, le politique n'est jamais loin. On peut faire le pari que l'on assistera dans les années à venir à une repolitisation des débats qui le sont actuellement assez peu. Les questions centrales ne porteront peut-être plus seulement sur l'efficacité de ces technologies sociales de management des communautés, mais sur la manière dont elles distribuent le pouvoir à l'intérieur de celles-ci.
2008-09-30 14:19:12
a unified field theory of publishing in the networked era
http://www.futureofthebook.org/blog/archives/2008/09/a_unified_field_theory_of_publ_1.html
Le gouvernement français persiste et signe dans sa volonté de protéger les industries culturelles au détriment des nouveaux usages se développant sur Internet. Malgré les difficultés rencontrées, tout indique que la loi HADOPI, rebaptisée «Création et Internet» sera prochainement adoptée. Cette loi doit permettre de sanctionner les téléchargements illégaux par une sanction extra-judiciaire : la coupure de l'accès Internet pour les contrevenants. Ces sanctions devraient être décidées par une «haute autorité», de statut similaire au CSA. <quote> Lire sur ZDnet : [Projet Hadopi : la riposte graduée expliquée pas à pas->http://www.zdnet.fr/actualites/internet/0,39020774,39381809,00.htm?xtor=RSS-1] - Estelle Dumout - 18/06/2008 </quote> Ce projet a pourtant fait l'objet d'une première opposition venue du Parlement Européen en avril dernier : <quote> Lire sur La Quadrature du Net : [Le Parlement Européen rejette la riposte graduée->http://www.laquadrature.net/fr/le-parlement-europ%C3%A9en-rejette-la-riposte-gradu%C3%A9e] - Pi - 10/04/08 «Le Parlement européen a adopté ce matin une résolution qui engage les États membres - donc la France - “à éviter l'adoption de mesures allant à l'encontre des droits de l'homme, des droits civiques et des principes de proportionnalité, d'efficacité et d'effet dissuasif, telles que l'interruption de l'accès à internet ”.» </quote> Ce même parlement a récidivé il y a quelques jours en adoptant un amendement au «Paquet Télécom». <quote> Les explications sur SVM : [Le parlement européen rejette une fois de plus la riposte graduée ->http://www.svmlemag.fr/actu/03441/le_parlement_europeen_rejette_une_fois_de_plus_la_riposte_graduee] - Nicolas Robaux - 24/09/2008 : «un amendement vient d'être voté, à une écrasante majorité, rappelant que les autorités nationales de régulation veillent à ce qu'aucune restriction à la liberté d'expression et d'information d'un citoyen ne soit prise sans décision préalable de l'autorité judiciaire. En clair : la coupure automatique de la connexion, décidée par une autorité quelconque sur la base d'une éventuelle surveillance des contenus échangés, est interdite. Il faudra passer obligatoirement par la décision d'un juge, gardien des libertés individuelles.» </quote> Les avertissements répétés venus de Strasbourg ne découragent pourtant ni la Ministre de la Culture, ni les responsables de l'UMP. Côté UMP, on réclame un examen en urgence du projet de loi : <quote> Lire sur 01net : [L'UMP réclame l'examen en urgence du projet de loi antipiratage->http://www.01net.com/editorial/391313/l-ump-reclame-l-examen-en-urgence-du-projet-de-loi-antipiratage/] - Julie de Meslon - 25/09/08 </quote> Il est probable que l'appel sera entendu car côté Ministère, le budget 2009 présenté aujourd'hui prévoit de mobiliser plus de 6 millions d'euros pour faire fonctionner la future haute autorité : <quote> Lire sur Ecrans : [Hadopi, les détails budgétaires->http://www.ecrans.fr/HADOPI-les-details-budgetaires,5270.html] - Astrid Girodeau - 29/09/08 : «le budget annuel de l’HADOPI est estimé à 6,7 M€, auxquels s’ajoutent le coût du repérage des actes de piratage et de leur signalement à l’HADOPI (pris en charge par les ayants droit) et celui des l’identification des internautes responsables, qui devrait reposer sur les fournisseurs d’accès à Internet, sur requête de l’HADOPI» </quote> Il est vrai qu'une analyse juridique un peu plus fine de la situation laisse ouverte un créneau temporaire - jusqu'en 2010 sans doute, pour que cette loi puisse être appliquée, avant que ne tombe le couperet européen. <quote> Lire les explications sur Numerama : [Riposte graduée : Albanel pourrait tenter le passage en force->http://www.numerama.com/magazine/10712-Riposte-graduee-Albanel-pourrait-tenter-le-passage-en-force.html] - Guillaume Champeau - 24/09/08 </quote> A suivre.
2008-09-29 07:33:38
HADOPI, les détails budgétaires
http://www.ecrans.fr/HADOPI-les-details-budgetaires,5270.html
Google est engagé depuis plusieurs années dans un important programme de numérisation de livre en accord avec un certain nombre de bibliothèques, américaines pour la plupart. Ce programme a provoqué une levée de boucliers de la part des auteurs et éditeurs, mécontents de voir leurs ouvrages ainsi utilisés sans qu'ils aient donné leur accord. <quote> Lire sur Zdnet : [Les éditeurs américains portent plainte contre Google Print, Alorie Gilbert, 20/10/2005->http://www.zdnet.fr/actualites/internet/0,39020774,39280200,00.htm]</quote> Le service proposé par Google ne donne pas un libre accès aux ouvrages numérisés protégés par le copyright, mais permet d'y faire des recherches en texte intégral et d'en visualiser des extraits. Pour sa défense, Google a souvent évoqué le fair use, cette limitation propre au droit d'auteur américain qui permet certains usages pourvu qu'ils ne nuisent pas à l'exploitation économique des oeuvres. On a beaucoup discuté de savoir si les usages développés et permis par Google Book Search relevaient du faire use. Autre sujet de discorde avec les éditeurs, l'opt out. Il s'agit de la possibilité pour un éditeur de demander le retrait de ses collections de l'index construit par Google sans lui avoir demandé son avis. Les éditeurs auraient préféré que le moteur de recherche mondial s'en tiennent à l'opt-in, c'est-à-dire l'inclusion des ouvrages sur autorisation expresse de leur part. <quote> Voir l'historique sur Homo Numericus : [Le programme Google Print pourrait bénéficier de la protection du fair use, Piotrr, 4/09/2005->http://www.homo-numericus.net/breve664.html]</quote> Le mois dernier, l'ensemble de ses disputes ont peut-être trouvé une voie de résolution au travers d'un accord entre les parties, bloquant éventuellement la préparation d'un procès qui s'annonçait retentissant. Voici les principaux points qui sont évoqués par cet accord entre le moteur de recherche et les représentants des éditeurs américains : - Google est autorisé à continuer son activité - Il est même autorisé à proposer des services payants sur cette activité (vente de fichiers numérisés, abonnements, et surtout publicité contextuelle) en ce qui concerne les ouvrages protégés par le copyright (qui ne sont pas tombés dans le domaine public) mais qui ne font plus l'objet d'une exploitation commerciale. Autrement dit, les épuisés. - Il versera en contre-partie 63% des revenus générés aux ayant-droits - Il indemnise immédiatement les plaignants pour la période précédant l'accord à hauteur de 45 millions de dollars. - Il ouvre un registre de recensement des oeuvres discriminant celles qui sont sous droit et celles qui ne le sont pas. Il provisionne 35 millions de dollars pour le faire et le tenir à jour. - Google est autorisé à vendre des abonnements aux bibliothèques leur permettant de donner accès au texte intégral des ouvrages à leurs lecteurs - Les chercheurs pourront gratuitement utiliser le corpus indexé pour effectuer leurs recherche. <quote> Lire le texte complet de l'accord : [Google Recherche de Livres. Règlement concernant le copyright et les droits d'auteur->http://books.google.com/booksrightsholders/index.html]</quote> Cet accord est d'une importance considérable : il permet en effet à Google d'étendre et de systématiser son activité de numérisation et de se positionner à la première place sur l'accès numérique aux livres en terme quantitatif. Plusieurs commentateurs le soulignent à juste titre : Google fait main basse sur la longue traîne des livres. L'accord consacre donc l'arrivée fracassante d'un nouvel acteur de poids dans le champ, qui repositionne d'un coup tous les autres acteurs sur des secteurs bien limités - des niches ? Les bibliothèques sont enfermées dans la gestion de l'accès physique et/ou contrôlé aux ouvrages. Cette question avait été soulevé dès les premières campagnes de numérisation il y a trois ans. Celle-ci se retrouvent en effet très contraintes par contrat dans les utilisations qu'elles pourraient faire des fichiers numérisés. L'initiative de Google avait à l'époque à la source d'une réaction virulente de la part du directeur de la BNF, Jean-Noël Jeannenet, qui avait conduit au projet de développement d'une bibliothèque numérique européenne, Europeana, dont le lancement est justement prévu ces jours-ci. <quote> En savoir plus sur Europeana : [Europeana: digital paintings, books, films and archives->http://dev.europeana.eu/about.php]</quote> Aux Etats-Unis, plusieurs bibliothèques importantes n'ont pas choisi de prendre une voie directement conflictuelle avec l'initiative de Google, mais plutôt de s'allier pour mettre en commun les collections numérisées dont elles disposent, y compris par Google. Retrouvant dans le monde numérique une de leurs missions essentielles, la préservation des doucments, elles cherchent ainsi à constituer une immense archive numérique qui garantit la pérennité de ces contenus indépendamment de vicissitudes de toutes natures. <quote> En savoir plus sur l'initiative HathiTrust : [Launch of Hatitrust, 13/10/2008->http://www.hathitrust.org/press_10-13-2008]</quote> Les libraires de leur côté s'en tiennent à la commercialisation des nouveautés. Pour Olivier Ertzscheid, spécialiste de la question, les éditeurs eux-mêmes, qui pourraient s'estimer satisfaits dans un premier temps (Google fait tout le travail et les paie en plus) pourraient connaître bien des déconvenues dans un second : rien n'interdit le moteur de recherche, fort de sa position nouvellement acquise sur le secteur de venir les concurrencer dans un second temps. <quote> Lire le commentaire sur Affordance : [Google Books : le prix de la tranquilité (et du monopole), Olivier Ertzscheid, 28/10/2008->http://affordance.typepad.com/mon_weblog/2008/10/google-books-le.html]</quote> Depuis une dizaine de jours, les réactions à cet accord sont nombreuses et variées. Recensées par le blog Open Access News, elles penchent globalement du côté de l'approbation : cet accord lève incontestablement un verrou qui contrariait le développement d'un nouveau service important pour les lecteurs. D'autres observateurs pointent a contrario les dangers qu'il recèle ; en particulier celui de la constitution d'un monopole sur l'accès à l'information à l'ère numérique. La liste des réactions, sur OAnews : [More on Google settlement #4, Peter Suber, 8/11/2008 (en quatre parties)->http://www.earlham.edu/~peters/fos/2008/11/more-on-google-settlement-4.html]
2008-11-10 05:20:50
More on the Google Settlement
http://www.earlham.edu/~peters/fos/2008/11/more-on-google-settlement-4.html
Google propose depuis plusieurs mois un service intitulé Google Trends, qui permet de visualiser les grandes tendances des requêtes auxquels il répond quotidiennement. Ce service permet de s'intéresser plus précisément à des termes particuliers, des zones géographiques ou sur des périodes chronologiques bien particulières. Vu le nombre de requêtes quotidiennes sur le plus important des moteurs de recherche, et vu le nombre d'internautes qui les effectue, Google Trends est en train de devenir un lieu d'observation immédiat des idées, préoccupations, interrogations qui traversent la plupart des sociétés développées. L'équipe d'ingénieurs qui travaille sur ce service tente d'aller un peu plus loin dans une utilisation scientifique de ces données. Le New York Times et O'Reilly Radar évoquent en effet Flu Trends, une application de Google Trends à tous les termes relatifs aux symptômes de la grippe. Il s'agit donc de détecter le déclenchement des épidémies de grippe plus tôt que d'habitude, en examinant l'évolution du nombre de requêtes relatives à ses symptômes. Les premières courbes publiées par Google sur les 5 dernières années montrent en effet une remarquable corrélation entre le nombre de requêtes et le déclenchement effectif des épidémies de grippe. Lire sur O'Reilly Radar : [Your Search Activity Predicts Flu Outbreaks, Brady Forrest, 11/11/08->http://radar.oreilly.com/2008/11/your-search-activity-predicts.html] Lire sur le New York Times : [Google Uses Searches to Track Flu’s Spread , Miguel Helft, 11/11/08->http://www.nytimes.com/2008/11/12/technology/internet/12flu.html] L'utilisation croissante de Google map et Google earth dans les milieux académiquez est un autre exemple d'interaction possible entre science et société sur Internet. Le Chronicle of Higher Education rapporte comment des chercheurs en sciences politiques ont profité des récentes élections présidentielles américaines pour rendre accessible au grand public par l'intermédiaire de ces deux outils toutes les données qu'ils ont accumuler sur l'histoire électorale des Etats-Unis. Résultat : tout un chacun peut télécharger des fichiers permettant de visualiser dans Google Earth le résultat des votes des différents états depuis 30 ans aux élections présidentielles. Lire sur The Chronicle of Higher Education : [Is Google Earth Becoming a Platform for Academic Scholarship?, Jeffrey R. Young, 30/10/08->http://chronicle.com/wiredcampus/article/3429/is-google-earth-becoming-a-platform-for-academic-scholarship] Le blog, outil grand public par excellence, constitue enfin un outil de communication dont un nombre grandissant de chercheurs se saisissent. Antoine Blanchard, responsable du Café des Sciences, a récemment publié une note éclairante sur le sujet dans Internet Actu. Ce jeune chercheur spécialiste des relations sciences-société y fait état de tout l'intérêt que nombre de scientifiques trouvent à l'utilisation des blogs dans le cadre de leur activité professionnelle. Il montre à quel point cette pratique n'est aujourd'hui plus marginale, mûrit rapidement et se normalise. Lire sur Internet Actu : [Ce que le blog apporte à la science, Antoine Blanchard, 29/10/08->http://www.internetactu.net/2008/10/29/ce-que-le-blog-apporte-a-la-science/] Les scientifiques ne font pas que rendre compte de leurs recherches sur leur blog. Il peut leur arriver de prendre position, de contester les décisions qui peuvent être prises en matière de politique de recherche. L'actuel gouvernement français le sait bien, qui est confronté à une triple fronde venant des professionnels de l'enseignement supérieur et de la recherche : sur sa politique d'évaluation de la recherche, sur la réforme de la formation des enseignants, sur la modification du mode de fonctionnement des universités. C'est la raison pour laquelle il vient de faire paraître un appel d'offre, révèle Rue89, visant à surveiller en particulier les blogs et espaces participatifs sur Internet pour y repérer les «leaders d'opinion et lanceurs d'alerte» susceptibles de contester sa politique. Nul doute que ceux qui se proposeront pour cette tâche auront l'idée d'utiliser eux aussi Google Trends mais dans une tout autre perspective. Autres lieux, autres mœurs. Lire sur Rue89 : [Education : 220 000 euros par an pour surveiller l'opinion, Chloé Leprince, 09/11/08->http://www.rue89.com/2008/11/09/education-220-000-euros-par-an-pour-surveiller-lopinion]
2008-11-12 02:21:02
Your Search Activity Predicts Flu Outbreaks
http://radar.oreilly.com/2008/11/your-search-activity-predicts.html
Les 5 et 6 décembre 2008 - au Quartz, scène nationale de Brest Une journée de réflexion autour des nouveaux espaces médiatiques et artistiques issus de l’Internet [ Les Immédiatiques->http://longueur-ondes.fr/article21.html], véritable "manifestation dans la manifestation", auront lieu au Quartz (scène nationale de Brest) pendant une journée et demi, en parallèle au festival de la radio et de l’écoute. Les vendredi 5 et samedi 6 décembre, tables rondes, forum et ateliers se succéderont sur le thème des nouveaux médias, en partenariat avec l’Humanité et France Culture qui déplacera plusieurs de ses émissions à Brest pour l’occasion. Propos À l’heure où la révolution Internet semble transformer de fond en comble le champ de l’information et de la connaissance, on assiste à la construction d’un nouvel espace médiatique. Immédiats, participatifs, citoyens,... nombre d’adjectifs peuvent qualifier ces nouveaux médias. De Mediapart à Bakchich, en passant par les blogs ou les réseaux wiki, ce monde en expansion continue fait l’actualité, la commente, l’enrichit et invite tout un chacun à participer à ce processus. C’est pourquoi nous souhaitons faire le pari d’un temps d’arrêt consacré à une somme de rencontres et de réflexions autour de ce nouvel espace médiatique compris dans son acception la plus large. En imaginant ce rendez-vous annuel pendant le festival Longueur d’ondes, nous espérons à la fois rendre compte des évolutions/involutions en cours, des questionnements qui leur sont afférents, et participer à un débat qui engage autant les médias eux-mêmes que les rapports qu’ils entretiennent avec des publics consommateurs et/ou précurseurs. En effet, loin de vouloir organiser une énième rencontre sur le mode « les médias parlent aux médias », nous souhaitons surtout, et avant toute chose, susciter un moment quelque peu bourdonnant dont le succès ne sera garanti, à nos yeux, que s’il parvient à articuler bouillonnement intellectuel – pour une meilleure intelligibilité de ce champ « immédiatique » – et retours critiques d’un public envisagé tout autant comme une somme de récepteurs que comme une addition d’acteurs. Programmation Tous les débats seront enregistrés et rediffusés après le festival sur la web radio de France Culture Les sentiers de la création, partenaire des Immédiatiques - conférence inaugurale avec Jean-Noël Jeanneney Pour poser les enjeux des débats du samedi, dialogue avec Jean-Noël Jeanneney, historien des médias, ancien président de la Bibliothèque Nationale de France et de Radio France, et Marie-Armelle Barbier-Le Déroff, maître de conférences à l’Université de Bretagne Occidentale. _ vendredi 5 décembre ● 18h 4 tables rondes Le samedi 6 décembre, entrée dans le vif du sujet au fil de quatre tables rondes qui se succéderont de 9h30 à 18h. - Informer à l’âge du multimédia Les supports de presse évoluent, l’information aussi. Différentes stratégies se confrontent : gratuité des contenus sur la toile ou abonnement en ligne ? Résumé du journal sur Internet ou développement d’un nouveau média à part entière ? Réflexion et débat sur la question de l’information dans une « société immédiate ». _ + Intervenants : Christian Delporte, Pierre Haski, Nicolas Vanbremeersch (alias Versac), Alain Joannès _ + Modérateur : Thomas Baumgartner _ 9h30-11h30 - Inventer Les nouveaux médias offrent aux artistes un nouvel éventail de supports de création : du film sur téléphone portable au Netart, en passant par le e-book et les plateformes éditoriales web 2.0, qu’apporte Internet et le multimédia aux créateurs ? Comment penser l’artiste et ses droits dans un monde virtuel et gratuit ? Petit tour d’horizon des nouvelles formes d’expression artistique. _ Intervenants : Emmanuel Pierrat, Silvain Gire, Jean-Paul Fourmentraux, Aseyn _ Modérateur : non connu _ 11h30-13h - S’insoumettre Ils sont de plus en plus nombreux à choisir un mode d’expression alternatif : journalistes en désaccord avec leur ancienne rédaction, individus prônant une presse vraiment différente, etc. Quelles sont aujourd’hui les nouvelles formes de l’insoumission médiatique ? _ Intervenants : Edwy Plenel, Laurent Léger, André Gattolin _ Modérateur : Hervé Gardette _ 14h-15h30 - S’exprimer Commentaires, blogs, articles participatifs... Grâce aux nouveaux médias, l’internaute n’est plus seulement lecteur, il devient aussi acteur. Pour le meilleur ? Comment expliquer ces évolutions, quels en sont les conséquences et les enjeux ? _ Intervenants : Pierre Assouline, Nordine Nabili, Carlo Revelli, Jérôme Cuny _ Modérateur : Michel Briand _ 16h30-18h - et en conclusion Internet, une cure de jouvence pour les médias traditionnels ? Avec Philippe Cohen, directeur de la rédaction de Vendredi, nouvel hebdomadaire né en octobre 2008 (sous réserve) _ samedi 6 décembre ● 18h30 Le forum Tout au long de ses cinq années d’existence, Longueur d’ondes aura pu constater la vitalité des démarches qui portent, dans l’agglomération brestoise, sur l’utilisation et la démocratisation des pratiques nées de la révolution Internet. Le soutien de la ville, par l’intermédiaire de sa très active direction « démocratie locale, citoyenneté et nouvelles technologies », à de nombreux projets autour du « libre » et du « collaboratif », a permis de tisser un dense réseau d’initiatives que le forum des Immédiatiques souhaite mettre en lumière. Les participants au forum proposeront des ateliers et séances de présentation de leurs activités entre chaque table ronde et tout au long de la journée : - le service Démocratie locale, citoyenneté et nouvelles technologies de la Ville de Brest et le Médiablog coopératif - l’association Archipel du Libre - la Cinémathèque de Bretagne - l’association Côte Ouest (Festival européen du film court de Brest) - le CERV (Centre Européen de Réalité Virtuelle) - les Petits débrouillards Bretagne - le Fourneau (Centre National des Arts de la Rue) - la SPIP-party - l’association TGB (Télévision Générale Brestoise) - et aussi Arte Radio qui installe un "phonomaton" pour recueillir les impressions des festivaliers et propose une séance de montage en public à partir de ce matériau sonore
2008-11-13 00:53:14
Les Immédiatiques
http://longueur-ondes.fr/article21.html
Il n'a pas échappé aux meilleurs observateurs que Barack Obama a su utiliser mieux qu'aucun de ses concurrents la puissance d'Internet pour se rallier les suffrages des américains. La puissance de feu financière dont il a bénéficié, d'abord lors de primaires contre Hillary Clinton, puis lors des élections présidentielle contre John McCain fut l'une des clés de son succès. Or, cette capacité à lever des fonds doit beaucoup à l'habileté dont il a su faire preuve dans l'utilisation du réseau en général et des réseaux sociaux en particulier. Dès le mois de juin The Atlantic montrait combien le candidat était soutenu par les entrepreneurs les plus innovants de la Silicon Valley, à l'exemple de Chris Hugues, fondateur de Facebook et qui a pris en main la stratégie de communication en ligne de son champion : Lire sur le soutien de la Silicon Valley : Green, Joshua. “The Amazing Money Machine.” The Atlantic, Juin 1, 2008. [->http://www.theatlantic.com/doc/200806/obama-finance/2]. Lire sur le rôle de Chris Hugues : Stelter, Brian. “The Facebooker Who Friended Obama.” The New York Times, Juillet 7, 2008, sec. Technology. [->http://www.nytimes.com/2008/07/07/technology/07hughes.html]. Depuis, plusieurs articles ont mis en évidence les qualités objectives des dispositifs de communication mis en place par l'équipe de Barack Obama. Récemment, le blog Web Profit analysait la très grande efficacité du site Barackobama.com, entièrement conçu de manière à déclencher une action de soutien, quelle qu'en soit la forme, de la part des visiteurs. Lire sur Barackobama.com : Cleanthous, Alex. “6 Lessons We Can Learn From Barack Obama’s Online Marketing Strategy.” Web Profits, Juillet 23, 2008. [->http://www.webprofits.com.au/blog/2008/07/23/6-lessons-we-can-learn-from-barack-obamas-online-marketing-strategy/.] Plus récemment, Sarah Lai Stirland analysait sur Wired les armes secrètes du candidat démocrate : Internet, les bases de données et la psychologie. L'article montre bien que la grande force de cette campagne a résidé dans sa capacité à organiser le travail militant autant qu'à le susciter. Lire sur l'organisation du travail militant : Stirland, Sarah. “Obama's Secret Weapons: Internet, Databases and Psychology.” Blog. Threat Level from Wired, Octobre 29, 2008. [->http://blog.wired.com/27bstroke6/2008/10/obamas-secret-w.html]. Des bases de données militantes, des sites web et de la publicité en ligne, des campagnes de mailing et téléphoniques, des spots télévisés et des groupes sur les réseaux sociaux, des formulaires de dons en ligne ; rien de radicalement révolutionnaire en apparence dans l'utilisation de chacun de ces outils pour développer une campagne politique en ligne. Ce qui l'est plus, affirme Benoît Thieulin, directeur de la Netscouade, une agence spécialisée dans la communication en ligne, c'est d'avoir su mobilier et articuler tous ces éléments pour les orienter dans une même direction. Il développe cette analyse dans Place de la Toile, émission de radio consacrée aux questions numériques : Ecouter l'analyse de Benoît Thieulin : Baumgartner, Thomas, et Caroline Broué. “Les Parrains Place la Toile #6.” Ram. Place de la Toile. Paris: Radio-France, Novembre 7, 2008. [->http://www.radiofrance.fr/chaines/france-culture2/emissions/place_toile/fiche.php?diffusion_id=67910]. Benoît Thieulin n'est pas un observateur neutre sur cette question : il est le maître d'oeuvre de la campagne en ligne de Ségolène Royal aux dernières élections présidentielles. Venu du Service d'Information du Gouvernement où il s'était déjà essayé à la mise en pratique de stratégies de communication innovantes en politique, il a tenté, lors de la dernière campagne présidentielle, de faire fonctionner un volet participatif à partir du site Désirs d'Avenir, destiné à mobiliser au-delà de l'habituel électorat socialiste. Rencontrant un succès certain, Désirs d'Avenir a manifestement réussi à ouvrir un nouveau canal de communication politique, non plus du politique vers ses administrés, mais en sens inverse, avec la possibilité pour chacun de venir affirmer une position, argumenter dans une arène publique articulée aux propositions portées par la candidate socialiste. Lire l'analyse de Désirs d'avenir : Beauvallet, Godefroy. “Partie de campagne: Militer en ligne au sein de « désirs d'avenir ».” Hermès(Paris. 1988), no. 47 (2007): 155-166. Obama-Royal : le rapprochement pourrait sembler incongru, et il l'est à bien des égards. Pourtant, les similitudes ne sont pas si rares entre les deux lorsqu'on s'intéresse à leurs méthodes en matière de communication politique : celles-ci reposent sur la conjonction forte entre l'adhésion émotive que permettent les mass media, et la participation progressivement élaborée par l'intermédaire des espaces de discussion en ligne. D'un côté, une mobilisation des foules sentimentales par le moyen d'une rhétorique qui ose le lyrisme et mise sur les sentiments de pitié et de compassion pour unir (alors que leurs adversaires politiques s'appuient davantage sur la peur et l'agressivité pour opposer). De l'autre, des dispositifs favorisant la participation de tous, un effort évident pour permettre à chacun d'avoir le sentiment de pouvoir à nouveau influer sur le cours des choses. L'un et l'autre de ces deux volets ne peuvent évidemment se développer qu'à partir d'un effondrement idéologique : ils définissent des formes sans contenus, des modes de contrat social qui se positionnent au-delà de tout programme politique vertébré par une quelconque idéologie : d'un côté une recherche presque technique du compromis ; la fabrication méthodique du consensus ; de l'autre une relation fusionnelle, à la limite du mystique, comme l'ont bien relevé les détracteurs de l'américain et de la française. Pas étonnant que l'un et l'autre fassent l'objet d'attaques aussi virulentes de la part de leurs adversaires au sein de leur propre parti ; parce que ces derniers sont les tenants et les héritiers d'un mode d'action politique traditionnel, basé sur la représentation, qu'ils mettent en pièce. La comparaison s'arrête à peu près là ; car si Obama a fait preuve d'un professionnalisme sans égal et d'une grande maturité dans le déploiement de cette nouvelle forme de communication politique, Royal n'en est qu'aux balbutiements. Mais ses derniers discours, ses tentatives étranges du côté de la scène de spectacle sont bien les signes qu'une voie est en train de se chercher de ce côté, et qu'elle peut réussir ; le succès de son équivalent américain lui ouvre en tout cas une voie d'avenir. On verra bien si Barack Obama, devenu président, aura la volonté ou la possibilité de maintenir cette capacité d'innovation en matière de communication. Malgré les difficultés et les contraintes qui pèsent sur sa propre personne (il serait interdit de Blackberry pour des raisons de sécurité des communication), Obama semble bien décidé à continuer dans la même voie. La mise en ligne de son site, Change.gov spécialement dédié à la période de transition en est un premier signe. Sa décision de diffuser ses adresses à la nation via Youtube en est un autre, quoique contesté. Alors que des groupes de pression ont déjà pris date pour une amélioration de la transparence gouvernementale, spécialement sur Internet, on ne peut que constater l'espoir démocratique que représente cette présidence qui s'annonce atypique. Lire sur l'interdicton du Blackberry : Zeleny, Jeff. “Say Goodbye to BlackBerry? If Obama Has to, Yes He Can .” New York Times, Novembre 15, 2008. [->http://www.nytimes.com/2008/11/16/us/politics/16blackberry.html]. Lire sur Youtube : Sanner, Ann. “The Associated Press: Obama to use Web videos for presidential address.” Associated Press, Novembre 15, 2008. [->http://www.google.com/hostednews/ap/article/ALeqM5jb_yTrh782LktIL9XXD0DlfLaLSQD94EVA3G0]. Lire sur les demandes de transparence : Suber, Peter. “More recommendations on openness for the new U.S. administration.” Text. Open Access News, Novembre 14, 2008. [->http://www.earlham.edu/~peters/fos/2008/11/more-recommendations-on-openness-for.html].
2008-11-17 13:50:23
Lose the Blackberry ? Yes, he can
http://www.nytimes.com/2008/11/16/us/politics/16blackberry.html
Le projet de loi sur l'audiovisuel public recèle bien des surprises. On en connaît surtout deux dispositions majeures : la suppression de la publicité sur les chaînes de télévision publiques et la nomination de leur directeur par le chef de l'Etat, et non plus par le CSA, comme c'était le cas jusqu'à présent. On sait moins que ce projet de loi aura certainement d'importantes répercussions sur Internet qui n'est pourtant pas a priori concerné. Première conséquence, connue depuis un certain temps : la compensation des revenus publicitaires perdus par les chaînes publiques viendra en partie d'une taxe nouvelle pesant sur les entreprises de télécommunication : téléphone mobile, fournisseurs d'accès à Internet. Lire sur les nouvelles taxes : Roberts, Isabelle. “Les comptes de l’amère loi.” Ecrans, Décembre 16, 2008. [->http://www.ecrans.fr/Les-comptes-de-l-amere-loi,5956.html]. Malgré les apparences, l'idée n'est pas tout à fait neuve. Ainsi, elle se situe dans une certaine continuité avec l'extension de la redevance pour copie privée à tous les supports de stockage numériques qui procède de la même idée : mettre à contribution un secteur innovant et dynamique pour soutenir un secteur traditionnel et plutôt déclinant. Mais la continuité n'est que partielle, car ces supports de stockage accueillent au moins en partie des contenus bénéficiant de la redevance pour copie privée. On ne sait pas que les secteurs de l'Internet et du téléphone portable bénéficient particulièrement des émissions que diffuse France 2 ou France 3. Evidemment, la plupart des entreprises concernées ont manifesté leur mécontentement. Lire les réactions des différents acteurs : “Taxe des sites internet : front d'opposition des professionnels du secteur.” Zdnet.fr, Novembre 26, 2008. [->http://www.zdnet.fr/actualites/internet/0,39020774,39385120,00.htm?xtor=RSS-1]. Seconde conséquence : par le biais d'un amendement parlementaire émanant de parlementaires UMP, le gouvernement s'apprête à compenser la perte de pouvoir qu'il inflige au CSA, à qui échappe désormais la nomination du président de France Télévision, en lui accordant de contrôler le secteur de la publicité sur Internet. La proposition est astucieuse car elle vient réveiller un vieux désir de l'autorité de régulation qui s'est toujours sentie compétente pour prétendre réguler le nouveau secteur de l'Internet. Ces vélléités remontent au moins à Hervé Bourges, qui avait tenter une prise de pouvoir à l'occasion d'un célèbre Forum des régulateurs en 1999. Lire l'histoire des relations entre Internet et le CSA : Girardeau, Astrid. “Le CSA et Internet, c’est toute une histoire.” Ecrans, Décembre 17, 2008. [->http://www.ecrans.fr/Internet-et-le-CSA-l-histoire-d,5763.html]. Et cette vieille idée d'une régulation de l'Internet repose sur une appréhension pour le moins particulière de ce mode de communication. En témoignent par exemple les propos que le député et porte-parole de l'UMP, Frédéric Lefebvre, a tenus à l'Assemblée Nationale pour défendre un de ses amendements (finalement rejeté). Lire les propos de Frédéric Lefebvre : Compte Rendu intégral de la séance du lundi 15 décembre 2008 à l'Assemblée Nationale : [->http://www.assemblee-nationale.fr/13/cri/2008-2009/20090103.asp#P705_153094] Reste que cette fois-ci, la plupart des acteurs de l'Internet, semblent bien décidés à ne pas se laisser faire. Et on est un peu étonné de les voir contraints à reprendre le vieux slogan : «Internet n'est pas de la télévision», qu'on entendait déjà il y a presque dix ans. On croyait le fait acquis ; il faut croire que non. Lire le communiqué de presse de l'ASIC : Association des Services Internet Communautaires (ASIC). “Projet de loi Audiovisuel : Internet n'est pas la télévision !.” ASIC, Novembre 25, 2008. [->http://www.lasic.fr/spip.php?article38]. Ce n'est pas tout ; car de la loi sur l'audiovisuel à celle sur la riposte graduée, il n'y a qu'un pas, que le député Frédéric Lefebvre et la Ministre de la Culture Christine Albanel ont franchi, semble-t-il. L'un et l'autre se sont en effet accordé sur la possibilité d'y inclure une taxe sur les plateformes de partage de vidéos, comme Youtube ou Dailymotion, pour financer la production audiovisuelle. Lire l'échange entre le député et la ministre : Girardeau, Astrid. “Les députés UMP veulent un Internet régulé.” Ecrans, Décembre 17, 2008. [->http://www.ecrans.fr/Les-deputes-UMP-veulent-un,5960.html]. On voit bien la logique à l'oeuvre au sein de l'UMP et du gouvernement : Internet est un média dangereux qu'il faut réguler et contrôler, mais aussi très profitable, qu'il faut donc taxer. Le problème est que le dynamisme du secteur -et donc sa profitabilité, et donc sa capacité à générer des rentrées fiscales - repose en grande partie sur le caractère bon marché de l'accès et sur le développement des usages qui s'accorde mal avec le discours absolument négatif dont ce mode de communication fait l'objet. On peut inverser la raisonnement : si Internet est néfaste et dangereux, parce qu'il corrompt la jeunesse et déstabilise les médias traditionnels, on peut chercher à en freiner l'expansion par le moyen de verrous et cadenas, mais aussi en le taxant lourdement. On se demande alors quelle peut-être la place du Plan Besson dans cette politique. Entre profiter d'un secteur économique dynamique et chercher à le restreindre pour toutes sortes de raisons, il faudra bien choisir.
2008-12-18 07:18:06
Les députés UMP veulent un Internet régulé
http://www.ecrans.fr/Les-deputes-UMP-veulent-un,5960.html
Quel point commun réunit la Roumanie, le Danemark, l'Allemagne, l'Australie, la Grande-Bretagne ? Tous ces pays s'apprêtent à filtrer l'accès du public à Internet au niveau des fournisseurs d'accès dans le but d'empêcher l'accès à des contenus illégaux. Ce faisant, ils rejoindront d'autres pays qui, comme la Chine, la Syrie, l'Arabie Saoudite ou la Tunisie, le font depuis longtemps. En Australie : c'est le Ministre de la Communication qui, malgré les oppositions, travaille à mettre en place un système de filtrage général sur la base d'une liste noire de sites web interdits, dont le contenu resterait secret. Lire sur Le Monde : Leloup, Damien. “L'Australie s'apprête à filtrer Internet - Technologies.” Le Monde.fr, Janvier 2, 2009. [->http://www.lemonde.fr/technologies/article/2009/01/02/l-australie-s-apprete-a-filtrer-internet_1137146_651865.html]. Au Danemark, c'est par le biais d'une décision de justice qu'un des premiers fournisseurs d'accès du pays a dû interdire l'accès de ses clients à Pirate Bay, célèbre portail suédois recensant et pointant vers un grand nombre de contenus diffusés sur Internet en infraction avec le droit d'auteur. Lire sur Ecrans : Girardeau, Astrid. “Danemark : Le principal fournisseur d'accès filtre les pirates.” Ecrans, Janvier 20, 2009. http://www.ecrans.fr/The-Pirate-Bay,6198.html. Non loin de là, en Allemagne, la Ministre de la famille Ursula von der Leyen cherche à lutter contre la pédo-pornographie en mettant en place un système de filtrage lui aussi basé sur une liste noire secrète établie par la police fédérale. Lire sur Spiegel : “Kinderpornografie: Familienministerin setzt Internet-Filter durch .” Spiegel, Janvier 15, 2009. http://www.spiegel.de/netzwelt/web/0,1518,601440,00.html. On pourrait continuer ce tour du monde du filtrage Internet, en évoquant la Finlande par exemple, ou la Roumanie. Un excellent article paru dans The Register fait le point sur la situation dans ces différents pays. Il évoque aussi les projets du Ministre de la Culture britannique visant à catégoriser les sites web comme on le fait actuellement pour les films de cinéma. Lire sur The Register : Ozimek, John. “Government pipedreams on internet ratings doomed to failr.” The Registe, Décembre 30, 2008. http://www.theregister.co.uk/2008/12/30/great_firewall_fails/. Comme beaucoup d'autres débats relatifs à Internet, la question du filtrage des sites Web est une vieille question. En 2006 déjà, la France s'était illustrée par un procès célèbre contre l'entreprise Yahoo! dont un site de vente aux enchères permettait aux internautes d'acheter et de vendre des souvenirs nazis. La question s'était alors posée, au niveau du site incriminé, de la mise en place d'un filtrage excluant les visiteurs français sur la base de leur adresse IP. La plupart des experts étaient sceptiques. Aujourd'hui, la problématique est différente puisque c'est de filtrage au niveau du fournisseur d'accès qu'il s'agit. Ainsi il y a quelques mois, la Secrétaire d'Etat à la Famille Nadine Morano proposait la mise en place d'une «police internationale de la Toile» et de mesures de filtrage visant à interdire l'accès à une liste de sites pédopornographiques. Lire sur Homo Numericus : piotrr. “Menaces sur les usages de l'Internet.” Homo Numericus, Septembre 2, 2008. http://www.homo-numericus.net/spip.php?breve980. Les critiques portées à l'encontre de la mise en place de telles mesures de filtrage sont très nombreuses. Elles reposent pourtant la plupart du temps sur un argument qui n'est pas imparable : l'argument technique qui avance la difficulté de la mise en place des outils de filtrage, les nombreuses erreurs en «faux positif» que provoquent ces outils et enfin les possibilités de contournement pour tout internaute un peu avisé. Voir sur Opennet : Ronald Deibert, John Palfrey, Rafal Rohozinski, Jonathan Zittrain, eds., Access Denied: The Practice and Policy of Global Internet Filtering, (Cambridge: MIT Press) 2008. http://opennet.net/accessdenied Ces arguments ne portent pourtant pas auprès des gouvernements. Dans leur esprit en effet, le poids de la gestion technique du filtrage peut bien reposer sur les fournisseurs d'accès, la censure sur Internet n'est pas de la vraie censure parce qu'Internet n'est pas un vrai média, et enfin peu importe que le filtrage soit partiellement inefficace pourvu qu'un signal soit envoyé en direction du grand public. Par ailleurs, l'exemple chinois prouve bien que la mise en place de mesures de filtrage ne constitue pas nécessairement un frein au développement des usages d'Internet. Du coup, on peut légitimement se demander s'il n'est pas temps que ceux qui souhaitent empêcher la mise en place de telles mesures adoptent une autre stratégie en portant le débat sur un autre terrain, celui des principes par exemple. Peut-être pourrait-on inciter les citoyens des différents pays, surtout de ceux qui ont une longue tradition démocratique, à se demander s'ils souhaitent vraiment la mise en place de systèmes de filtrage a priori sur quelque moyen de communication que ce soit.
2009-01-20 15:30:37
Access Denied: The Practice and Policy of Global Internet Filtering
http://opennet.net/accessdenied
Danah Boyd est une brillante chercheuse. Récemment recrutée au laboratoire de recherche de Microsoft en Nouvelle Angleterre, elle vient de soutenir sa thèse à l'Université de Berkeley. Ce travail vient conclure plus de 2 ans d'enquêtes ethnographiques auprès d'adolescents américains. Il s'agissait pour Danah Boyd de comprendre la manière dont ces adolescents se sont emparés des réseaux sociaux comme Facebook et Myspace pour développer une forme de sociabilité qui leur est propre. Son analyse repose sur l'utilisation du concept d'"espace public en réseau" qui décrit tout à la fois l'espace qui se construit au travers des technologies en réseau, et la communauté imaginée qui émerge de l'intersection entre les individus, les pratiques et les technologies. Pour Danah Boyd, ces espaces d'un type particulier sont caractérisés par trois propriétés : la présence de publics invisibles, l'effondrement des contextes et l'effacement de la frontière entre public et privé. En les utilisant de manière intensive, les adolescents américains font ce que font les jeunes depuis toujours : ils socialisent, ils apprennent à vivre en société, ils construisent leur identité et préparent leur entrée dans le monde des adultes. Mais ils le font de manière inédite, en utilisant et en apprenant à utiliser des outils de communication nouveaux. Danah Boyd met bien en lumière le décalage entre la perception qu'ont les adultes de ces réseaux sociaux, pour l'essentiel faite de ce que les médias en disent, à savoir des lieux dangereux et incontrôlables, et les pratiques qu'y déploient les adolescents, plutôt empreintes de bon sens au final. Elle montre comment ces derniers interagissent avec le dispositif technique, qui informe leurs modes de sociabilité, autant qu'il est informé par eux. Finalement, c'est la notion même de vie privée qui apparaît transformée et faire l'objet du plus grand malentendu entre adolescents et adultes : alors que ces derniers la comprennent essentiellement comme l'interdiction de l'accès aux informations les concernant, les adolescents la conçoivent plutôt comme un contrôle sur cet accès : à qui donner accès à quelle information ? et ce contrôle est difficile à acquérir ; il fait l'objet d'un apprentissage. Plus intéressant encore, est le constat fait par la chercheuse, que la multiplication des discours alarmistes sur les dangers réels ou supposés des réseaux sociaux aboutit à l'effet strictement inverses à ceux qui sont souhaités. Ainsi, angoissés par ces messages à répétition, les parents sont tentés de vouloir surveiller les activités de leurs enfants sur ces réseaux, de les décourager ou pire, de les empêcher, toutes choses qui aboutissent à une seule chose : encourager ces adolescents à dissimuler leurs pratiques. Danah Boyd insiste beaucoup là-dessus et se faisant, elle porte un message politique fort : la tentation de l'hyper-contrôle constitue une anti-éducation qui renforce le clivage entre les générations, conduit les adolescents à refuser tout contact avec les adultes, et leur apprend à mentir. Le constat que fait Danah Boyd n'est pas très réjouissant : les relations entre adultes et adolescents en Amérique, mais cela peut être dit, sans doute, de la plupart des sociétés occidentales, ne sont pas bonnes. Les conflits qui se déroulent autour des réseaux sociaux n'en sont que le symptôme, le mégaphone, dit-elle, et non la cause, comme on le répète souvent. La lecture d'une thèse n'est habituellement pas exactement une partie de plaisir ; l'exercice impose des canons stylistiques pas vraiment littéraires à des productions pas toujours très pertinentes. Ce n'est pas le cas de la thèse de Danah Boyd, passionnante de bout en bout. Elle exploite à merveille, en particulier, toutes les ressources de l'ethnographie qui s'attache à restituter le sens que les acteurs accordent à leurs propres pratiques. Alors que les études sociologiques habituelles réduisent trop souvent ces pratiques à des agrégats statistiques, ou les observent de l'exterieur, on sent que Danah Boyd a réussi à avoir cette complicté avec ses interviewés, lui permettant de mieux comprendre les motivations et la logique de l'investissment adolescent sur les réseaux sociaux. C'est peut-être aussi sa limite d'ailleurs, puisqu'assez peu de place est accordée, dans son enquête, à l'analyse du positionnement de ces autres acteurs que sont les parents ou même, les entreprises qui fournissent ces services de réseaux sociaux. Il faut lire de toute urgence ce travail, accessible, comme il se doit, [gratuitement sur Internet->http://www.zephoria.org/thoughts/archives/2009/01/18/taken_out_of_co.html] et diffusé sous licence Creative Commons.
2009-01-22 14:54:47
Taken Out of Context: American Teen Sociality in Networked Publics
http://www.zephoria.org/thoughts/archives/2009/01/18/taken_out_of_co.html
Vendredi dernier, Homo Numericus était invité par l'équipe de [Place de la Toile->http://www.radiofrance.fr/chaines/france-culture2/emissions/place_toile/index.php?emission_id=130060155] à parler de la déconnexion. Dans la foulée, Hubert Guillaud, publiait sur [Internet Actu->http://www.internetactu.net/2009/01/26/place-de-la-toile-et-si-on-se-deconnectait/] une excellente synthèse de l'émission. Nous la republions ici, avec l'autorisation de l'auteur. Qu'il en soit remercié. «Les initiatives pour nous amener à décrocher de nos écrans se multiplient. Que ce soit l’opération [10 jours sans écrans->http://www.lexpress.fr/actualite/societe/famille/defi-largement-releve-par-250-eleves-a-strasbourg_505636.html], où 250 élèves d’une école Alsacienne avaient passé avec succès 10 jours sans écrans, le [ShutDownDay->http://www.shutdownday.org/] qui consiste à passer une journée sans ordinateur, le [zero e-mail Friday->http://www.rue89.com/et-pourtant/aujourdhui-cest-vendredi-je-ne-touche-pas-a-mes-e-mails] où des ingénieurs d’Intel avaient lancé en 2007 une journée hebdomadaire sans mails… En 2002, déjà, le Forum des droits sur l’internet, dans son [rapport sur les relations de travail et l’internet->http://www.foruminternet.org/specialistes/publications/rapports/rapport-final-du-groupe-de-travail-nbsp-relations-du-travail-et-internet-nbsp.html], avait proposé l’idée d’un droit à la déconnexion. Certes, il peut paraître saugrenu ou déplacé de parler d’un droit à la déconnexion quand pour beaucoup la priorité serait plutôt d’en appeler à un droit à la connexion, souligne la journaliste Caroline Broué, co-animatrice de [Place de la Toile->http://www.radiofrance.fr/chaines/france-culture2/emissions/place_toile/], sur France Culture (partenaire d’InternetActu.net) qui consacrait [son numéro du 23 janvier 2009->http://www.radiofrance.fr/chaines/france-culture2/emissions/place_toile/fiche.php?diffusion_id=69724] au droit à la déconnexion. Peut-il y avoir un droit à la déconnexion sans son revers, le droit à la connexion ? Se déconnecter est-il un luxe de geeks, d’aficionados, de privilégiés ? La déconnexion rime aussi avec différence et désobéissance, rappelle l’animateur de Place de la Toile, Thomas Baumgartner. La déconnexion est une idée d’autant plus nécessaire que nos objets du quotidien sont appelés à se connecter à leur tour au réseau et plus encore à nous-mêmes et à notre attention. La déconnexion sera-t-elle la seule solution pour échapper aux discours des machines qui risquent de nous assourdir ? Pour Pierre Mounier, professeur certifié à l’Ecole des hautes études en sciences sociales, responsable du Pôle formation et usages du [Centre pour l’édition électronique ouverte->http://cleo.cnrs.fr/] (Cleo), fondateur de l’excellent site de référence [Homo-Numericus->http://www.homo-numericus.net/], le droit à la déconnexion n’est pas spécifique au numérique, car il évoque la protection de la vie privée par rapport aux pressions d’un environnement public comme le monde du travail. Or la résistance aux injonctions du monde du travail est antérieure au numérique. On parle certes du droit à la déconnexion par rapport aux e-mails et aux téléphones mobiles offerts aux cadres pour être soumis à des astreintes souvent non formulées, mais elles sont plus anciennes, comme l’évoquait en 1981 le film de Pierre Granier Deferre, Une étrange affaire, où les moyens du harcèlement d’un patron sur son employé étaient le téléphone fixe et la voiture. La déconnexion est une résistance à la technique, même si elle n’est pas numérique. Quand on parle de déconnexion, on ne parle pas des non-connectés ou des non-usagers, mais de ceux qui ont choisi de ne plus l’être. Ce rejet, ce refus des technologies, nait d’un besoin de régulation par rapport à la saturation technologique que nous subissons, explique Véronique Kleck, auteure de [Numérique & Cie : sociétés en réseaux et gouvernance->http://www.amazon.fr/Num%C3%A9rique-Cie-Soci%C3%A9t%C3%A9s-r%C3%A9seaux-gouvernance/dp/2843771293/internetnet-21]. Face à l’accentuation des technologies sur nos vies, on a envie de pouvoir à nouveau “faire” sans technologie. D’autant qu’aujourd’hui, il est presque impossible de ne pas être connecté, puisque l’internet est devenu l’infrastructure de fonctionnement des activités humaines, souligne le sociologue Federico Casalegno, directeur du [Laboratoire de l’expérience mobile du MIT->http://mobile.mit.edu/]. Même si on suspend ses propres activités, même si on arrête ses outils, tout reste interconnecté. La déconnexion est donc une impression fugace, un temps, un répit, qui marque notre fatigue à maîtriser la connexion permanente. Justement, qu’y a-t-il derrière cette radicalité du droit à la déconnexion ?, s’interroge Pierre Mounier. Ce besoin d’éteindre nos ordinateurs ou d’aller dans des zones de non-couvertures par les réseaux manifeste surtout un défaut de maîtrise de nos outils. Si on savait mieux maîtriser nos interactions avec la machine, rien ne s’opposerait à ce que nos outils restent connectés. Dans le monde physique, nous avons construit un certain nombre de remparts pour délimiter et construire notre vie privée. La propriété privée, la limitation des horaires de travail en sont des exemples. Ce n’est pas encore le cas avec les nouvelles technologies, d’autant plus que nous les maîtrisons encore assez mal. Or si nous nous sentons obligé de répondre à nos mails en pleine nuit, [comme l’évoque Joanne Yates, professeur à l’école de management du MIT dans ses études sur l’addiction au blackberry->http://www.homo-numericus.net/spip.php?breve916], n’est-ce pas parce que nous nous sentons submergés par la technologie ? “L’initiative 10 jours sans écrans initiée par un collège alsacien n’est pas pédagogique !”, s’emporte Pierre Mounier. “Peut-on apprendre aux enfants que pour résister à l’attraction de l’écran, il suffit de les éteindre ? Je crois qu’il serait préférable de leur apprendre à mieux maîtriser l’outil, à mieux l’utiliser pour en rester maître.” La déconnexion ne serait pas autre chose qu’une manière de maîtriser sa connexion alors, avance Thomas Baumgartner. Au début, nous pensions gagner du temps en étant connectés tout le temps. Mais la connexion permanente est un royaume sur lequel le soleil ne se couche jamais. Rien ne nous oblige à être connecté, mais la pression sociale, la pression des pairs, de l’employeur et notre absence de maîtrise des technologies font que tout nous oblige à être connecté, rappelle Véronique Kleck. Pour Francesco Casalegno, il faut certainement distinguer ce qui est lié à une activité des situations de hiérarchie, où s’ajoute une pression psychologique. Or, pour les plus jeunes, leur vie est sur Facebook. La déconnexion revient alors à les arracher de leur vie. Pour que ce ne soit pas le cas, il faut parvenir à maîtriser les outils et comprendre les messages qui nous arrivent. La question de la déconnexion revient à celle de l’articulation entre l’espace privé et l’espace public, explique Pierre Mounier. Les outils numériques augmentent l’espace public physique que nous connaissons et offre la possibilité de créer des espaces publics déconnectés de ceux que nous connaissons. C’est ce que montre les travaux de recherche de la sociologue danah boyd, [qui vient de mettre en ligne sa thèse->http://www.zephoria.org/thoughts/archives/2009/01/18/taken_out_of_co.html] sur les pratiques des jeunes en ligne. Cette thèse, [comme l’analysait récemment Pierre Mounier sur Homo-Numericus->http://www.homo-numericus.net/spip.php?breve994], montre l’imbrication au niveau des réseaux sociaux, entre un espace public, un espace physique et un espace numérique. Et l’une des caractéristiques que pointe la chercheuse est justement l’effondrement, le brouillage de cette articulation entre espace public et espace privé. Le flicage croissant ne nous pousse-t-il pas à nous déconnecter aussi ?, interroge Caroline Broué. Mais il faudrait pour cela que les gens connaissent bien quelles sont les traductions et les moyens utilisés par la surveillance aujourd’hui, répond Véronique Kleck. Or beaucoup ne connaissent pas les implications de traçabilité qu’il y a à utiliser un téléphone mobile ou une carte bleue. Oui, continue Pierre Mounier, la déconnexion peut être aussi politique. Elle n’a pas pour but que de préserver sa vie privée ou sa santé mentale, mais elle peut-être aussi un acte politique, pensé, voulu ou porteur de significations. Participer à un espace public nous impose des normes, des règles de comportements, mais si on ne peut y résister ou y exister, on peut décider de s’en extraire ou de s’en exclure. C’est le modèle de la [déclaration d’indépendance du cyberespace->http://www.freescape.eu.org/eclat/1partie/Barlow/barlowtxt.html] de John Perry Barlow, cofondateur de l’Electronic Frontier Foundation, en 1996, à une époque où le gouvernement Clinton avait fait adopter une loi pour interdire les gros mots sur l’internet, comme ils étaient interdits à la télévision ou à la radio, pensant encore que l’internet était un canal médiatique comme un autre. Barlow s’appuie sur le réseau pour créer un nouvel espace public numérique déconnecté de l’espace public physique, en créant et revendiquant de nouvelles normes et en utilisant le mythe américain de l’indépendance. On pourrait même faire référence à l’utopie déconnexionniste pour faire référence à Hakim Bey, [le théoricien des zones d’autonomies temporaires->http://www.lyber-eclat.net/lyber/taz.html], qui développe l’idée que la dissidence et la résistance à l’oppression ne peuvent être que continument temporaires, car si elles se perpétuent dans le temps, elles deviennent à leur tour répressives. De même, quand un site devient trop contraignant, on le quitte, d’autant plus que sur les réseaux, le déplacement de l’utilisateur est instantané. Le principe de la déconnexion instantanée est consubstanciel au réseau. La déconnexion massive d’un service, le boycott, sont des formes de résistances, à l’image des mobilisations éclair, des connexions rapides que sont les flashmobs par exemple. Et Frederico Casalegno d’évoquer les [CarrotMob->http://www.carrotmob.org/], ces groupes de pression de consommateurs qui s’organisent pour acheter un bien de manière groupé afin d’avoir une meilleure offre ou que leurs achats soutiennent des initiatives sociales ou de développement durable. La connectivité (et donc la déconnexion) devient alors un moyen de pouvoir. Avec l’internet, les formes de revendication politiques peuvent être mises en pratique immédiatement. On dénombre de nombreuses pratiques de repli, de constitution de réseaux cryptés, privés… comme [Freenet->http://freenetproject.org/], ce réseau P2P de cryptage des communications. Freenet est à la fois un outil et une revendication politique. C’est une étrange déconnexion que cette déconnexion politique là, qui s’attèle à “sauvegarder une connectivité absolue, c’est-à-dire ouverte et universelle”, [expliquait déjà Pierre Mounier en 2003->http://uzine.net/article1948.html]. Aujourd’hui, force est de constater que cette déconnexion politique s’étiole au profit de la reformation de sous réseaux privés pour construire un “entre soi” sans revendication politique commune, à l’image des sites sociaux. C’est le constat que dresse encore danah boyd dans sa thèse : on ne cesse de parler aux ados des dangers de l’internet, mais plus les adultes font pression au nom de la panique morale qui les affole, plus les adolescents ont tendance à cacher leurs propres pratiques. On est encore une fois en train de mener une action qui est tout sauf éducative, conclut-elle et c’est une conclusion qu’on pourrait tirer avec elle.»
2009-01-27 00:21:18
Internet Actu
http://www.internetactu.net/2009/01/26/place-de-la-toile-et-si-on-se-deconnectait/
L'arrivée au pouvoir de Barack Obama est synonyme d'espoir de changements pour la plupart des Américains. Cela concerne aussi la politique en matière de technologies. Le nouveau président a en effet annoncé une réorientation qui concerne pour l'essentiel l'environnement et les technologies vertes, mais aussi tout ce qui touche au numérique. Si Bill Clinton s'était montré, avec son colistier Al Gore, très volontariste dans le développement d'Internet, sa politique n'a pas été dénuée d'ambiguïtés, notamment sur la question du copyright, où les lobbies des industries culturelles ont pu imposer des lois qui leur sont très favorables, comme le DMCA. La politique de Georges Bush ne fut pas marquée de la même ambiguïté : on en retiendra une diminution considérable des libertés publiques, surtout en matière de surveillance, du fait de la vague sécuritaire qui a suivi le 11 septembre 2001. Beaucoup de ceux que l'on pourrait qualifier de «techno-libéraux», partisans du logiciel libres, des standards ouverts, du libre accès et plus généralement de la libre circulation des biens culturels, les partisans enfin d'un mode de gouvernance plus transparent et délibératif ont voulu voir dans l'élection d'Obama la promesse d'une nouvelle politique numérique davantage favorable à leur opinion. Ce fut d'abord la mise en oeuvre d'une campagne très web 2.0 où les réseaux sociaux ont joué un rôle non négligeable. Piotrr. “D’Obama à Royal : les mutations de la communication politique.” Homo Numericus, Novembre 17, 2009. [->http://www.homo-numericus.net/spip.php?breve991]. La mise en place du site Change.gov, pendant la période de transition entre les élections et la nomination a donné le ton d'une présidence s'annonçant à l'écoute des citoyens et de leurs préoccupations. Ratcliff, Evan. “The Wired Presidency: Can Obama Really Reboot the White House?.” Wired, Janvier 19, 2009. [->http://www.wired.com/politics/onlinerights/magazine/17-02/ff_obama?currentPage=all]. Ce fut ensuite des signes forts, comme la nomination de Harold Varmus pour co-diriger le President's Council of Advisors on Science and Technology. Varmus est un des créateurs de la Public Library of Science, une des initiatives les plus réussies à ce jour dans le domaine du libre accès aux publication scientifiques. Peter Suber. “Varmus to lead Obama's science advisory council.” Text. Open access news, Décembre 21, 2009. [->http://www.earlham.edu/~peters/fos/2008/12/varmus-named-to-obamas-science-advisory.html]. ou encore la commande auprès de Scott Mc Neally, président de Sun, une entreprise fortement engagée dans le logiciel open source, d'une étude sur ce sujet. Aura-ton droit à un président Open Source, se demande franchement le site de la BBC ? Shiels, Maggie. “Calls for open source government.” BBC, Janvier 21, 2009, sec. Technology. [->http://news.bbc.co.uk/2/hi/technology/7841486.stm]. Et que dire de la publication sous licence Creative Commons de tous les contenus disponibles sur le site de la Maison Blanche, exemple à suivre, semble-t-il, pour toutes les administrations fédérales, sommées de rendre publiques toutes les données dont elles disposent dans les limites normales de confidentalité ? Benenson, Fred. “Whitehouse.gov’s 3rd Party Content Under CC-BY.” Creative Commons, Janvier 20, 2009. |->http://creativecommons.org/weblog/entry/12267] Jusqu'au fichier robots.txt du site de la Maison Blanche qui fut interprété comme une manifestation supplémentaire de cette volonté d'ouverture, ici aux moteurs de recherche, permettant une meilleure indexation des contenus publiés sur le site. Gflu. “Le robots.txt d'Obama.” aeiou, Janvier 21, 2009. [->http://www.fluctuat.net/blog/15582-Le-robots-txt-d-Obama]. Hélas, il fut vite démontré que la modification de ce fichier ne correspondait en rien à une volonté politique, mais n'était en réalité qu'un acte technique rendu nécessaire par la mise à jour du site. McCullagh, Declan. “Much ado about Whitehouse.gov's new openness.” CNET News, Janvier 21, 2009. [->http://news.cnet.com/8301-13578_3-10146802-38.html?tag=mncol;title]. La (mini-)affaire du robots.txt manifeste un certain emballement d'un enthousiasme certainement exagéré. Ainsi, les espoirs suscités par le nomination de Varmus pour les sciences, furent rapidement douchés par celle de Tom Perrelli, célèbre avocat de la RIAA au poste non moins clé d'adjoint au procureur général. La RIAA est sans doute le lobby le plus actif depuis plusieurs années pour une intensification de la lutte contre le piratage par tous les moyens possibles, judiciaires bien sûrs, mais aussi technologiques avec la généralisation des DRM, ces verrous logiciels qui entravent le développement des usages du numérique. Girardeau, Astrid. “Obama, l'espoir des anti-pirates.” Ecrans, Janvier 8, 2009. [->http://www.ecrans.fr/Obama,6083.html]. De la même manière, pour intéressant qu'en soit le projet, la consultation en ligne lancée au lendemain de l'élection n'a pas donné de résultat absolument satisfaisant. Le Citizen's briefing book ouvert à tous les citoyens afin qu'ils puissent s'exprimer sur les réformes qu'ils souhaiteraient voir mener par la nouvelle administration a fait remonter en tête des priorités des propositions assez anecdotiques comme la légalisation de la marijuana, ou carrément loufoques comme la reconnaissance de l'existence d'OVNIS. Si le volet «démocratie participative» du président ne se résume heureusement pas à cela, on peut cependant être assez sceptique sur la pertinence d'un tel dispositif. Hood, Joel. “Barack Obama's 'Citizen's Briefing Book'.” Chicagotribune.com, Janvier 23, 2009. [->http://www.chicagotribune.com/news/nationworld/chi-talk-citizenjan23,0,1151303.story]. Enfin, l'idée, très répandue, selon laquelle la campagne de Barack Obama aurait été financée essentiellement grâce aux petits donateurs, contrairement à celle de ses rivaux (d'abord au sein du parti démocrate lors des primaires, puis républicain), est elle-même fortement remise en cause. Une récente étude tend à montrer que la structure du financement dont a bénéficié le vainqueur de l'élection est finalement similaire aux autres. Malcolm, Andrew. “Obama's small donor base image is a myth, new study reveals.” Los Angeles Times, Novembre 28, 2008. [->http://latimesblogs.latimes.com/washington/2008/11/obama-money.html]. Mais venons-en au oeur du sujet. La mission envoyée par le think tank Terra Nova aux Etats-Unis, avec pour mission de comprendre ce qui a fait le succès de la campagne Obama, a révélé, on l'a assez dit, le rôle important qu'a joué l'usage des nouvelles technologies, et singulièrement des réseaux sociaux dans ce succès. Quoique d'ailleurs, ce rôle, insistent les observateurs, n'a pu être important que parce qu'il fut fortement articulé à une campagne de terrain massive. Or, au coeur de l'articulation entre le virtuel et le réel, on trouve un gigantesque fichier, Catalist, recensant près de 2/3 de l'électorat, compilant sur chacun des individus qui le composent, jusqu'à 600 renseignements divers. C'est bien dans ce fichier, et dans l'utilisation qui en a été faite, que réside certainement le succès de cette campagne, résume le rapport Terra Nova. Catalist est en fait l'éponyme de la société privée qui vend l'accès à ce fichier, constitué par croisement et consolidation à la fois des listes électorales, des fichiers commerciaux et enrichis par les remontées des militants de terrain. C'est lui qui a permis, par un profilage fin d'un grand nombre d'électeurs, de cibler les actions de communication qui leur furent destinées, accroissant considérablement leur efficacité. Olivier Ferrand (dir.). Moderniser la vie politique : innovations américaines, leçons pour la France. Paris: Terra Nova, Janvier 2009. [->http://www.tnova.fr/images/stories/groupes-de-travail/006-mission-us/terranova-rapportmissionus.pdf]. L'existence et l'utilisation de ce type de fichier n'est pas véritablement choquante aux Etats-Unis, où, comme le rappelle Benoît Thieulin dans une interview accordée à France-Info, la protection de la vie privée n'est pas nécessairement perçue de la même manière qu'en Europe. “Parlons Net avec Benoit Thieulin, la vraie campagne d’Obama, une vidéo de FranceInfo. parlons-net, parlonsnet, franceinfo, france-info, Nescouade,” Janvier 23, 2009. [->http://www.dailymotion.com/search/barack/video/x84fai_parlons-net-avec-benoit-thieulin-la_news]. Il n'en reste pas moins que les rapporteurs de Terra Nova préconisent la constitution d'un tel fichier en France, comme une des mesures qui permettraient de renouveler une vie politique moribonde. La constitution de ce type de fichier, assurent-ils, n'est pas contraire à la lettre de la loi et ne peut être empêchée par la Commission Informatique et Libertés qui n'interdit pas, par exemple, que les opinions politiques des citoyens soient inscrites sur un fichier nominatif. Par ailleurs, ajoutent-ils, ce type de fichier ne peut être constitué que sur la base d'une liste électorale nationale, contrairement à la situation actuelle où les listes sont établies sur des bases communales. Intéressant à bien des égards, le rapport de Terra Nova semble sortir tout à fait du raisonnable en préconisant la création d'un tel fichier, avec mention des préférences politiques des personnes qui y seraient inscrites. Il est peu compréhensible que ses auteurs, se classant pourtant comme «progressistes» ne mesurent pas la dangerosité d'un tel fichier. C'est méconnaître, semble-t-il, la longue tradition de guerre civile que la France a connu au cours des deux derniers siècles, ainsi que la tentation autoritaire qu'elle traverse cycliquement. A l'heure où les libertés individuelles semblent sérieusement menacées par les fichages policiers de toutes sortes : STIC et Edvige entre autres, demander la constitution d'un fichier centralisé «à l'américaine» revient à ignorer totalement les éléments de contextes, à la fois nationaux, culturels et conjoncturels.
2009-02-01 16:52:59
Terra Nova
http://www.tnova.fr/index.php?option=com_content&view=article&id=560:mission-detude-terra-nova-sur-la-campagne-americaine&catid=5:communiques
C'est ce qu'on pourrait penser à la lecture des nombreux articles qui exposent tout à la fois l'arrivée sur le marché de nouvelles machines plus performantes, mais aussi le développement de nouvelles application porteuses de nouvelles fonctionnalités, et enfin l'explosion de nouveaux usages toujours plus variés. Du côté des machines tout d'abord. C'est incontestablement l'arrivée de l'Iphone qui a créé un phénomène de rupture sur le marché. Très différent - en taille, en ergonomie, de ses concurrents, la machine proposée par Apple a provoqué dans le secteur du téléphone portable le même bond en avant que la Macintosh dans celui de l'ordinateur personnel en 1984, et l'Ipod pour les lecteurs portables de musique quelques décennies plus tard. On pouvait pourtant être sceptique sur la capacité de la firme de Cuppertino à prendre pied dans un domaine où des poids lourds industriels - Nokia, Motorola, Mitsubishi- étaient installés depuis longtemps. Aujourd'hui, on apprend qu'Apple s'apprête à concevoir et produire ses propres puces afin d'avoir la maîtrise sur leurs adaptation au produit qui les contient. Kane, Yukari, et Don Clark. “In Major Shift, Apple Builds Its Own Team to Design Chips - WSJ.com.” Wall Street Journal, Avril 30, 2009. [->http://online.wsj.com/article/SB124104666426570729.html]. L'Iphone n'a pas réussi à s'imposer en étant meilleur que ses concurrents. Ni sur le plan technique (il ne brille gère par ses performances en matière de téléphonie), ni par son prix, très élevé. L'Iphone s'est bien plutôt imposé en changeant le concept même de téléphone portable, qui ne sert aujourd'hui plus seulement à parler de vive voix à ses correspondants, mais aussi, et parfois d'abord, à faire bien d'autres choses. On connaissait le SMS. Jean-Marc Manach, dans Internet Actu nous montre à quel point cette fonctionnalité joue un rôle important pour l'appropriation du téléphone portable dans les pays du sud. Manach, Jean-Marc. “Les pays pauvres réinventent le SMS, et l’avenir des mobiles | InternetActu.net.” Internet Actu, Mai 4, 2009. [->http://www.internetactu.net/2009/05/04/les-pays-pauvres-reinventent-le-sms-et-lavenir-des-mobiles/#]. On connait la fonction d'appareil photo ou de mini-caméra qui permet à tout un chacun d'immortaliser une scène dont il est témoin, à l'exemple de l'atterrissage catastrophe du Boeing d'US Airways dans l"Hudson au mois de janvier dernier. Les images prises sur le vif par des témoins anonymes avaient été instantanément diffusées sur un Internet via Twitter en particulier (et le service associé [Twitpic->http://twitpic.com/]). Ici, la connexion 3G dont bénéficient aujourd'hui un grand nombre de téléphones portables change la donne de l'usage de ces appareils. Lamont, Ian. “Plane lands on the Hudson, and Twitter documents it all.” Computerworld, Janvier 15, 2009. [->http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=9126181&intsrc=hm_list]. Et l'Iphone ne manque pas de bénéficier de ce type de connexion (outre une connexion wifi peu courante sur ce type de machine) pour inciter ses utilisateurs à s'en servir pour bien autre chose que téléphoner. Ils peuvent s'en servir pour lire par exemple. Des livres. C'est en effet la grande surprise de ces derniers mois : alors que le monde de l'édition ne bruissait que des e-book reader, ces tablettes électroniques reposant sur l'utilisation des technologies d'encre électronique - Cybook de Bookeen, Reader de Sony, Irex d'Iliad, voire Kindle d'Amazon, c'est en réalité l'Iphone qui a créé la surprise en se positionnant comme un excellent outil de lecture L'application [Stanza->http://www.lexcycle.com/] qui permet de transformer son téléphone en véritable tablette de lecture a joué un rôle important dans cette évolution. Si bien qu'aujourd'hui nous apprend le site Actualitté, le téléchargement d'e-books prend une part considérable parmi toutes les applications téléchargées dans l'App store d'Apple. Actualitté. “AppStore : La croissance des ebooks explose les autres applications.” Actualitté, Avril 20, 2009. [->http://www.actualitte.com/actualite/9796-ebook-application-appstore-croissance-telechargement.htm]. Mieux, une application permet désormais de lire sur son iphone les fichiers que l'on aura téléchargé pour son Kindle, signe de la capacité qu'a la petite machine de phagocyter éventuellement les écosystèmes développés par d'autres. Svensson, Peter. “TECH TEST: Kindle e-book reader for the iPhone.” The Daily News, Avril 11, 2009. [->http://www.thedailynewsonline.com/articles/2009/04/11/lifestyles/5376498.txt]. Nous ne sommes sans doute pas au bout de nos surprises, car en se dotant de moyens de capture de l'information comme un objectif photographique et une caméra, puis en ajoutant la connexion à Internet à la communication par voix, le téléphone a ajouté bien des possibilités d'usages nouveaux à ceux qu'on lui connaissait. Mais il ne fait pour l'instant pas grand chose d'une dimension pourtant évidente : celle de la localisation, que ce soit par rapport aux antennes-relais, ou, avec plus de précision, en enbarquant un système GPS. Un article du New York Times montre de manière très convaincante comment l'exploitation simultanée de toutes les fonctionnalités du téléphone avec la géoloalisation conduira celui-ci a être le vecteur de construction d'une "réalité augmentée" par laquelle l'utilisateur bénéficiera d'information supplémentaires sur son environnement physique immédiat. Markoff, John. “The Cellphone, Navigating Our Lives.” The New York Times, Février 17, 2009, sec. Science. [->http://www.nytimes.com/2009/02/17/science/17map.html]. La révolution promise du téléphone peut fasciner. Elle ne permet pas d'occulter les quelques revers de la médaille. D'abord, sur le plan sanitaire, l'utilisation permanente, partout et tout le temps de ces appareils multiplient les émissions d'onde dont on ne connaît pas exactement la nocivité. L'organisation en ce moment même d'un "Grenelle des ondes" en présence notamment de l'association Robins des toits manifeste clairement les limites éventuelles que l'on pourrait imposer à ce développement. Guerrier, Philippe. “Grenelle des ondes : les antennes-relais restent un sujet sensible.” Vnunet, Mai 19, 2009. [->http://www.vnunet.fr/news/grenelle_des_ondes_les_antennes_relais_restent_un_sujet_sensible-2030821]. Sur un tout autre plan, certains s'inquiètent - ont-ils tort ? - du développement de l'usage presque exclusif du téléphone portalbe pour accéder à Internet. Car si le téléphone permet de recevoir de l'information dans de bonnes conditions, il ne permet d'en émettre avec autant de facilité qu'un ordinateur équipé d'applications d'édition de contenus et d'une disposition matérielle plus confortable. Bref, ce qui est dénoncé, c'est clairement une évolution vers un Minitel 2.0, bien loin des principes "génératifs" pour reprendre le terme proposé par Jonathan Zittrain dans son ouvrage [The Future of Internet->http://futureoftheinternet.org/]. Manach, Jean-Marc. “Le web mobile sera-t-il plus qu’un Minitel amélioré ? | InternetActu.net.” Internet Actu, Mars 27, 2009. [->http://www.internetactu.net/2008/03/27/le-web-mobile-sera-t-il-plus-quun-minitel-ameliore/]. Si c'était le cas, la montée en puissance du téléphone comme objet communiquant multi-usages signifierait très clairement un changement significatif par rapport aux promesses que pouvaient présenter les réseaux de communication numériques il y a quelques années encore.
2009-05-19 15:20:59
Internet Actu
http://www.internetactu.net/2008/03/27/le-web-mobile-sera-t-il-plus-quun-minitel-ameliore/
Lors de son arrivée à la direction de la recherche de Sciences Po, le sociologue français Bruno Latour a souhaité mettre en place une structure innovante articulant recherche en sciences humaines et technologies numériques. Lui donner le nom de Médialab n’est pas anodin, puisqu’il reprend l’intitulé du [fameux Media lab->http://www.media.mit.edu/] développé aux Etats-Unis par Nicolas Negroponte au sein du MIT. Le programme d’activité des deux laboratoires est cependant assez différent, puisqu’au MIT, ce sont essentiellement les sciences de l’information (computer studies) et la communication qui sont concernées. Du côté de Sciences Po, les moyens mobilisés ne peuvent évidemment pas être de même niveau, mais surtout ils sont orientés différemment. La petite équipe rassemblée par Latour veut s’investir sur trois axes principaux : tout d’abord un renouvellement des méthodes quantitatives des sciences sociales, fondée notamment sur l’étude de la traçabilité des interactions sociales. Ainsi, le Médialab compte se lancer dans un travail de cartographie du cyberespace, en coopération notamment avec l'association [Webatlas->http://www.webatlas.fr/] qui développe le logiciel Navicrawler. Autre point important dans ce programme : l’évaluation de la recherche qui est très débattue en ce moment. Bruno Latour a joué un rôle non négligeable dans le développement en France des techniques scientométriques mobilisées par les questions d’évaluation. Il n’est donc pas étonnant de la retrouver ici aussi, avec la volonté implicite de déserrer l'étau dans lequel elle est aujourd'hui enfermée, pour ou contre Shangaï. C’est à un renouvellement des méthodes pédagogiques que le Médialab va enfin travailler, par l’utilisation des technologies de l’information et de la communication. C’est le cas en particulier des serious games, ces jeux de simulation qui permettent de développer de nouvelles méthodes pédagogiques, sur lesquels il lance un programme de recherche. Coïncidence ? La secrétaire d'Etat au développement de l'économie numérique, Nathalie Kosciusko-Morizet vient d'annoncer le [lancement d'un appel d'offre financé à hauteur de 30 millions d'euros sur ce sujet précis->http://www.premier-ministre.gouv.fr/chantiers/politique_numerique_1308/volet_numerique_plan_relance_63330.html], au titre du volet numérique du plan de relance. Après plusieurs mois de gestation, menés par sa chargée de mission Valérie Pihet, le Médialab est doc enfin lancé officiellement. A cette occasion, Sciences Po organise une semaine d'événéments entre le 25 et le 28 mai 2009. Et le programme est plutôt alléchant. En voici le détail : Lundi 25 mai _ 16:00 – 19:00 / médialab et Amphithéâtre Jean Moulin _ Des Mots, des Liens et des Acteurs : Ingénierie pour les Sciences Humaines à l'heure des réseaux _ Web Atlas - Association de recherche en Sciences des Réseaux/Paris Methods in Media _ Richard Rogers - Govcom.org - Foundation dedicated to creating and hosting political tools on the Web Mardi 26 Mai _ 19:15 – 21:00 / Amphitéâtre Jean Moulin _ Observing Networked Politics _ Yochai Benkler - Berkman Professor of Entrepreneurial Legal Studies-Harvard / Co-director of the Berkman Center for Internet and Society Mercredi 27 mai _ 17:00 – 19:00 / médialab _ Présentation des partenaires du médialab et des projets en cours Jeudi 28 mai _ 19:00 – 21:00 / Amphithéâtre Jean Moulin _ World Information City _ Konrad Becker - World-Information.org _ Future Cities _ Carlo Ratti - SENSEable City Laboratory – MIT L'ensemble des événements se déroule au 13, rue de l'Université, Paris 7ème
2009-05-21 00:00:46
Sciences Po
http://www.sciences-po.fr/recherche/news/communiques/medialab.htm
Google est une entreprise jeune. Elle est pourtant l'objet d'une longue série de publications visant à encenser, dénoncer, mieux comprendre quelquefois le succès foudroyant du célèbre moteur de recherche mondial. Dernier ajout sur la liste de cette déjà longue "googlographie", L'entonnoir vise à analyser le système Google du point de vue des <img2145|left>sciences de l'information et de la communication. Traditionnellement définie comme une "inter-discipline" plutôt que comme une discipline, l'"infocom" a cette particularité de permettre le développement d'analyses alliant plusieurs niveaux : technologiques, sémiotiques, et sociologiques. C'est en tout cas ainsi que se présente cet ouvrage collectif, et c'est ce qui en fait certainement la richesse. Car ce sont à la fois les technologies de traitement de l'information qui y sont analysées, et les usages de recherche d'information (en particulier dans les publics étudiants), mais aussi l'interface elle-même, sans oublier le "discours" produit par l'entreprise Google Inc. à destination de ses utilisateurs, salariés, actionnaires. Quant aux usages de recherche d'information en milieu étudiant, les deux chapitres qui y sont consacrés rappellent utilement que la maîtrise pratique des nouvelles technologies par les jeunes générations, dites "de l'Internet", ne s'accompagne pas de compétences informationnelles qui pourraient leur permettre à la fois de contextualiser, mais aussi de classer, qualifier ou affiner l'information retournée par les outils de recherche utilisés. Une partie centrale de l'ouvrage, très intéressante, interroge la notion de pertinence sur laquelle repose l'algorithme de classement qu'utilise Google. Intitulé "Pagerank : entre sérendipité et logiques marchandes", ce chapitre a le mérite de replacer ce fameux algorithme dans une histoire plus longue, qui trouve ses origines dans les travaux d'Eugene Garfield dans les années 60. Les liens qui unissent, dans les sciences de l'information, le développement de la scientométrie en particulier avec le Pagerank de Google sont propres à éveiller l'attention. De la même manière, le place centrale qu'occupe dans ces mêmes disciplines, et chez Google tout autant, la notion de sérendipité, ou l'art de trouver ce que l'on ne cherche pas, sont passionnants. Une dernière partie tente d'analyser, de manière moins convaincante, pensons-nous, le "discours" que la firme de Mountain View déploie autour de son activité. C'est évidemment le célèbre "don't be evil" qui fait ici l'objet d'analyses détaillées, mais aussi l'affirmation à vouloir organiser l'information mondiale, tout autant que d'autres éléments de la "philosophie en dix points" de Google. Il est un peu dommage qu'au cours de toute cette partie, on oublie passablement qu'une bonne part des déclarations prises sous la loupe de l'analyse relèvent quand même de l'argumentaire commercial, voire publicitaire, et qu'en tout état de cause, elles ne peuvent pas être prises au pied de la lettre - à moins de le faire aussi pour tous les discours publicitaires, et dans ce cas le monde devient effectivement très effrayant. Très utile et éclairant en ce qui concerne le moteur de recherche Google, l'ouvrage est un peu rapide, et c'est dommage, sur l'univers d'applications et de services qu'offre la firme à ses utilisateurs (courrier, calendrier, éditeur bureautique, plateforme de vidéos, réseau social, blogs, régie publicitaire, cartographie et photographie topographique, et ainsi de suite), en train de se construire par interrelations de plus en plus importantes, et qui fait que le moteur de recherche n'est plus qu'un élément parmi d'autres dans l'"univers Google". Si cet univers est finalement moins analysé que le moteur de recherche lui-même au coeur de l'ouvrage, il fait pourtant l'objet des deux textes qui ouvrent et terminent l'ouvrage ; a savoir d'une part la préface de l'éditeur, lui aussi enseignant-chercheur en sciences de l'information et de la communication, et d'autre part, la conclusion, sous la forme d'une courte fiction d'anticipation. Celle-ci, rédigé par le célèbre auteur de science-fiction, Corry Doctorow, et traduite en français pour l'occasion, présente un futur de cauchemar où toutes les informations personnelles accumulées par la firme du fait d'une utilisation globale et intensive sur tout un chacun est mis au service du gouvernement américain et de sa paranoia anti-terroriste. Tous suspects, sur la base des traces d'usages que nous laissons via nos requêtes de recherche d'information ou la publicité contextuelle qui accompagne nos messages électroniques, tel est le message de cette nouvelle intitulée Scroogled. Là peut-être réside un point de débat qui pourrait être ouvert avec les auteurs de cet ouvrage, qui se présente, par ces textes liminaires et conclusifs, comme un signal d'alarme sur les dangers que Google fait peser sur rien moins que la liberté d'expression, le respect de la vie privée, mais aussi, finalement, le pluralisme des représentations du monde. Or, la nouvelle de Doctorow est révélatrice : écrite en 2007, sous le second mandat de Georges Bush, elle peut autant être lue comme une dénonciation de la concentration de toutes nos informations personnelles entre les mains de Google, que comme une anticipation de ce que cette concentration peut entraîner lorsqu'elle est conjuguée à une politique intrusive, paranoïaque et mettant gravement en cause les droits de l'Homme, comme celle qu'a menée l'administration Bush, en particulier après le 11 septembre. Autrement dit : cette nouvelle dénonce-t-elle vraiment le pouvoir de Google ? ou tout autant celui d'un état policier, qui peut effectivement voir en Google une base de données particulièrement utile à ses agissements ? La question est importante, parce que de sa réponse dépend évidemment l'orientation de l'action destinée à écarter ces dangers. B. Simonnot et G. Gallezot (dirs.) L'entonnoir. Google sous la loupe des sciences de l'information et de la communication. c&f éditions. Caen. 2009
2009-06-14 15:01:04
L'entonnoir
http://cfeditions.com/entonnoir/
Forum de la SGDL : La Révolution numérique de l'auteur Mardi 20 octobre 2009 10h00 Ouverture du Forum Alain Absire, Président de la SGDL 10h30 - 12h30 L'auteur face à de nouveaux éditeurs - Virginie Clayssen, Editis (www.editis.com) - Véronique Girard, éditrice Smartnovel (www.smartnovel.com/accueil.php) - Marie Desplechin, écrivain - Jean-Christophe Delpierre, Médiatoon, (http://mid.mediatoon.com) Modéré par Hervé Hugueny (Livres Hebdo www.livreshebdo.fr/) 14h30 - 16h00 L'auteur face à de nouveaux schémas économiques - François Gèze, La Découverte (http://www.editionsladecouverte.fr/) - Fabrice Rochelandet, maître de conférence en économie à l'université Paris Sud (www.dailymotion.com/video/x9ol8z_eeconomie-des-multimedias-fabrice-r_news) - Xavier Cazin , Immatériel (www.immateriel.fr/fr/statique/accueil) - Hervé Hamon, auteur (www.hervehamon.fr ) Modéré par Olivier Postel-Vinay/Books (www.booksmag.fr/) 16h15 Dialogue - Nathalie Kosciusko-Morizet, Secrétaire d'Etat chargée de la Prospective et du Développement de l'économie numérique et Alain Absire Mercredi 21 octobre 10h00 - 11h30 Figures de l'auteur à l'ère du numérique Entretien Milad Doueihi, historien de l'Occident moderne, philosophe (www.miladus.org/wp) et Pierre Mounier, Responsable du Pôle Formation et usages, Cleo (http://cleo.cnrs.fr/) 11h30 - 13h00 L'auteur face à la mémoire des œuvres - Jean Claude Bologne, écrivain, (http://pagesperso-orange.fr/jean-claude.bologne) - Adrienne Cazenobe, conservateur des bibliothèques, responsable de formation à Mediadix (http://mediadix.u-paris10.fr/) - Alban Cerisier, Responsable du patrimoine historique et du développement numérique, Gallimard (www.gallimard.fr) - Denis Maréchal, INA (http://www.ina.fr/) Modéré par Joël Faucilhon, responsable de lekti-ecriture http://www.lekti-ecriture.com/ 14h30 - 17h00 Les enjeux de la diffusion et distribution, l'avenir du livre de qualité - Philippe Colombet, directeur stratégie et développement, Google (http://www.google.fr/) - Marie-Pierre Sangouard, Directrice du Livre, FNAC (www.fnac.com) - Thierry Pech, Le Seuil (http://www.seuil.com/) - Stéphane Michalon, e-pagine (www.epagine.fr/quisommesnous.php) - Charles Kermarec, Librairie Dialogue (www.librairiedialogues.fr/) - François Maillot, Librairie La Procure (www.laprocure.com/) Modéré par Alain Absire, président de la SGDL (www.sgdl.org) 17h15 Clôture du forum Frédéric Mitterrand Ministre de la Culture et de la Communication Renseignements - Réservation : communication@sgdl.org - Tel : 01 53 10 12 15
2009-10-20 00:48:39
Forum de la SGDL
http://www.sgdl.org/toutes-les-actualites/383
Lors de ses vœux aux acteurs de la Culture, le Président de la République a déclaré vouloir adopter une attitude offensive contre le géant de l'Internet, Google. Suivant les recommandations de la commission Zelnik[[1]->#_ftn1], il souhaite donc taxer de manière particulière les revenus publicitaires que la société engrange grâce aux clics que les internautes français effectuent sur les « liens sponsorisés ».Cette idée de taxation est justifiée, dans le discours présidentiel, et dans le rapport qui lui en a fourni l'idée, par le déséquilibre de la répartition des revenus publicitaires entre les producteurs de contenus - les industries culturelles - et Google qui détient une position dominante sur ce secteur d'activité. Alors que les premières voient leur taux de profitabilité baisser dangereusement - c'est vrai de la musique enregistrée et de la presse en particulier -, Google connaît une insolente bonne santé économique, même en période de crise. On comprend dès lors qu'un certain nombre de publications de presse aient accueilli très favorablement cette proposition dont ils espèrent tirer quelque bouffée d'oxygène[[2]->#_ftn2]. L'idée d'une « taxe Google » s'inscrit dans une double suite d'événements : - une série relativement courte qui commence sous la présidence de Jacques Chirac avec le cri d'alarme lancé en 2005 par Jean-Noël Jeanneney contre le programme de numérisation de livres Google books[[3]->#_ftn3]. Alors directeur de la BNF, Jeanneney obtint dans la foulée un budget conséquent pour développer au niveau national son propre programme de numérisation - [Gallica->http://gallica.bnf.fr/] -, et proposer aux différents pays européens de s'allier pour valoriser leur patrimoine numérique via un portail commun : [Europeana->http://www.europeana.eu/portal/]. La stratégie consistait alors à concurrencer Google sur son propre terrain. Si Gallica est une incontestable réussite, sa dimension purement nationale n'en fait pas un concurrent sérieux pour Google. Europeana est de son côté un échec sur la plupart des plans. L'initiative n'a en tout cas jamais atteint son but : remettre en cause la domination sans partage de l'américain. Plusieurs années après, le bilan est moins que mitigé : de grandes bibliothèques françaises, comme la bibliothèque municipale de Lyon signent un contrat avec Google pour numériser leurs collections. Comble du paradoxe : la BNF elle-même, désormais dirigée par Bruno Racine s'apprête à prendre le même chemin jusqu'à ce que le Ministre de la Culture la stoppe temporairement. Le rapport Tessier, récemment paru, et qui porte sur cette question précise, tire les conclusions de la situation actuelle : la participation de Google à la numérisation des collections patrimoniales françaises est bien inévitable. Le véritable enjeu est d'en négocier les conditions[[4]->#_ftn4]. Dans la même période, d'autres acteurs culturels de premier plan passent à l'offensive : la maison d'édition Le Seuil en particulier attaque Google devant les tribunaux, toujours sur son programme de numérisation de livres, pour violation du droit de propriété intellectuelle, et gagne en première instance[[5]->#_ftn5], déclenchant les applaudissements à la fois du syndicat des éditeurs, et des représentants des auteurs. Du côté de la presse en ligne, qui souffre en effet des faibles rémunérations qu'elle tire de la publicité, c'est plutôt du côté des subventions qu'elle va chercher des remèdes à sa situation, en obtenant à la suite des Etats Généraux de la Presse, 60 millions d'euros sur 3 ans pour développer de nouveaux projets de développement[[6]->#_ftn6]. Après le piratage pour la musique et le cinéma, Google est donc désigné comme responsable des pertes économiques que subissent les secteurs du livre et de la presse. Porteur d'un modèle d'accès gratuit à l'information, il tuerait du même coup des acteurs dont le métier consiste au contraire à vendre l'information[[7]->#_ftn7]. Pour intéressant qu'il soit, ce raisonnement a le défaut d'attribuer au comportement d'un seul acteur, même dominant, ce qui relève plutôt du mode de fonctionnement de l'écosystème dans lequel il s'insère. De ce point de vue, les stratégies défensives déployées par les différents acteurs : numérisation concurrente (Gallica), procès (Seuil), subventions (presse) et taxe (politiques) semblent relativement vaines pour une raison simple : elles prétendent agir sur un secteur particulier, à un niveau déterminé, et de toutes façons, elles ne peuvent intervenir que dans les limites d'un territoire national. Google, et aussi l'écosystème dont il tire profit se situe à un tout autre niveau : l'entreprise se définit comme une industrie de traitement de l'information dans sa globalité à l'échelle de la planète. Sa force réside justement dans sa capacité à retrouver l'information pertinente de manière transversale à tous les types documentaires possibles : livres, presse, blogs, mails, groupes de discussion, données de toutes natures, géolocalisées et bien sûr commerciales. Les batailles menées par les uns et les autres peuvent donc être gagnées localement, elles ont peu de chance, même cumulées de changer une situation globale où Google n'a pas de véritable concurrent. Ayant sans doute compris avant tout le monde le mode de fonctionnement de l'ère informationnelle dans laquelle nous sommes en train d'entrer, Google apparaît comme une entreprise mutante, particulièrement bien adaptée à son milieu, et donc dotée d'une force d'autant plus importante. Le discours des acteurs politiques et économiques français est celui de la résistance nationale. Ils réactivent là un schéma traditionnel à notre pays où l'on attribue volontiers des pouvoirs magiques à la pure expression de la volonté politique. Il est des circonstances où la volonté peut effectivement jouer un rôle et changer une situation. Faut-il encore qu'elle s'appuie sur une compréhension fine de cette situation et oriente l'action dans un sens qui lui donne des chances d'être efficace. Est-ce le cas en France ? Certains tirent la sonnette d'alarme à propos de la multiplication de discours relativement technophobes et radicalement critiques à l'égard d'Internet[[8]->#_ftn8]. C'est un phénomène ancien et durable parmi les élites françaises. A la fin des années 90, Françoise Giroud définissait avec mépris Internet comme « un danger public puisqu'ouvert à n'importe qui pour dire n'importe quoi ». Aujourd'hui, Alain Finklekraut fustige le modèle d'horizontalité dont il est porteur[[9]->#_ftn9]. Plus récemment, Robert Redeker dénonce le narcissisme vain que manifestent des phénomènes comme Facebook[[10]->#_ftn10]. L'Internet comme « tout-à-l'égout de la démocratie »[[11]->#_ftn11], comme « la plus grande saloperie qu’aient jamais inventée les hommes »[[12]->#_ftn12] ; voilà quelques formules bien senties qui manifestent une abhorration bien partagée dans certains milieux. On a déjà eu l'occasion de le montrer : les plus récentes lois de « régulation » des usages de l'Internet qui ont été adoptées en France, manifestent en réalité une volonté de revanche des industries culturelles contre les industries de l'Internet : fournisseurs d'accès et Google donc qui sont sommés de rendre gorge pour leurs insolents bénéfices[[13]->#_ftn13]. La très étonnante idée de taxation des fournisseurs d'accès à Internet pour financer la télévision publique va dans le même sens[[14]->#_ftn14]. Tous ces éléments mis ensemble manifestent l'angoisse presque désespérée avec laquelle les acteurs de la Culture en France accueillent la révolution numérique. Son extension progressive à chacun des secteurs concernés a été vécue comme une montée progressive des périls. Elle touche aujourd'hui le dernier bastion, le cœur sacré du temple culturel : le livre et cela n'est pas sans importance pour expliquer la violence des réactions actuelles qui, de l'indifférence et du mépris semblent évoluer maintenant vers la haine. Notes [[1]->#_ftnref1] Zelnik Patrick et Toubon Jacques, 2010, Création et Internet, Paris, Ministère de la Culture. Adresse : [http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Remise-du-rapport-de-la-mission-creation-et-internet->http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Remise-du-rapport-de-la-mission-creation-et-internet]. [[2]->#_ftnref2] aKa, 2010, « Le Monde et Libé main dans la main pour nous pondre des éditos serviles et crétins », Framablog. Adresse : [http://www.framablog.org/index.php/post/2010/01/10/le-monde-liberation-taxe-google-rapport-zelnik->http://www.framablog.org/index.php/post/2010/01/10/le-monde-liberation-taxe-google-rapport-zelnik] [Accédé : 16 Janvier 2010]. [[3]->#_ftnref3] Jeanneney Jean-Noël, 2005, Quand Google défie l'Europe : Plaidoyer pour un sursaut, Mille et une nuits. [[4]->#_ftnref4] Tessier Marc, 2010, Rapport sur la numérisation du patrimoine écrit, Paris, Ministère de la Culture. Adresse : [http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Mission-sur-la-numerisation-du-patrimoine-ecrit/Rapport-Tessier->http://www.culture.gouv.fr/mcc/Actualites/A-la-une/Mission-sur-la-numerisation-du-patrimoine-ecrit/Rapport-Tessier]. [[5]->#_ftnref5] Numérisation des livres : Google condamné pour contrefaçon, Zdnet.fr. Adresse : [http://www.zdnet.fr/actualites/internet/0,39020774,39711685,00.htm->http://www.zdnet.fr/actualites/internet/0,39020774,39711685,00.htm] [Accédé : 16 Janvier 2010]. [[6]->#_ftnref6] Roussel Frédérique, 2010, « La presse en ligne de crédit », Ecrans. Adresse : [http://www.ecrans.fr/La-presse-en-ligne-de-credit,8866.html->http://www.ecrans.fr/La-presse-en-ligne-de-credit,8866.html] [Accédé : 16 Janvier 2010]. [[7]->#_ftnref7] Thompson Chris, 2010, « Comment Google a pris le pouvoir », Slate.fr. Adresse : [http://www.slate.fr/story/15407/google-pouvoir-decennie-culture-ravages->http://www.slate.fr/story/15407/google-pouvoir-decennie-culture-ravages] [Accédé : 16 Janvier 2010]. [[8]->#_ftnref8] Epelboin Fabrice, 2009, « Aux Etats-Unis, Internet est perçu comme un bienfait pour la société | ReadWriteWeb France », ReadWriteWeb France. Adresse : [http://fr.readwriteweb.com/2009/12/28/analyse/aux-etatsunis-internet-->http://fr.readwriteweb.com/2009/12/28/analyse/aux-etatsunis-internet-est-peru-comme-bienfait-socit/][est-peru-comme-bienfait-socit/->http://fr.readwriteweb.com/2009/12/28/analyse/aux-etatsunis-internet-est-peru-comme-bienfait-socit/] [Accédé : 16 Janvier 2010]. [[9]->#_ftnref9] Chieze et Quioc, 2009, Alain Finkielkraut: «Internet, c'est n'importe quoi» - Libération, Paris. Adresse : [http://www.liberation.fr/medias/06011245-alain-finkielkraut-internet-c-est-n-importe-quoi->http://www.liberation.fr/medias/06011245-alain-finkielkraut-internet-c-est-n-importe-quoi] [Accédé : 16 Janvier 2010]. [[10]->#_ftnref10] Redeker Robert, 2010, « Facebook, narcissisme et exhibitionnisme », Médias, vol. , n° 23. Adresse : [http://www.revue-medias.com/facebook-narcissisme-et,594.html->http://www.revue-medias.com/facebook-narcissisme-et,594.html] [Accédé : 16 Janvier 2010]. [[11]->#_ftnref11] Dailymotion - Olivennes: Internet, « le tout-à-l'égout de la démocratie » - une vidéo Actu et Politique, 2009, Université d'été du MEDEF. Adresse : [http://www.dailymotion.com/video/xadssk_olivennes-internet-le-toutalegout-d_news->http://www.dailymotion.com/video/xadssk_olivennes-internet-le-toutalegout-d_news] [Accédé : 16 Janvier 2010]. [[12]->#_ftnref12] Séguéla : « Le Net est la plus grande saloperie qu'aient jamais inventée les hommes » | Rue89, 2009, Adresse : [http://www.rue89.com/2009/10/19/seguela-le-net-est-la-plus-grande-saloperie-quaient-jamais-inventee-les-hommes-122414?page=3->http://www.rue89.com/2009/10/19/seguela-le-net-est-la-plus-grande-saloperie-quaient-jamais-inventee-les-hommes-122414?page=3] [Accédé : 16 Janvier 2010]. [[13]->#_ftnref13] Piotrr, 2009, « Hadopi, et après ? », Homo Numericus. Adresse : [http://homo-numericus.net/spip.php?article287->http://homo-numericus.net/spip.php?article287] [Accédé : 16 Janvier 2010]. [[14]->#_ftnref14] Les fournisseurs d'accès Internet taxés pour financer France Télévisions, 2008, 20minutes.fr. Adresse : [http://www.20minutes.fr/article/281942/Television-Les-fournisseurs-d-acces-Internet-taxes-pour-financer-France-Televisions.php->http://www.20minutes.fr/article/281942/Television-Les-fournisseurs-d-acces-Internet-taxes-pour-financer-France-Televisions.php] [Accédé : 16 Janvier 2010].
2010-01-16 13:52:51
Beaucoup de publications au cours des dernières semaines ont traité de la question de la protection de la vie privée sur Internet. Jean-Marc Manach écrivait cette semaine dans un billet de son blog, que deux articles récemment publiés sur le site du Monde avait été parmi [les plus téléchargés et signalés par les lecteurs->http://bugbrother.blog.lemonde.fr/2010/01/11/les-petits-cons-parlent-aux-vieux-cons-la-version-courte/] à leurs correspondants de tout le site[[Manach, Jean-Marc. “Les “petits cons” parlent aux “vieux cons” (la version courte).” Bug Brother. [http://bugbrother.blog.lemonde.fr/2010/01/11/les-petits-cons-parlent-aux-vieux-cons-la-version-courte/->http://bugbrother.blog.lemonde.fr/2010/01/11/les-petits-cons-parlent-aux-vieux-cons-la-version-courte/].]]. Autant de signes qui indiquent une réelle inquiétude sur cette question. Il faut dire que les dirigeants des deux plus importantes sociétés de traitement de l'information sur Internet, Mark Zuckerberg pour le réseau social Facebook, et Eric Schmidt pour le moteur de recherche Google ont récemment jeté de l'huile sur le feu avec des déclarations qui ont provoqué un certain émoi. Eric Schmidt tout d'abord, est le directeur d'une entreprise, Google, qui collecte en permanence une quantité considérable d'information sur chacune de nos actions sur Internet. Elle accumule aussi beaucoup d'informations sur le monde physique avec ses deux services complémentaires Google maps et Google Street view. Récemment Eric Schmidt, interrogé sur les dangers que font peser actuellement des entreprises comme la sienne sur la vie privé répondit avec légèreté que cette question ne concernait que les criminels, [puisqu'ils sont les seuls à avoir quelque chose à cacher->http://www.cnbc.com/id/15840232?video=1372176413&play=1][[“Google’s Privacy.” Inside the mind of Google. CNBC, 2010. [http://www.cnbc.com/id/15840232?video=1372176413&play=1->http://www.cnbc.com/id/15840232?video=1372176413&play=1].]]. Mark Zuckerberg, fondateur et dirigeant de Facebook fut interrogé de son côté alors que sa société venait de décider de rendre publiques par défaut les informations diffusées par ses utilisateurs sur la plateforme. Il déclara que ce changement de politique a[ccompagnait simplement une évolution des mœurs sur cette question->http://www.ustream.tv/recorded/3848950][[Mike Arrington interrogates Mark Zuckerberg, Mike Arrington interrogates Mark Zuckerberg techcrunch on USTREAM. The Web. Ustream, 2010. [http://www.ustream.tv/recorded/3848950->http://www.ustream.tv/recorded/3848950].]]. Dirigeant une plateforme de réseau social en majorité peuplée de gens de moins de trente ans, Zuckerberg renvoie implicitement par cette déclaration à l'idée selon laquelle les générations les plus jeunes n'ont pas la même conception de la vie privée que leurs aînés. Une série d'études publiées récemment ont permis à ces derniers de découvrir – avec effarement parfois -, que la plupart des jeunes, nés avec Internet ne voyaient pas de problème particulier à dévoiler sur le réseau les détails les plus personnels et parfois les plus intimes de leur vie privée. C'est évidemment autour de la sexualité que le conflit de génération est le plus évident. [La pratique du « sexting » fait ainsi débat->http://www.pewinternet.org/Reports/2009/Teens-and-Sexting.aspx][[Lenhart, Amanda. Teens and Sexting. Pew Internet & american life Project, Décembre 15, 2009. [http://www.pewinternet.org/Reports/2009/Teens-and-Sexting.aspx->http://www.pewinternet.org/Reports/2009/Teens-and-Sexting.aspx].]]. Jean-Marc Manach fait ainsi apparaître que pour cette génération, les questions de protection de la vie privée ne sont pas loin de pouvoir être défini comme [« un problème de vieux con »->http://www.internetactu.net/2009/03/12/la-vie-privee-un-probleme-de-vieux-cons/][[Manach, Jean-Marc. “La vie privée, un problème de vieux cons ?.” InternetActu.net, Mars 12, 2009. [http://www.internetactu.net/2009/03/12/la-vie-privee-un-probleme-de-vieux-cons/->http://www.internetactu.net/2009/03/12/la-vie-privee-un-probleme-de-vieux-cons/].]]. A l'inverse, certains renvoient les pratiques des jeunes au pires travers de la société du spectacle et aux pires dérives de la télé-réalité. En gros, résume Manach, aux yeux des plus anciens, [ces jeunes se ->http://www.internetactu.net/2010/01/04/vie-privee-le-point-de-vue-des-petits-cons/][comportent comme des « petits cons »->http://www.internetactu.net/2010/01/04/vie-privee-le-point-de-vue-des-petits-cons/][[Manach, Jean-marc. “Vie privée : le point de vue des “petits cons”.” InternetActu.net, Janvier 4, 2010. [http://www.internetactu.net/2010/01/04/vie-privee-le-point-de-vue-des-petits-cons/->http://www.internetactu.net/2010/01/04/vie-privee-le-point-de-vue-des-petits-cons/].]]. Tout ceci fait penser à un célèbre chanson de Georges Brassens. Au delà pourtant, ces nouvelles publications nous permettent de découvrir que le souci de la vie privée n'est pas unanimement partagé comme on pouvait le croire. Les normes en la matière ne sont pas fixées ; elles sont fluctuantes entre les époques, les cultures, ce qu'on savait déjà, mais à l'intérieur même d'une société, entre les générations aussi. Cette question ne peut dès lors plus être traitée en bloc, sur le mode du tout ou rien, mais doit faire l'objet d'analyses articulée et détaillées. Cette évolution rend du coup d'autant plus indispensable le travail de sociologues spécialisé sur les nouvelles technologies comme [Danah Boyd->http://www.danah.org/papers/TakenOutOfContext.pdf][[Boyd, Danah. “Taken out of Context, American Teen Sociality in Networked Publics.” UC Berkeley, 2008. [http://www.danah.org/papers/TakenOutOfContext.pdf->http://www.danah.org/papers/TakenOutOfContext.pdf]. ]] ou Shirley Turkle[[Turkle, Sherry. The Second Self: Computers and the Human Spirit, The MIT Press, 2005. ]]. D'ailleurs, cette question de la vie privée est bien loin de se résumer à la simple exposition de détails intimes sur Internet. C'est tout le mérite d'[une série de billets publiés par Andy Oram sur le blog de l'éditeur O'Reilly->http://radar.oreilly.com/2009/12/online-identity1.html], que d'en déployer tous les aspects[[Oram, Andy. “Being online: identity, anonymity, and all things in between.” O'Reilly Radar, Décembre 17, 2009. [http://radar.oreilly.com/2009/12/online-identity1.html->http://radar.oreilly.com/2009/12/online-identity1.html].]]. Tout d'abord, elle est liée à la question de le construction de l'identité et de la présentation de soi dans les espaces cybernétiques. Elle se retrouve pourtant aussi au cœur des systèmes de surveillance que les Etats mettent en place sur leurs populations, en particulier depuis le 11 septembre 2001. Oram ne manque pas de faire remarquer à ce propos que les États européens en particulier qui imposent aux sociétés privées des règles très restrictives pour limiter la collecte de données personnelles sont en pleine contradiction lorsqu'ils collectent eux-mêmes de nombreuses données à des fins de sécurité ou contraignent les intermédiaires techniques à conserver des données pendant des durées relativement longues. Autre aspect concerné, la collecte de données par des sociétés à des fins commerciales. Oram rappelle que cette collecte [correspond en fait à deux objectifs très différents->http://radar.oreilly.com/2009/12/online-identity4.html] : la constitution de profils individuels d'un côté, permettant de délivrer des publicités personnalisées en particulier, l'agrégation de données permettant de construire des populations différenciées selon des comportement distincts de l'autre[[Oram, Andy. “Being online: Your identity to advertisers--it's not all about you.” O'Reilly Radar, Décembre 22, 2009. [http://radar.oreilly.com/2009/12/online-identity4.html->http://radar.oreilly.com/2009/12/online-identity4.html].]]. Sur ce dernier aspect, on déborde donc de la pure dimension individuelle et on aborde l'espace public : en collectant et agrégeant des masses importantes d'information, les entreprises commerciales construisent une représentation du corps social qui a un effet non négligeable sur celui-ci (offres différenciés, segmentation de marché). Abordée très souvent sous l'angle exclusif de la protection individuelle de la vie privée, cette question des données personnelles bascule donc en fait du côté du politique. L'affaiblissement ou la remise en cause de la notion de vie privée est sans doute très critiquable, mais elle a le mérite de faire apparaître quelques insuffisances critiques de notre mode d'organisation sociale. Ainsi, Jean-Marc Manach fait-il remarquer à juste titre que si les adolescents ont une conception différente de la vie privée, c'est sans doute aussi parce qu'ils ont intégré le mode de fonctionnement d'une société placée sous surveillance constante : caméras de surveillance plantées à tous les coins de rue, logs de connexion retenus pendant un an, traçage des achats effectués au moyen des cartes magasins, suivi des parcours au moyen des carte d'abonnement « sans contact » des transports en commun. Dans un tel contexte, la notion de vie privée prend une tournure purement défensive. Constamment rognée sur ses marges, elle se rabougrit comme peau de chagrin et surtout, les efforts que tout un chacun déploie pour la préserver a toutes les chances de le conduire à déserter encore un peu plus un espace public surveillé et sous contrôle. Souvent accusés d'accroître les dangers qui pèsent sur la vie privée, le Réseau peut pourtant au contraire être considéré comme un outil de « [démocratisation de la vie privée->http://www.internetactu.net/2010/01/18/une-democratisation-de-la-vie-privee/] », selon l'expression du même auteur[[Manach, Jean-Marc. “Une démocratisation de la vie privée ?.” InternetActu.net, Janvier 18, 2010. [http://www.internetactu.net/2010/01/18/une-democratisation-de-la-vie-privee/->http://www.internetactu.net/2010/01/18/une-democratisation-de-la-vie-privee/].]]. C'est lui en particulier qui permet de rester en constamment en contact avec ses proches dans tous les lieux publics, que ce soit sur le lieu de travail, à l'école ou à l'hôpital. Il constitue dès lors un moyen de résistance à l'assujettissement que les pouvoirs de l'État ou de l'entreprise exercent sur les individus dans les lieux qu'ils contrôlent. Il est dès lors possible d'avancer que les comportements très différents de ceux de leurs aînés que les jeunes génération adoptent progressivement peuvent être vus comme le premier pas d'une reconquête d'un espace public qui a progressivement été abandonné. On sait bien qu'historiquement, la construction d'un espace public démocratique s'est appuyé sur l'émergence de la notion de vie privée qui permet à l'individu de définir une liberté fondamentale à partir de laquelle il va pouvoir agir sur celui-ci. Il reste cependant qu'une conception sacralisée de la vie privée, conduisant à son hypertrophie en valeur sinon en fait, ne peut avoir pour conséquence que le retrait permanent des citoyens de la vie publique. Tout à la préoccupation de protéger leur vie privée, ceux-ci délaissent le bien commun et les espaces partagés par l'ensemble de la société. Et ces espaces sont alors soumis à des forces hétéronomes qui les gouvernent par la force et l'arbitraire. L'affaiblissement que nous constatons de la cloison étanche entre espace public et vie privée est certes lourde de menaces : la transparence totale de l'individu jusque dans son intimité est une menace d'aliénation absolue qui fait froid dans le dos. Elle est pourtant aussi porteuse d'espoir, les utilisateurs du réseau qui construisent des espaces publics qui leur sont propres, des réseaux autonomes de pair à pair, et qui les peuplent de leur subjectivité nous montrent sans doute qu'une reconquête est possible, qu'un réinvestissement citoyen de l'espace public, qu'il soit virtuel ou physique, est possible, mais que cette reconquête doit sans doute être payée par une mise en commun et une ouverture des subjectivités, des affects et même des corps dans ces espaces. En un mot, ils nous montrent qu'il est finalement nécessaire de surmonter ses propres pudeurs, de nourrir ses actes publics de sa propre subjectivité pour reprendre pied et reprendre le contrôle d'une société qui sans cela risque d'être gouverné par des pouvoirs désincarnés, c'est à dire mortels. Une récente évolution du débat a mis en évidence l'apparition de la notion de « sousveillance » aux côtés de celle de « surveillance »[[Ganascia, Jean-Gabriel. Voir et pouvoir : qui nous surveille ? Editions le Pommier, 2009. ]]. L'idée implicite qui accompagne ces développements est que l'une n'est pas moins effrayante que l'autre ; que les « littles sisters » qui s'épient mutuellement, de pair à pair, ne représentent pas moins de danger que le « big brother » qui nous surveille d'en haut de son dispositif panoptique. La question mérite d'être posée sérieusement car les deux dispositifs ont pourtant des implications politiques très différentes. On peut évidemment souhaiter échapper à l'un et à l'autre. Mais est-ce possible ?
2010-01-27 01:37:12
Quelques mois après les Etats-Unis, la France a vu arriver cette semaine en même temps que d’autres pays d’Europe et d’Asie la dernière invention d’Apple : l’iPad. [De quoi s’agit-il ?->http://www.01net.com/fiche-produit/prise-main-7468/smartphones-apple-ipad-32-go-wi-fi/][[Yves Guittard, «Test de l'iPad d'Apple dans sa version 32 Go, Wi-Fi et US,» 01net, Avril 3, 2010, http://www.01net.com/fiche-produit/prise-main-7468/smartphones-apple-ipad-32-go-wi-fi/.]] D’une tablette multi-usages grand format qui ressemble beaucoup à l’iPhone par bien des aspects, la taille en plus et les fonctions de téléphonie en moins. Comme l’iPhone donc, ce nouveau support bénéficie d’un écran tactile rétro-éclairé et en couleur. Contrairement aux «liseuses» ou tablettes de lecture classiques, l’iPad ne fonctionne donc pas sur la base de papier électronique. Il est équipé d’une connexion wifi dans sa version de base, et wifi et 3G pour un prix plus élevé. Du côté fonctionnalités, il permet de surfer sur le web grâce à son navigateur Safari, de relever son courrier électronique et de regarder des vidéos. Ce ne sont pourtant pas ces fonctionnalités qui sont à la source de la plupart des commentaires, discussions, et finalement émotions autour du nouvel objet. C’est plutôt sa capacité à être étroitement relié à des boutiques de vente en ligne d’application (AppStore), de livres (iBookstore) et de contenus multimédias (iTunes). Les secteurs de la presse et de l’édition de livres en particulier ont rapidement identifié l’outil comme [une véritable planche de salut->http://www.lemonde.fr/technologies/article/2010/05/16/l-ipad-planche-de-salut-pour-gutenberg_1351489_651865.html][[Frédéric Filloux, «L'iPad, planche de salut pour Gutenberg - LeMonde.fr,» Le Monde.fr, sans date, http://www.lemonde.fr/technologies/article/2010/05/16/l-ipad-planche-de-salut-pour-gutenberg_1351489_651865.html#xtor=RSS-3208.]], comme le moyen par lequel ils allaient pouvoir sortir de la morosité économique qui les caractérise de plus en plus. Plus profondément, c’est la possibilité pour ces acteurs de perpétuer un modèle économique traditionnel dans le nouvel environnement numérique qui est le catalyseur de toutes les attentions que suscite l’iPad. [La presse s’est jeté sur ce nouveau support->http://www.google.com/hostednews/afp/article/ALeqM5iq3HHDJ1nhw5uqK9Fzzd3UrFfT1A] avec la conviction du désespoir[[AFP, «L'iPad très courtisé par la presse,» Google News, sans date, http://www.google.com/hostednews/afp/article/ALeqM5iq3HHDJ1nhw5uqK9Fzzd3UrFfT1A.]]. Car jeté plus que tout autre dans le tourbillon de la révolution du web grand public depuis plus de quinze ans, ce secteur a dû expérimenter à peu près tous les modèles économiques possibles : du payant au gratuit, puis du gratuit au payant, avec des barrières mobiles classiques ou inversées, expérimentant le «freemium», la diversification des revenus et surtout le laminoir des revenus publicitaires à rendements décroissants, la presse en arrive aujourd’hui à la conclusion un peu désespérante qu’elle n’arrive pas au bout du compte à tirer des profits suffisants du nouveau monde numérique. De ce point de vue, l’accueil fait par la presse française à ce qui n’est finalement qu’un objet électronique est tout à fait étonnant : on ne compte plus les articles dithyrambiques, les dossiers spéciaux, les éditoriaux exaltés. Les [éditeurs de livres restent manifestement plus méfiants->http://www.google.com/hostednews/afp/article/ALeqM5hHTDp7ME2BvTVlHkJS-6c0oxfqrw.] : seuls Hachette, Albin Michel et Eyrolles ont pour l’instant franchi le pas et accepté de mettre à disposition une partie de leur catalogue sur l’iBookstore[[Myriam Chaplain-Riou, «Des éditeurs français, à l'assaut de l'iPad, signent avec Apple,» Google News, Mai 29, 2010, http://www.google.com/hostednews/afp/article/ALeqM5hHTDp7ME2BvTVlHkJS-6c0oxfqrw.]]. Les autres devraient suivre à plus ou moins longue échéance, mais des manifestations d’opposition ont déjà été exprimées. Le plus remarquable, celle d’Antoine Gallimard, conduit sa maison a proposer plutôt une application branchée sur sa plateforme de distribution numérique, Eden livres, par l’intermédiaire de laquelle, les ouvrages seront vendus. Trois éléments expliquent une telle prise de position : - il s’agit d’abord de la maîtrise du prix de vente du livre. Apple ne laisse pas les éditeurs fixer librement les prix dans son Bookstore mais exerce des contraintes qui ne sont pas difficiles à admettre pour un secteur qui a toujours eu l’habitude contraire, surtout grâce à la loi sur le prix unique du livre. - le deuxième élément est le stockage du fichier numérique sur les serveurs d’Apple qui en assure du coup toute la gestion. Cette option a [toujours été refusée jusqu’à présent->http://aldus2006.typepad.fr/mon_weblog/2010/05/hachette-le-itunes-du-livre-est-parti.html] par les éditeurs français aux plateformes de distribution numériques qu’ils ne maîtrisent pas[[«Hachette: le iTunes du livre est parti! - Aldus - depuis 2006,» sans date, http://aldus2006.typepad.fr/mon_weblog/2010/05/hachette-le-itunes-du-livre-est-parti.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+typepad%2FOEkF+%28Aldus+-+2006%29&utm_content=Google+Reader.]]. - Enfin, [Antoine Gallimard évoque explicitement le risque de "monopole"->http://www.ebouquin.fr/2010/05/26/gallimard-boycotte-libookstore-et-fera-cavalier-seul-sur-lipad/] d’Apple sur le secteur du livre[[Clément m., «Gallimard boycotte l’iBookstore et fera cavalier seul sur l’iPad,» ebouquin.fr, Mai 26, 2010, http://www.ebouquin.fr/2010/05/26/gallimard-boycotte-libookstore-et-fera-cavalier-seul-sur-lipad/.]]. Monopole : le terme est un peu fort car il existe en réalité des alternatives. Il faut plutôt voir dans cet argument le risque que représente une concentration verticale entre la plateforme de distribution et le fabricant de la machine elle-même susceptible de créer un effet de verrouillage inquiétant pour les éditeurs. Malgré les résistances et les inquiétudes, l’arrivée de l’iPad semble pourtant être un élément déclencheur pour un secteur qui semble désormais bien engagé dans de grandes manoeuvres. Récemment, les trois grandes plateformes françaises de distribution de livres numériques ont conclu [un accord d’interopérabilité permettant aux libraires d’accéder selon les même méthodes et simultanément à leurs catalogues->http://www.ebouquin.fr/2010/05/13/un-accord-pour-une-plateforme-ouverte-de-distribution-de-livres-numeriques/.][[Alexis J., «Une entente pour la distribution de livres numériques en France,» ebouquin.fr, Mai 13, 2010, http://www.ebouquin.fr/2010/05/13/un-accord-pour-une-plateforme-ouverte-de-distribution-de-livres-numeriques/.]]. Comme souvent, c’est bien l’apparition d’une menace extérieure qui fait avancer les acteurs. Les espoirs que l’iPad suscitent, que ce soit pour la presse, l’édition de livre ou du côté des consommateurs ne sont pas partagés par tous. Certains en appellent à un retour à un minimum de lucidité, notamment quant aux perspectives économiques que ce nouveau support est susceptible d’ouvrir. [Hubert Guillaud dans ->http://lafeuille.blog.lemonde.fr/2010/05/22/livre-numerique-les-modeles-economiques] [La Feuille->http://lafeuille.blog.lemonde.fr/2010/05/22/livre-numerique-les-modeles-economiques], fait un rapide calcul portant sur les liseuses (tous types confondus) en général : "Estimons que demain, en France, il y ait 600 000 liseuses en circulation. Aujourd’hui, le papier touche potentiellement 60 000 000 de Français. Combien pourraient faire un succès commercial qui se vend à 100 000 exemplaires (c’est devenu un beau chiffre) sur un public potentiel de 60 millions quand le public potentiel n’est plus que de 600 000 lecteurs équipés ? Un livre numérique se vendant à 1 000 exemplaires (rapport au parc de machine) serait donc l’équivalent d’un best-seller dans le monde physique ! Voilà qui permet de remettre les pendules à l’heure.»[[Hubert Guillaud, «Abonnement ou vente unitaire ? L’enjeu de la diversification des modèles économiques du livre numérique,» La Feuille, Mai 22, 2010, http://lafeuille.blog.lemonde.fr/2010/05/22/livre-numerique-les-modeles-economiques/#xtor=RSS-32280322.]] Certains chiffres annoncent la vente de plus d’un million d’iPad aux Etats-Unis, ce qui est beau succès, mais reste marginal rapporté à une population globale de 300 millions d’habitants. Le talent marketting d’Apple et de son dirigeant Steve Jobs sont certains, mais le prix de vente de la tablette restera sans doute trop élevé pour lui permettre de jamais devenir un objet de consommation universel. Par ailleurs, les premières études d’usages sur l’iPad risque de faire l’effet d’une douche froide sur les éditeurs qui en attendent beaucoup pour leur trésorerie. [Une étude publiée récemment->http://www.investorplace.com/experts/paul_carton/apple-ipad-may-changewave-survey-aapl-stock-demand-amzn-kindle-amazon.html] montre en effet que pour l’instant, la plupart des acquéreurs d’iPad utilisent davantage leur tablette pour consulter leur courrier électronique ou surfer sur le web[[Paul Carton, «New ChangeWave Surveys Measure Future Consumer Demand and Reactions of New iPad Owners,» InvestorPlace.com, Mai 20, 2010, http://www.investorplace.com/experts/paul_carton/apple-ipad-may-changewave-survey-aapl-stock-demand-amzn-kindle-amazon.html.]]. Ce point précis des usages de la tablette est fondamental et demande à être observé avec précision. Car l’iPad est identifié par les éditeurs de contenus comme une machine de guerre contre le web, ce web qui en a ruiné certains ou que d’autres ont toujours voulu éviter en raison des incertitudes économiques qu’il représente. [La tribune publiée par Cory Doctorow contre l’iPad->http://www.framablog.org/index.php/post/2010/05/29/ipad-pourquoi-je-ne-l-acheterai-pas][[Cory Doctorow, «Pourquoi je n'achèterai pas un iPad», Framablog, 29T19:13:00+02:00 5, 2010, http://www.framablog.org/index.php/post/2010/05/29/ipad-pourquoi-je-ne-l-acheterai-pas.]] et finalement tout le système Apple est caractéristique de cette opposition. Ayant pour sa part su tirer tout le parti de la logique ouverte et créatrice du web, cet auteur et éditeur de contenus dénonce très naturellement la logique verrouillée et privative que met progressivement en place la firme de Cupertino. Le succès annoncé de l’iPad ne doit enfin pas faire oublier l’existence d’[une concurrence nombreuse et diversifiée->http://www.ecrans.fr/Tour-de-tablette-des-concurrents,9998.html][[Camille Gévaudan et Geoffroy Husson, «Tour de tablette des concurrents- Ecrans,» Ecrans, Mai 29, 2010, http://www.ecrans.fr/Tour-de-tablette-des-concurrents,9998.html.]]. Outre les habituelles «liseuses» à base de papier électronique - Sony Reader, Cybook, Kindle, on recense de nombreuses tablettes Internet à écran LCD tactiles comme l’iPad. La firme française Archos vient par exemple de mettre sur le marché une machine fonctionnant sous Linux Android, nettement moins coûteuse, dotée d’un écran un peu plus petit, mais beaucoup plus performante, tandis que d’autres constructeurs fourbissent leurs armes. Pour les éditeurs de contenus, l’iPad est attendu comme le messie parce qu’il est identifié comme le moyen leur permettant de [perpétuer un modèle économique qu’ils maîtrisent->http://www.lesechos.fr/investisseurs/actualites-boursieres/020561514702][[Anne Feitz et Jean-Christophe Féraud, ««Avec l'iPad, les consommateurs paieront pour des contenus qui ont de la valeur »,» Les échos, Mai 26, 2010, http://www.lesechos.fr/investisseurs/actualites-boursieres/020561514702--avec-l-ipad-les-consommateurs-paieront-pour-des-contenus-qui-ont-de-la-valeur-.htm.]]. L’espoir de retrouver un marché unifié constitué par un public rassemblé autour d’un seul canal de commercialisation éprouvé semble illusoire. Une vision un peu plus large de la situation fait plutôt état d’une diversification des supports, d’une multiplication des modes de commercialisation et d’une fragmentation des publics. L’avenir des producteurs de contenus résidera donc plutôt dans leur capacité à être présents dans tous les lieux de circulation d’information, sur tous les supports, iPad compris ; mais pas seulement.
2010-05-30 10:22:01
Depuis les débuts de son histoire, Internet a connu bien des évolutions, voire de nombreuses révolutions internes. Certains auteurs ont même placé cette histoire sous le signe de la « révolution permanente ». Au delà du flux continuel d'innovations qui la caractérise, on peut cependant y déceler deux grands moments historiques depuis sa création au début des années 80. - C'est d'abord l'explosion commerciale et grand public au milieu des années 90 avec l'arrivée des navigateurs graphiques. - Puis le phénomène du Web 2.0 après l'explosion de la bulle Internet. Depuis plusieurs années, les commentateurs tentent de deviner et d'annoncer la prochaine révolution qui secouera le Réseau. Certains parient sur le Web sémantique qui permettra de passer de l'information à la donnée et verra le développement de traitements automatiques permettant de générer des contenus pertinents. D'autres parlent de « l'Internet des objets » qui verraient les machines communiquer entre elles de manière autonome au sein d'un gigantesque réseau pervasif où cyberespace et espace physique seraient indissolublement liés. Les deux réunis sont souvent annoncés comme posant les fondement d'un [« Web 3.0 » à venir->http://www.fredcavazza.net/2009/07/24/web-squared-transition-vers-le-web-30-ou-nouveau-paradigme/][[Cavazza, Fred. “Web Squared, transition vers le web 3.0 ou nouveau paradigme ?.” FredCavazza.net, July 24, 2009. [http://www.fredcavazza.net/2009/07/24/web-squared-transition-vers-le-web-30-ou-nouveau-paradigme/->http://www.fredcavazza.net/2009/07/24/web-squared-transition-vers-le-web-30-ou-nouveau-paradigme/].]]. Sachant qu'aucune des deux révolutions précédentes n'ont été prédites ou annoncées, il convient sans doute de relativiser la fiabilité de telles prédictions. Alors : quand aura lieu le prochain tournant, et quelle direction prendra-t-il ? A lire les publications de presse les plus récentes et les nombreux commentaires des derniers mois, il semble bien que le moment soit arrivé : La mort du Web Ce qui est annoncé, c'est d'abord [la « mort du Web »->http://www.wired.com/magazine/2010/08/ff_webrip/][[Anderson, Chris. “The Web Is Dead. Long Live the Internet | Magazine.” Wired, August 17, 2010. .]]. Chris Anderson, le célèbre rédacteur en chef du magazine Wired qui donne le ton, depuis ses origines, des débats en cours sur l'évolution des technologies numériques, a jeté un pavé dans la mare cet été en donnant ce titre à son éditorial. Pour Anderson, le Web, en raison de son caractère décentralisé voire anarchique, n'a jamais réussi à permettre aux producteurs de contenus et de services de construire un modèle économique viable. Les difficultés bien connues de l'édition musicale, de la presse, de l'édition de livres en sont le témoignage. Banalisation des applications, succès populaire du Web, et même du Web comme plateforme dans sa version 2.0, l'époque que nous venons de vivre brille, paraît-il, de ses derniers feux. La multiplication des appareils mobiles (ie l'iPhone), et le développement conjoint des réseaux sociaux « fermés » (ie Facebook) constituent deux forces puissantes de développement des usages en dehors du Web. Ils offrent surtout aux développeurs d'applications et aux producteurs de contenus une infrastructure qui leur permet de monétiser auprès du public leur offre commerciale. L'article d'Anderson, contestable, a suscité de nombreux débats dans divers médias. Au delà de la validité de ses arguments, on ne peut que constater qu'il rejoint d'autres articles annonçant eux aussi des changements majeurs. C'est le cas de [l'article de Michael Hirschorn->http://www.theatlantic.com/magazine/archive/2010/07/closing-the-digital-frontier/8131/][[Hirschorn, Michael. “Closing the Digital Frontier.” The Atlantic, July 1, 2010. [http://www.theatlantic.com/magazine/archive/2010/07/closing-the-digital-frontier/8131/->http://www.theatlantic.com/magazine/archive/2010/07/closing-the-digital-frontier/8131/].]] qui insiste quant à lui plutôt sur la stratégie de verrouillage mise en oeuvre par Apple via ses matériels mobiles, sa boutique iTunes, mais surtout le système App Store, puisque les conditions permettant aux développeurs d'y proposer leurs applications sont drastiques. La firme à la pomme a d'ailleurs dû [faire machine arrière récemment->http://www.readwriteweb.com/archives/apple_relaxes_restrictions_on_mobile_app_development.php][[Perez, Sarah. “Apple Relaxes Restrictions on Mobile App Development.” ReadWriteWeb, September 9, 2010. [http://www.readwriteweb.com/archives/apple_relaxes_restrictions_on_mobile_app_development.php->http://www.readwriteweb.com/archives/apple_relaxes_restrictions_on_mobile_app_development.php].]], sous la menace d'une enquête en concurrence déloyale de la commission du commerce américain. Dans ce cas de figure, la sortie du Web est synonyme d'une clôture technologique considérable puisque le fabricant de matériel fournit aussi le système informatique qui anime la machine (iOS), contrôle les applications qui y sont autorisées et censure les contenus qui sont délivrés par leur intermédiaire. On troque donc un système ouvert où chaque niveau (machine, OS, applications, réseaux, contenus) a son autonomie et interagit avec les autres niveaux suivant des standards ouverts, pour un système intégré verticalement, maîtrisé par un seul opérateur. Une hirondelle ne fait pas le printemps. Si Apple était le seul acteur à agir en ce sens, le doute serait permis sur la portée réelle de sa stratégie sur l'ensemble de son environnement. Mais d'autres éléments doivent être pris en considération, à commencer par l'évolution du comportement des gouvernements nationaux et des opérateurs de télécommunication. Filtrage d'Internet et neutralité des réseaux Côté gouvernements, c'est la tentation de filtrage de l'Internet qui se généralise. Cette forme de contrôle que l'on croyait réservée aux pays non démocratiques comme la Chine ou la Tunisie, séduit de plus en plus de démocraties occidentales : [l'Australie s'y essaye->http://www.lemonde.fr/technologies/article/2009/01/02/l-australie-s-apprete-a-filtrer-internet_1137146_651865.html#xtor=RSS-3208][[Leloup, Damien. “L'Australie s'apprête à filtrer Internet - Technologies.” Journal. Le Monde.fr, February 1, 2009. [http://www.lemonde.fr/technologies/article/2009/01/02/l-australie-s-apprete-a-filtrer-internet_1137146_651865.html#xtor=RSS-3208->http://www.lemonde.fr/technologies/article/2009/01/02/l-australie-s-apprete-a-filtrer-internet_1137146_651865.html#xtor=RSS-3208].]], et la France, qui prépare une nouvelle loi sur la sécurité, [s'apprête à adopter ce système->http://www.zdnet.fr/actualites/loppsi-2-le-senat-confirme-le-role-de-l-autorite-administrative-dans-le-filtrage-web-39754471.htm][[Auffray, Christophe. “Loppsi 2 : le Sénat confirme le rôle de l'autorité administrative dans le filtrage Web.” Zdnet, September 9, 2010. [http://www.zdnet.fr/actualites/loppsi-2-le-senat-confirme-le-role-de-l-autorite-administrative-dans-le-filtrage-web-39754471.htm->http://www.zdnet.fr/actualites/loppsi-2-le-senat-confirme-le-role-de-l-autorite-administrative-dans-le-filtrage-web-39754471.htm]. ]]. Comme le font remarquer de nombreux observateurs, la restriction d'usage de ce type de technologie sur les contenus pédopornographiques est sans doute seulement temporaire et son utilisation prochaine à la lutte contre le piratage des contenus culturels sous droit d'auteur ne fait aucun doute. Le magazine en ligne ReadWriteWeb France [a récemment jeté la lumière->http://fr.readwriteweb.com/2010/09/12/a-la-une/filtrer-internet-projet-secret/][[Ebelpoin, Fabrice. “Filtrer l’internet : le projet secret de l’industrie de la culture révélé au grand jour | ReadWriteWeb France.” ReadWriteWeb France, 9, 2010. [http://fr.readwriteweb.com/2010/09/12/a-la-une/filtrer-internet-projet-secret/->http://fr.readwriteweb.com/2010/09/12/a-la-une/filtrer-internet-projet-secret/].]] sur des discussion secrètes en cours entre les différentes parties prenantes sur ce sujet. Dernier pilier de l'Internet tel que nous le connaissons : la neutralité des réseaux est aujourd'hui ouvertement remise en cause de tous côtés. En France, le rapport rendu récemment par le secrétariat au développement de l'économie numérique après une vaste consultation pourtant, a suscité de nombreuses critiques. Benjamin Bayard, le bouillonnant président du petit fournisseur d'accès associatif FDN s'est en effet illustré par [une lecture pour le moins décapante du rapport->http://ecrans.fr/Dans-ce-rapport-ce-qui-saute-aux,10599.html][[Fradin, Andréa. “« Dans ce rapport, ce qui saute aux yeux, c’est l’incompétence ».” Ecrans, August 13, 2010. [http://ecrans.fr/Dans-ce-rapport-ce-qui-saute-aux,10599.html->http://ecrans.fr/Dans-ce-rapport-ce-qui-saute-aux,10599.html].]]. Aux Etats-Unis, dans le cadre d'une consultation lancée par la FCC, le régulateur fédéral des télécommunication, l'opérateur téléphonique Verizon et Google ont proposé [une définition très restrictive de cette fameuse neutralité->http://www.zdnet.fr/actualites/neutralite-du-net-la-proposition-de-google-et-verizon-serait-pensee-pour-les-grandes-corporations-39753767.htm], en la réservant au réseau filaire et en la truffant d'exceptions selon ses détracteurs[[Pépin, Guénael. “Neutralité du net : la proposition de Google et Verizon serait pensée pour « les grandes corporations ».” Zdnet, August 10, 2010. [http://www.zdnet.fr/actualites/neutralite-du-net-la-proposition-de-google-et-verizon-serait-pensee-pour-les-grandes-corporations-39753767.htm->http://www.zdnet.fr/actualites/neutralite-du-net-la-proposition-de-google-et-verizon-serait-pensee-pour-les-grandes-corporations-39753767.htm].]]. En un mot, en France comme aux Etats-Unis, les débats en cours semblent ouvrir la porte du filtrage des contenus comme des protocoles par les opérateurs. Ainsi, pour résumer sa ligne de d éfense, Nathalie Kosciusko-Morizet eut ce mot révélateur : « la neutralité de l'Internet est un principe plutôt qu'un credo»[[Kosciusko-Morizet, Nathalie. “La neutralité du Net est un principe plutôt qu'un credo'. Eco89, August 14, 2010. [http://eco.rue89.com/2010/08/14/nkm-la-neutralite-du-net-est-un-principe-plutot-quun-credo-162307->http://eco.rue89.com/2010/08/14/nkm-la-neutralite-du-net-est-un-principe-plutot-quun-credo-162307].]]. La messe semble être dite. Le débat sur la neutralité des réseaux est à la fois technique et abstrait. Il n'évoque pas grand-chose aux utilisateurs tant qu'ils n'en perçoivent pas les conséquences en terme d'usages. Or, c'est justement ce que permet, selon le journaliste Fabrice Epelboin, [le rachat de Deezer par l'opérateur Orange->http://fr.readwriteweb.com/2010/08/26/a-la-une/orange-donne-aperu-de-linternet-sans-neutralit-du-net/]. Cette entreprise qui propose un service d'écoute de musique en streaming, voit en effet désormais son offre intégrée au sein de forfaits téléphoniques spéciaux et donc plus chers : si ceux-ci limitent la quantité de données que peut échanger un abonné, dans les forfatis « Deezer », la musique en streaming provenant de ce service n'est pas comptabilisée. Pour Epelboin, c'est une sorte de licence globale privatisée dont on voit ici l'émergence, et donc l'application à l'Internet classique n'est qu'une question de temps[[Epelboin, Fabrice. “Orange donne un aperçu de l’internet sans neutralité du net.” ReadWriteWeb France, 26 August 2010. [http://fr.readwriteweb.com/2010/08/26/a-la-une/orange-donne-aperu-de-linternet-sans-neutralit-du-net/->http://fr.readwriteweb.com/2010/08/26/a-la-une/orange-donne-aperu-de-linternet-sans-neutralit-du-net/].]]. Un avenir ouvert Développement de la distribution payante de contenus au sein d'applications fermées, généralisation du filtrage de l'Internet au niveau des fournisseurs d'accès, menaces sur la neutralité du réseau, autant d'éléments d'une remise en cause très profonde de la structure de l'Internet unifié que nous connaissons aujourd'hui et qui permettent à [The Economist->http://www.economist.com/node/16941635?story_id=16941635.][ de prédire son éclatement->http://www.economist.com/node/16941635?story_id=16941635.] en plusieurs réseaux, cloisonnés, sous contrôle et de moins en moins interopérables[[“The future of the internet: A virtual counter-revolution.” The Economist, September 2, 2010. [http://www.economist.com/node/16941635?story_id=16941635->http://www.economist.com/node/16941635?story_id=16941635].]]. L'ensemble de ces analyses, accumulées en si peu de temps semblent confirmer l'hypothèse qu'Internet serait en train de vivre un nouveau tournant de son histoire, qu'il faut interpréter comme une sorte de normalisation, de retour à la situation précédente et de fin de l'utopie. Hypothèses séduisante, mais qu'il faut relativiser en la resituant dans la continuité historique ; car contrairement à ce qu'on pourrait croire, le débat n'est pas nouveau. Il est même rejoué à chaque évolution importante : l'ouverture d'un réseau jusqu'alors essentiellement académique au grand public via l'interconnexion avec AOL par exemple, puis l'explosion de l'Internet commercial à partir de 1995, puis les grandes manoeuvres des « media borg » autour de 2000 sur le thème de la convergence numérique furent à chaque fois analysées comme la fin probable d'une utopie politique et son absorption dans la normalité marchande d'une société de consommation sous contrôle du « big business ». A contrario, le développement de Usenet et des BBS, l'efflorescence des sites Web, l'explosion du Web 2.0 furent interprétés comme autant de symptômes d'une vivacité de cet idéal politique d'autonomie et de liberté. Tout se passe donc comme si les tensions dont nous sommes témoins aujourd'hui témoignaient d'une structure récurrente de développement historique de l'Internet, construite sur cette tension même. De cette récurrence on ne peut déduire de futur certain pour le Réseau, ni d'un côté, ni de l'autre. Peut-être faut-il au rebours en déduire une incertitude consubstantielle à cette histoire : la normalisation définitive que les pessimistes annoncent régulièrement n'a pas eu lieu jusqu'à présent. Mais la révolution globale et le basculement généralisé vers une démocratie renouvelée par Internet que d'autres prédisent depuis longtemps n'est toujours pas visible. Sans doute est-ce parce qu'en la matière, rien n'est inéluctable, contrairement à ce que disent les uns et les autres. Le futur de l'Internet est ouvert et c'est à nous d'en décider.
2010-09-13 13:40:44
Très tôt dans son développement, Internet fut identifié comme le signal d'une nouvelle jeunesse pour la démocratie. Les réseaux électroniques furent alors identifiés comme une agora permettant à l'ensemble de la population de participer activement à la vie de la nation. Si le thème de la nouvelle Athènes fut essentiellement développé aux Etats-Unis où il rencontrait le mythe fondateur de la République jeffersonienne, il rencontra aussi en Europe et en France des échos importants. L'idée selon laquelle Internet allait provoquer un épanouissement démocratique s'est exprimée de plusieurs manières : e-gouvernement puis gouvernement 2.0, administration électronique, cyber-activisme, « empowerement » des groupes de représentation d'intérêts, théories de l'espace public en ligne, etc. Vues aujourd'hui d'un pays qui connaît une régression rapide et brutale de son cadre démocratique, les textes écrits il y a quelques dix ou quinze ans prophétisant l'avènement d'un nouvel âge politique portent avec eux une charge quelque peu ironique. Où semblent donc passées ses forces nouvelles qui allaient bousculer l'ancien monde ? Qu'est devenue l'émancipation citoyenne permettant à tout un chacun de participer à la grande conversation nationale voire internationale et espérer voir son avis pris en compte ? C'est aux Etats-Unis encore une fois que la question a été rouverte le plus récemment. Lors de sa campagne électorale, le candidat Obama s'est en effet illustré doublement par, d'un côté un recours massif aux nouvelles technologies et en particulier [aux réseaux sociaux pour mobiliser son électora->http://www.tnova.fr/images/stories/groupes-de-travail/006-mission-us/terranova-rapportmissionus.pdf]t[[Ferrand, Olivier. Moderniser la vie politique : innovations américaines, leçons pour la France. Terra Nova, January 2009. [http://www.tnova.fr/images/stories/groupes-de-travail/006-mission-us/terranova-rapportmissionus.pdf->http://www.tnova.fr/images/stories/groupes-de-travail/006-mission-us/terranova-rapportmissionus.pdf].]], et aussi par la promesse faite à la nation d'une transparence, d'un responsabilité, d'une ouverture nouvelle de son gouvernement, s'il était élu, aux citoyens ordinaires qui se sentent traditionnellement très éloignés de ce qui peut se passer à Washington. Et de fait, le début de son mandat et la mise en place de son administration ont été marqués par [plusieurs signaux forts->http://www.wired.com/politics/onlinerights/magazine/17-02/ff_obama?currentPage=all.][[Ratcliff, Evan. “The Wired Presidency: Can Obama Really Reboot the White House?.” Wired, January 19, 2009. [http://www.wired.com/politics/onlinerights/magazine/17-02/ff_obama?currentPage=all->http://www.wired.com/politics/onlinerights/magazine/17-02/ff_obama?currentPage=all].]] : l'ouverture de sites participatifs, la nomination d'une nouvelle génération issue de la Silicon Valley à des postes de responsabilité, mais surtout l'initiative [Data.gov->http://www.data.gov/] impliquant que les administrations fédérales ouvrent largement leurs bases de données au public non seulement pour qu'elles puissent être consultées, mais aussi manipulées, exploitées, rediffusées par l'intermédiaire d'interfaces de programmation ouvertes. Deux ans après l'arrivée de Barrack Obama au pouvoir, le sommet [Gov 2.0->http://www.gov2summit.com/gov2010] qui s'est déroulé à Washington au début du mois de septembre a été l'occasion pour un certain nombre d'observateurs de revenir sur cette première période du mandat présidentiel. Le constat posé par Ellen Miller en particulier est finalement peu flatteur : malgré les promesses et les réalisations effectives, le bilan est un peu maigre et [la révolution attendue n'a pas vraiment eu lieu->http://radar.oreilly.com/2010/09/the-prospects-for-an-open-gover.html] [[Howard, Alex. “We're in open government's beta period.” O'Reilly Radar, September 14, 2010. http://radar.oreilly.com/2010/09/the-prospects-for-an-open-gover.html]]. Sans doute ne suffit-il pas d' »ouvrir les données » pour qu'elle donnent prise à une réelle participation citoyenne. De son côté Aneesh Chopra, responsable de la politique technologique de l'administration Obama (Chief Technology Officer) promet une nouvelle étape de développement de l'open gouvernement : après l'ouverture des données, c'est sur [les réseaux sociaux et les plateformes participatives->http://radar.oreilly.com/2010/09/2010-is-the-year-of-participat.html] qu'il mise désormais, apportant le dispositif complémentaire qui manquait certainement[[Howard, Alex. “2010 is the year of participatory platforms.” O'Reilly Radar, September 17, 2010. http://radar.oreilly.com/2010/09/2010-is-the-year-of-participat.html]]. Le cas Wikileaks Mais peut-être les propos échangés au cours de ce type de sommets sont-ils trop lénifiants. Car le réel défi qui est aujourd'hui posé à l'initiative open gouvernement de l'administration Obama ne se situe pas vraiment à ce niveau. Elle repose plutôt dans la question de savoir s'il est possible de faire confiance à un pouvoir, quel qu'il soit, lorsqu'il fait la promesse d'organiser sa propre transparence. Car cette promesse se heurte nécessairement à quelques limites. Ces limites, c'est bien entendu l'initiative Wikileaks qui les met en lumière en reprenant à son compte l'impératif de transparence du pouvoir, mais de manière beaucoup plus radicale. Rappelons que Wikileaks est [une organisation militante internationale offrant aux « lanceurs d'alerte » une plateforme hautement sécurisée qui leur permette de déposer en tout confiance les documents qu'ils souhaitent faire « fuiter »->http://owni.fr/2010/09/13/les-dix-theses-de-wikileaks/][[Lovink, Geert, and Patrice Riemens. “Les dix thèses de WikiLeaks.” OWNI, Digital Journalism, September 13, 2010. http://owni.fr/2010/09/13/les-dix-theses-de-wikileaks/]]. Derrière la personnalité haute en couleurs de Julian Assange sur laquelle se focalisent les médias, Wikileaks est animé pas un collectif de bénévoles qui se chargent de maintenir la plateforme, mais aussi de tenter de recouper et donc de valider les informations qui y sont soumises. Wikileaks s'est fait connaître du grand public pour avoir d'abord diffusé une vidéo filmant le mitraillage par un hélicoptère américain de civils irakiens pris à tort pour des insurgés et qui se sont révélés être par la suite des journalistes de l'agence Reuters. Leur seconde exploit fut [la diffusion d'une masse considérable de documents classé confidentiel défense->http://owni.fr/2010/07/27/warlogs-la-nouvelle-guerre-information/][[Dufresne, David. “Warlogs: la nouvelle guerre de l’information.” OWNI, Digital Journalism, July 27, 2010. http://owni.fr/2010/07/27/warlogs-la-nouvelle-guerre-information/]] en provenance des troupes de l'OTAN en Afghanistan, faisant brutalement apparaître une situation militaire beaucoup plus dégradée que les autorités ne l'avouaient jusqu'alors. L'acharnement avec lequel le gouvernement américain tente d'étouffer Wikileaks et ses révélations fracassantes ne peut que relativiser la portée du slogan [open gouvernement->http://www.whitehouse.gov/open][ ->http://www.whitehouse.gov/open]qu'il promeut par ailleurs. Wikileaks porte le flambeau de la transparence politique et de la démocratie à l'échelle mondiale. Mais quelle est la portée réelle de son action ? La question a été peu abordée. La plupart des commentateurs, en France en tout cas, parce que ce sont des journalistes, se sont concentrés sur les questions d'ordre professionnel que cette initiative leur pose. Il reste que les effets concrets sur les politiques des Etats des révélations publiées par Wikileaks semblent peu importants. On a pu faire remarquer par exemple que les masses de données rendues publiques ont été peu exploitées réellement et n'ont pas véritablement surgir de débat public particulièrement vif aboutissant à un infléchissement significatif de telle ou telle politique publique. Et il n'y a rien de bien étonnant à cela, à bien y réfléchir. Car l'espace public n'est pas un environnement amorphe réagissant de la même manière à tous types d'informations. Il est l'objet de ce qu'on qualifie de « cadrage médiatique » qui structure et hiérarchise les sujets de discussion dans cet espace. Il est par ailleurs traversé de forces politiques qui exploitent ou non les informations qui y circulent afin d'améliorer leur position concurrentielle dans l'arène politique. Autrement dit, croire qu'une initiative comme Wikileaks peut à elle seule changer la situation politique est sans doute faire preuve d'une certaine naïveté : pour que les informations que diffuse Wikileaks diffuse sur Internet aient un impact politique, il faut qu'elle entrent en résonance avec le cadrage opéré par les médias, et qu'à l'intérieur de ce cadrage leur exploitation serve les intérêts de forces politiques réelles. L'exemple de Wikileaks explique très bien pourquoi, vingt ans après, les espoirs de révolution démocratique qui ont été placés dans Internet ont été déçus : Internet est un espace dispersé, qui en raison de sa structure même, ne peut connaître de focalisation universelle de l'attention sur un problème dont la résolution change un rapport de forces. Médiatiquement, Internet fonctionne comme un « ailleurs » d'où proviennent de nombreuses informations. Ces informations ne peuvent être lestées d'un poids et d'une efficace politique que si elles transitent dans un espace public traditionnel, focalisé et structuré par des rapports de force. Le contre-exemple sur lequel Benoît Thieulin [est revenu récemment sur le site ->http://www.temps-reels.net/blog/rebooting-sweden-comment-une-jeune-bloggeuse-suedoise-bouleverse-le-deroulement-de-la-campagne-][Temps Réels->http://www.temps-reels.net/blog/rebooting-sweden-comment-une-jeune-bloggeuse-suedoise-bouleverse-le-deroulement-de-la-campagne-] illustre parfaitement cette mécanique[[Thieulin, Benoit. “Rebooting Sweden ? Comment une jeune bloggeuse suédoise bouleverse le déroulement de la campagne électorale en Suède.” Temps Réels, September 18, 2010. http://www.temps-reels.net/blog/rebooting-sweden-comment-une-jeune-bloggeuse-suedoise-bouleverse-le-deroulement-de-la-campagne-]]. Il s'agit d'un incident qui s'est déroulé lors de la dernière campagne électorale en Suède, dont le sujet principal portail sur la réforme de l'assurance maladie. On a pu y voir une jeune blogueuse jouer un rôle non négligeable dans ce débat après avoir publié un billet racontant comment se mère, gravement malade a vu ses allocations brutalement supprimées par le gouvernement. Son récit, repris dans la presse nationale, est entré en résonance avec le débat principal de la campgne en cours : la réforme de l'assurance-maladie. Des citoyens auto-organisés S'il semble donc bien établi que l'impact des nouvelles technologies sur les structures traditionnelles de pouvoir est limité, d'autres avancent une autre proposition, plus subtile : il s'agit de penser que les pratiques sociales sur le réseau, les multiples échanges qui s'y déroulent, que ce soit dans les forums de discussion, les communautés virtuelles ou les réseaux sociaux portent en eux un modèle de gouvernance authentiquement démocratique qui constitue une alternative en soi aux pratiques politiques dominantes. Par certains aspects, cette proposition pourrait rappeler l'ancien défi de l'indépendance du cyberespace, mais il s'agit en réalité de tout autre chose. Il s'agit plutôt de comprendre comment à un niveau local, les communautés virtuelles qui se rassemblent sur Internet élaborent spontanément des règles de vie commune, des procédures de résolution de conflits et des modes de régulation qui en font des espaces démocratiques limités certes, mais effectifs et vivants. C'est le sens en tout cas de l'article récemment publié par Sylvain Firer-Blaess à propos de Wikipédia où il considère les règles dont les « wikipédiens » se sont dotés comme [un modèle de démocratie électronique->http://homo-numericus.net/spip.php?article295][[Firer-Blaess, Sylvain. “Wikipédia : exemple à suivre pour une possible démocratie électronique ? ”. Homo Numericus, September 5, 2010. [http://homo-numericus.net/spip.php?article295->http://homo-numericus.net/spip.php?article295].]]. A ceux qui pourraient penser que ces formes nouvelles d'auto-organisation horizontales typiques du réseau n'ont pas la capacité d'en sortir pour trouver leur champ d'application dans l'environnement physique liront avec profit [l'article que Gregory Asmolov a récemment publié sur le portail ->http://globalvoicesonline.org/2010/08/30/russia-online-cooperation-as-an-alternative-for-government/][Global Voice->http://globalvoicesonline.org/2010/08/30/russia-online-cooperation-as-an-alternative-for-government/]s[[Asmolov, Gregory. “Russia: Online Cooperation as an Alternative for Government?.” Global Voices. [http://globalvoicesonline.org/2010/08/30/russia-online-cooperation-as-an-alternative-for-government/->http://globalvoicesonline.org/2010/08/30/russia-online-cooperation-as-an-alternative-for-government/]]]. Il montre comment les blogueurs se sont mobilisés de manière très efficace contre les incendies qui ont ravagé la Russie au cours de l'été et ont, dans les faits, suppléé à un gouvernement central apparemment impuissant et davantage soucieux de son image que des résultats réels de son action. Ces mouvements par lesquels les individus prennent en main leur destin dans les espaces virtuels ou physiques, c'est ce que le sociologue Dominique Cardon appelle la « démocratie Internet[[Cardon, Dominique. La démocratie Internet : Promesses et limites. Seuil, 2010. ]]. Spécialiste avec Fabien Granjeon de [« l'Internet militant »->http://www.persee.fr/web/revues/home/prescript/article/mat_0769-3206_2005_num_79_1_1036] [[Granjon, Fabien. “L’Internet militant. Entretien avec Fabien Granjon.” Matériaux pour l'histoire de notre temps 79, no. 1 (2005): 24-29. http://www.persee.fr/web/revues/home/prescript/article/mat_0769-3206_2005_num_79_1_1036 ]], observateur des pratiques de socialisation sur les réseaux[[Cardon, Dominique. Sociogeek, identité numérique et réseaux sociaux. FYP éditions, 2010. ]], et auteur lui aussi récemment d'une étude sur Wikipédia[[Cardon, Dominique, and Julien Levrel. “La vigilance participative. Une interprétation de la gouvernance de Wikipédia.” Réseaux 154, no. 2 (2009): 51. ]], le chercheur pense au final qu'Internet est porteur d'une vertu émancipatrice pour le public. Tout le public ? Certainement pas, affirme Cyrille Franck. En dénonçant une [« nouvelle classe de dominants »->http://www.mediaculture.fr/2010/09/04/nouveaux-medias-l’irruption-d’une-nouvelle-classe-dominante/][[Franck, Cyrille. “Nouveaux médias : une nouvelle classe de dominants.” Médiaculture, September 4, 2010. [http://www.mediaculture.fr/2010/09/04/nouveaux-medias-l%E2%80%99irruption-d%E2%80%99une-nouvelle-classe-dominante/->http://www.mediaculture.fr/2010/09/04/nouveaux-medias-l’irruption-d’une-nouvelle-classe-dominante/]]] qui établit les bases de son pouvoir sur la maîtrise des réseaux sociaux et plus largement des technologies numériques, le blogueur revient opportunément sur la réalité d'une fracture numérique persistante qui ne se manifeste pas seulement sous la forme d'un défaut d'équipement, mais aussi et le plus souvent d'un défaut de maîtrise de ces technologies. Le trait est certes un peu grossi mais il a le mérite de pointer les limites du modèle méritocratique qui parcourt les communautés virtuelles sur Internet : celui-ci est inefficace à l'égard de ceux qui sont dépourvus des ressources les plus élémentaires, matérielles et symboliques pour tirer parti des moyens d'expression qui se trouvent à leur disposition. Figures de la citoyenneté numérique La « démocratie Internet » restera-t-elle un phénomène minoritaire ou sera-t-elle portée par un mouvement authentiquement populaire ? C'est finalement [sur la question de la participation->http://www.internetactu.net/2009/11/27/pdf-europe-e-gov-vs-we-gov-collaboration-ou-conflit/][[Guillaud, Hubert. “PDF Europe : e-gov vs. we-gov, collaboration ou conflit ?.” Internet Actu, November 27, 2009. http://www.internetactu.net/2009/11/27/pdf-europe-e-gov-vs-we-gov-collaboration-ou-conflit/]] que se situe un des enjeux importants de sa capacité à transformer à la fois le jeu politique et les rapports sociaux. Le tableau des conditions de possibilité d'une démocratie électronique semble presque complet lorsqu'on y ajoute une appropriation massive par le public des technologies d'expression publique sur le Réseau. Les nombreuses initiatives, publiques et privées – offres de formation, espaces publics numériques, plateformes de blogs, structures d'aides aux utilisateurs, membres actifs des communautés virtuelles assument une responsabilité de premier plan dans ce mouvement. Assurément, le rôle que jouent ces « [figures de la citoyenneté numérique->http://blog.homo-numericus.net/article10660.html] » est loin d'être suffisamment reconnu.
2010-09-20 15:19:59
Les liaisons numériques est un livre que devraient lire d'urgence tous ceux qui s'interrogent réellement sur le type de société vers laquelle nous emmène la révolution numérique et souhaitent se défaire de tout le chapelet de préjugés qui en encombrent la pensée. <img2178|left> L'ouvrage d'Antonio Casilli a plusieurs grands mérites : tout d'abord, il prend à bras le corps les trois grandes interrogations qui structurent en permanence les débats du moment sur les nouvelles technologies : - celles-ci se déploient-elle dans un espace à part, un « cyberespace » détaché de l’espace physique et donc sans réelle répercussion sur le « monde réel » ? - la « dématérialisation » qui les accompagne est-elle le symptôme d’un oubli voire d’une véritable haine du corps qui viendrait en quelque sorte en réaction extrême au culte du corps que l’on trouve ailleurs ? - et surtout, ces technologies sont-elles une menace sur le lien social, comme l'affirmait Philippe Breton, ou au contraire, représentent-elles une « nouvelle sociabilité » comme l'avance sous forme interrogative le sous-titre des Liaisons numériques. L'autre grand mérite de cet ouvrage est d'apporter des réponses à ces questions essentielles, non pas de manière impressionniste, avec subjectivité, comme on le voit souvent, mais en s'appuyant sur de nombreuses études réalisées par l'auteur, sociologue à l'EHESS, ou publiées dans des revues de sociologie ou de psychologie sociale. Enfin, il dépasse brillamment l'antinomie classique dans laquelle on se trouve lorsqu'on traite des innovations technologiques : a-t-on affaire à une rupture radicale, à quelque chose d'inouï et d'incomparable à tout ce qu'on a connu jusque là, ou reste-t-on dans la continuité historique et la situation du « tout change pour que rien ne change » ? Ce que fait très bien comprendre Les liaisons numériques, c'est que cette question est justement antinomique. Sur chacune des trois questions abordées, Antonio Casilli réussit à caractériser, à qualifier, le type d'espace, le type de corps, le type de relation sociale qui sont en train d'émerger des ces « nouveaux » usages qui sont à la fois inédits, et en même temps, c’est la thèse principale du livre, profondément inscrits dans la continuité des pratiques existantes : Ainsi du cyberespace, ou plutôt, comme l’indique de manière subtile le titre de cette première partie : des cyberespaces. L’auteur débute son argumentation par une approche originale : plutôt que d’évoquer d’entrée la notion d’espace virtuel, il s’interroge sur la manière dont les outils informatiques occupent l’espace physique. Ainsi, en soixante ans de miniaturisation, il montre comment l’ordinateur, de dimension suffisamment imposante à ses débuts pour être cantonné dans les caves des installations militaires, a progressivement colonisé tout l’espace – grâce précisément à sa miniaturisation – et singulièrement l’espace domestique où il est aujourd’hui omniprésent. Ce faisant, il a introduit au cœur des foyers et de la vie quotidienne de la plupart des gens ce qu’il faut bien appeler un espace virtuel tant les interfaces, le vocabulaire et les processus qui caractérisent les usages des technologies numériques sont saturées de références spatiales : depuis les métaphores du surf et de la « home page » que l’on trouve sur le Web jusqu’aux cybermondes comme Second Life en passant par les communautés virtuelles comme Cyworld, Antonio Casilli montre, par une multitude d’exemples très variés comment ces espaces construisent des relations sociales particulières, où le don trouve souvent une place importante. Mais ces espaces virtuels, pour singulier qu’ils soient, sont-ils pour autant totalement autonomes ? Non montre l’auteur, car ils prolongent souvent, ou sont articulés avec des relations sociales qui s’établissent dans l’espace physique, que ce soit sur la base de relations de voisinage, scolaires pour les adolescents, ou de travail. Les conséquences de cette intrication des espaces est claire : la singularité des relations sociales qui s’établissent dans les espaces virtuels ajoutée à leur articulation avec l’espace physique aboutit à une transformation effective des relations sociales classiques comme le montre par exemple la longue analyse qu’Antonio Casilli consacre aux sites politiques militants. La seconde partie des Liaisons numériques est passionnante, car elle repose sur une analyse particulièrement subtile des relations au corps qui s’établissent dans les usages numériques. Ce que l’on retient de cette analyse, c’est que cette relation ne peut être définie de manière univoque. Le fameux « oubli du corps » représenté par la figure du hacker peu soucieux d’hygiène corporelle et débraillé est en réalité vite déplacé. Dans nombre de ces usages, le corps est bien présent et fait même l’objet d’une attention toute particulière. Ainsi, à travers les exemples des corps virtuels dans Second Life, du mouvement des extropiens, des expérimentations de l’artiste Stelarc ou des sites de rencontres sexuelles, c’est au contraire le désir d’un corps projeté, augmenté, amélioré et plus performant qui se révèle. Parallèlement, le foisonnement d’avatars sur les plateformes de réseaux sociaux, la multiplication des photos personnelles qui y abondent sont autant de traces qui rendent présent le corps dans les réseaux informatiques. On comprend très bien, à lire ces analyses, que la théorie de la disparition du corps repose sur une définition erronée de celui-ci : le corps n’est pas une simple masse de chair, mais est d’abord la projection d’une identité, d’une représentation de soi. Antonio Casilli nous fait dès lors très bien comprendre comment les technologies numériques en réseau participent désormais de la construction de cette représentation corporelle de soi. L’autre question qui traverse ce chapitre est celle de l'assujettissement du corps aux professions médicales. A travers une évocation des sites et des forums de patients atteints de diverses maladies ou handicaps, on voit bien comment Internet joue le rôle d’une technologie « capacitante », c’est-à-dire donnant au malade une autonomie dans sa vie quotidienne et par rapport aux traitements médicaux, qu’il n’avait pas jusque là. Le cas des sites favorisant l’anorexie, sur lesquels Antonio Casilli avait déjà publié plusieurs études, fait l’objet d’une longue description. Ce cas est intéressant parce qu’il illustre bien les difficultés d’un contrôle légal de l’expression sur Internet. Ces sites font en effet normalement l’objet d’une interdiction en France parce qu’ils font l’apologie de l’anorexie. Ils représentent pourtant un mouvement culturel réel, une forme d’expression en réaction aux excès de la société de consommation notamment. S’ils sont interdits, c’est parce que l’anorexie met en danger à terme celui qui la pratique et peut provoquer sa mort. Pourtant argumente l’auteur, en interdisant cette forme d’expression, on contribue à la rendre clandestine et hors de contrôle. Il montre de manière très convaincante que ces sites constituent au contraire des lieux de régulation où par l’entraide et les conseils, les adeptes de ces pratiques vont apprendre à contrôler leur comportement ou à recourir à une assistance médicale en cas de besoin. Au terme de l’ouvrage, et après de nouvelles analyses sur la manière dont les relations entre individus s’établissent dans les réseaux sociaux, la conclusion vient presque d’elle-même : les technologies numériques ne détruisent pas les relations de proximité – locales – et ont même tendance à les entretenir voir à les renforcer. Mais en même temps, elles permettent à des relations plus faibles de s’établir, entre des individus qui ont peu de points communs. Ces liens faibles, qui peuvent être mobilisés dans certaines circonstances, relient les communautés entre elles et permettent aux idées et aux modèles de circuler à une échelle plus globale. Les liaisons numériques sont donc « glocales », à la fois fortes et faibles, ce qui leur donne une remarquable plasticité. Ce modèle émergent de relations qui est différent à la fois du modèle communautaire et en même temps du modèle de société atomisée sur l’opposition desquels s’est construite la sociologie classique implique des modes de régulation eux aussi particulier (par sanction faible de l’écart à la norme par exemple) et des modes de construction de la vérité qui mobilisent le consensus. C’est par un très beau conte moral qu’Antonio Casilli termine son ouvrage et résume son propos, un conte venu de la tradition afro-brésilienne et dont la métaphore symbolise de manière éclairante les ambigüités de la communication et du vivre-ensemble à l’ère numérique. <a href="http://www.amazon.fr/gp/product/202098637X?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=19458&creativeASIN=202098637X">Casilli, Antonio A. Les liaisons numériques : Vers une nouvelle sociabilité ? Seuil, 2010. </a>
2010-09-28 19:30:15
Dans La démocratie Internet, Dominique Cardon réussit la prouesse de rédiger une synthèse claire, problématisée, pédagogique et, ce n’est pas la moindre de ses qualités, courte, sur une question majeure touchant Internet: sa dimension politique. L’intérêt principal de l’ouvrage de Dominique Cardon est sa cohérence et sa capacité à montrer que les éléments qui peuvent paraître éloignés entre eux et isolés constituent en réalité la trame d’une même histoire politique d’Internet. Il défend la thèse selon laquelle Internet est une opportunité pour la démocratie, grâce aux fondements égalitaires qui ont présidé à sa naissance et à son développement, mais qu’il doit affronter deux tendances fortes qui risquent, si l’on n’y prend garde, de le transformer en média de masse vertical: le développement d’une logique d’audience par les industriels dominant le secteur et la massification de la fréquentation d’internet, qui impose d’élargir le panel des interventions collaboratives du peuple du réseau. Ce livre s’adresse d’abord à un lectorat non initié et non convaincu, curieux de comprendre et d’agir dans une société évoluant rapidement, mais ne disposant pas de clés suffisantes pour se forger une opinion sur les questions politiques que pose Internet. En effet, le lecteur est d’abord exposé au bruit médiatique dominant, largement webophobe, abusant des anecdotes rapides et des postures craintives, des approximations et des jugements à l’emporte-pièce. Sans instruire le procès des médias dominants, il les décrit tout de même comme des gate keepers[[P. 9]], ces gardiens de l’ordre culturel et politique, qui souhaitent conserver le monopole de la transmission de la bonne parole à des citoyens considérés comme incapables de se forger une opinion de façon autonome. En décrivant éditeurs et journalistes comme les intermédiaires culturels incontournables entre l’information et un citoyen “infantilisé”[[P. 100]], Dominique Cardon aide à comprendre la diabolisation dont font trop souvent l’objet des initiatives aussi abouties et aussi sophistiquées que Wikipedia. Cette posture défensive s’explique sociologiquement, car Internet menace un ordre établi, forgé au XIXe siècle, au moment de la massification de la presse à bas prix[[P. 97]]. Il remet en cause une hiérarchie des émetteurs de savoir et de vérités dont l’autorité n’était quasiment pas contestable dans le modèle vertical des médias de masse[[P. 37]]. Pour comprendre l’Internet d’aujourd’hui, il n’est pas possible de faire l’économie d’une approche historique, ce qui permet de comprendre les racines du réseau des réseaux. Dominique Cardon rappelle que les militaires n’ont pas conçu Internet, même s’ils ont participé au financement de sa conception: “la choses est désormais bien établie: Internet est surtout né de la rencontre entre la contre-culture américaine et l’esprit méritocratique du monde de la recherche”[[P. 13]]. Plus encore, Internet est né des besoins de ses inventeurs, essentiellement des chercheurs et des informaticiens[[P.16]], sans plan préconçu, mais avec une méthode égalitaire et méritocratique, nécessitant la mise en place de consensus et empêchant le contrôle du réseau par quelque acteur que ce soit. Cet ensemble de valeurs libertaires et solidaires est ancrée profondément dans les gênes du réseau. La notion de consensus, par exemple, qui a présidé à l’établissement des normes du réseau, se retrouve au coeur des principales réussites collaboratives du Web, trente à quarante ans plus tard[[P. 86-87]]. La liberté de l’information et la liberté du code se retrouvent ici pour jeter les base d’un espace contributif puissant, dans lequel chacun peut apporter ses compétences, mais personne ne peut stopper le processus d’innovation. En cela, le droit est un élément décisif du modèle proposé par Internet : le logiciel libre et les licences creative commons constituent, de ce point de vue, des modèles. Cette démarche est favorable aux libertés individuelles et d’essence libertaire. Elle est compatible avec une autre tendance politique, le libéralisme. Ces deux mouvements se sont conjugués pour produire une alliance d’opportunité[[P. 28, p.32]]. Il n’est pas non plus possible de comprendre la “démocratie Internet” sans lumières sur la façon dont le réseau des réseaux est organisé. Car, contrairement à une opinion répandue, le Web n’est pas un immense sac dans lequel sont jetés quelques milliards de documents... L’auteur insiste, en effet, sur la forte hiérarchisation de l’information sur le Web. Il dénonce, au passage, les pamphlétaires et les journalistes pressés qui confondent accessibilité d’une page et visibilité de celle-ci. Dans l’océan des pages web, la hiérarchisation de celles-ci s’est imposée par la mise en place d’algorithmes d’essence démocratique, dont le parangon est le Page Rank de Google, qui donnent plus de visibilité aux pages qui sont les plus citées, les plus liées, les plus commentées. S’il n’est pas difficile de trouver des pages web choquantes et menaçantes pour la démocratie, celles-ci sont en général marginalisées par la hiérarchisation de l’information sur le réseau[[P. 42]]. Cette pratique emprunte son modèle au monde scientifique, qui considère qu’un article cité par un chercheur est un article d’intérêt (modèle du Science citation index[[P. 43]]). Cependant, l’organisation des contenus du réseau par les moteurs de recherche semble prendre une tournure de plus en plus médiatique, en s’approchant des logiques de l’audimat et du plébiscite[[P. 95]]. Cette tendance inquiétante pourrait être tempérée par le développement des “métriques communautaires”[[P. 96]], mais celles-ci restent fragiles et le monde analogique a désormais pris position sur le réseau et entend rétablir un ordre dans lequel les médias et les plus grosses entreprises disposent de la plus imposante puissance de feu. De plus en plus, les poids lourds industriels reconquièrent sur le réseau les positions qu’ils n’ont jamais perdues dans le monde médiatique[[P. 97]]. La puissance du modèle conversationnel apparaît cependant difficile à contrer : en 2005, les géants qu’étaient AOL ou Amazon ont commencé à reculer face aux nouveaux géants des contenus collaboratifs et des communautés numériques: YouTube, MySpace, Wikipedia et Facebook[[P. 54]]. Ce mouvement a atteint en 2010 un point symbolique, puisque Google a cédé à Facebook la place de site le plus fréquenté du monde. Il reste que ces champions des contenus collaboratifs sont devenus de puissants acteurs industriels, qui traitent des données issues de centaines de millions d’individus, où les fondateurs d’Internet pourraient voir avec déception des “bavardages” remplacer la conversation[[P. 54]] et des interactions rudimentaires remplacer l’argumentaire et la régulation procédurale[[P. 87]]. Nombreux sont les pionniers du réseau qui considèrent le bouton “I like” de Facebook[[P. 80]] comme le degré zéro de l’argumentation, signant la fin d’une aventure démocratique. La massification du public d’Internet va-t-elle les faire retourner à leur condition de foule[[P. 72]] ou de public exclusivement nourri par les gate keepers traditionnels? Ce serait compter sans “la force des coopérations faibles”[[P. 81]]. Dominique Cardon explique en détail les mécanismes de l’exposition de soi, leurs motivations et la forme qui en découle[[P. 66]] : “La communication privée en public est l’un des formes d’échange les plus originales qui soient apparues avec les réseaux sociaux de l’Internet (...) Cet étrange jeu théâtral, dans lequel les utilisateurs miment l’aparté tout en parlant au su et au vu des spectateurs potentiels, permet de parader devant eux (...) [ouvrant] une microscène”[[P. 63]]. Ces “petites” conversations[[P. 68]] finissent par croiser les “grandes” conversations et donner une forme nouvelle d’action collective, opportuniste, sans centre, volatile et puissante[[Exemples p.70 à 72 et p.82-83]]. Ces mouvements ont inspiré la démocratie participative que les politiques veulent mettre au service de leurs candidatures. Mais ceux-ci ont bien du mal à reproduire en laboratoire ce qui émerge si spontanément là où on ne l’attend pas. Dominique Cardon y voit la manifestation d’une liberté des acteurs du réseau et un encouragement pour l’acceptation de la massification du celui-ci. Loin de croire que 100% des internautes contribuent à égalité aux contenus et à la vitalité du réseau, il rappelle la règle des 1/10/100 : une fraction de contributeurs est très active, une petite minorité participe régulièrement et la masse n’apporte pas de contribution décisive[[P.19]]. Mais l’ouvrage répète avec force que les “participations minimes, comme la correction des fautes d’orthographe sur Wikipédia, la notation de la qualité des articles, voire la présence silencieuse d’utilisateurs inactifs, sont indispensables à la motivation des plus actifs”[[P.19. C’est moi qui souligne.]]. C’est pourquoi il ne faut pas négliger ou mépriser les coopérations faibles. Il propose de considérer que le bouton “I like” est une des adaptations à la massification des usages, et qu’il contribuera, à sa mesure, au sein d’un dispositif contributif aux multiples formes, à l’organisation du grand “bazar”[[P. 77]] qu’est le Web. Internet constitue une opportunité démocratique. Il doit aujourd’hui négocier le virage de la massification sans changer de nature, c’est-à-dire évoluer sans perdre ses qualités créatives et ses principes égalitaires initiaux. <img2184|center> [La démocratie Internet. Promesses et limites, Dominique Cardon, La République des idées, Seuil, 2010, 101 p.->http://www.amazon.fr/gp/product/2021026914?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=19458&creativeASIN=2021026914]
2010-10-10 02:36:08
Qu’est-ce qu’un discours ? C’est une certaine manière d’agencer entre eux des faits, des idées, l’expression de sentiments afin de les ordonner, de leur donner une cohérence, de les faire résonner les uns avec les autres, ou encore de susciter chez ceux à qui il s’adresse tel ou tel effet. Les différentes sociétés ont élaboré, au cours de leur histoire, différents types de discours - religieux, politique, philosophique, scientifique, commercial, amoureux, discours particuliers, dotés de leurs propres lois, de leur propre histoire. Mais précisément, sommes-nous arrivés à la fin de cette histoire des ou plus généralement du discours ? C’est ce qu’on pourrait penser à première vue en mesurant l’impact que la révolution numérique semble imposer à ce type particulier de production intellectuelle. Roger Chartier avait annoncé il y a quelques années une “perturbation de l’ordre du discours” par l’Internet et les nouveaux supports de lecture numérique mélangeant tout : livres, revues, courriers personnels, journaux et carnets intimes dans le grand entonnoir numérique. A l’heure du “Web 3” faut-il parler d’une disparition de l’ordre du discours ? C’est ce qu’il semblerait tant ce nouveau credo porte l’accent et manifeste une véritable fascination pour ce qui se trouve sous le discours, ce qui en constitue le soubassement et le matériau primaire, sans ordre ni construction, à savoir la “donnée brute”[[Cavazza, Fred. “Du contenu roi aux données reines.” FredCavazza.net, Juillet 19, 2010. http://www.fredcavazza.net/2010/07/19/du-contenu-roi-aux-donnees-reines/. ]]. Ce changement radical de perspective, on peut le voir à l’oeuvre dans plusieurs domaines ; à commencer par le politique où le mouvement pour l’open data commence à prendre une réelle ampleur. De quoi s’agit-il ? Lancé comme souvent aux États-Unis, le mouvement open data vise à inciter ou contraindre les gouvernements et leurs administrations à rendre publiques les données qu’ils collectent ou produisent dans tous les domaines de leur activité : données de recensement bien sûr, mais aussi qui concernent la criminalité, la santé, l’activité économique par exemple [[O'Reilly, Tim. “Government As a Platform.” Dans Open Governement. Lathrope, Daniel et Ruma Laurel (éds.). O'Reilly Media, Inc., 2010. http://opengovernment.labs.oreilly.com/. ]]. L’objectif est double : politique, il s’agit d’obtenir une meilleure transparence et donc un meilleur contrôle des citoyens sur l’activité de leurs gouvernements et sur l’efficacité des politiques publiques qu’ils mettent en oeuvre[[Cardon, Dominique. “En finir avec le culte du secret et de la raison d'Etat.” Le Monde, Décembre 3, 2010. http://www.lemonde.fr/idees/article/2010/12/03/en-finir-avec-le-culte-du-secret-et-de-la-raison-d-etat_1448555_3232.html. ]]. Économique dans le contexte de l’“économie de la connaissance”, il doit permettre à la société civile de bénéficier d’un véritable gisement d’informations lui permettant de développer de nouveaux services qui bénéficieront à la population[[LiberTIC. « Pourquoi la réutilisation des données publiques à des fins commerciales doit-elle être gratuite ? » InternetActu.net, mars 9, 2011. http://www.internetactu.net/2011/03/09/pourquoi-la-reutilisation-des-donnees-publiques-a-des-fins-commerciales-doit-elle-etre-gratuite/ ]]. Aux États-Unis, l’administration Obama a voulu montrer l’exemple avec l’initiative data.gov où l’on peut accéder et télécharger de nombreuses bases de données dans tous les domaines. La Grande-Bretagne a lancé son propre programme[[« L'open data n'est plus une chimère » : entretien avec Nigel Shadbolt,” RSLN, Février 24, 2011, http://www.rslnmag.fr/blog/2011/2/24/_l-open-data-n-est-plus-une-chimere_entretien-avec-nigel-shadbolt/. ]], bientôt suivi par de nombreux pays. En France[[« La France de l’Open Data : où en est-on ? » Regards sur le numérique, mars 21, 2011. http://www.rslnmag.fr/blog/2011/3/21/la-france-de-l-open-data_o%C3%B9-en-est-on_/ ]], ce ne sont pas tant les administrations centrales qui sont les plus actives dans le domaine que les collectivités locales. Plusieurs grandes villes françaises, dont Paris[[Thierry Noisette, “Open Data : les données publiques de Paris ouvertes sous licence libre by-sa,” L'esprit libre, Décembre 19, 2010, http://www.zdnet.fr/blogs/l-esprit-libre/open-data-les-donnees-publiques-de-paris-ouvertes-sous-licence-libre-by-sa-39756961.htm#xtor=RSS-1. ]] ont ainsi commencé à ouvrir leurs bases de données au public. Lancé comme un mouvement volontaire des administrations, l’open data est pourtant en train d’échapper au contrôle des gouvernements. Car une organisation non gouvernementale est soudainement venue perturber ce qui fut présenté comme une modernisation de la gouvernance étatique. Les révélations fracassantes venues de Wikileaks ont en effet montré que la transparence des gouvernements pouvait s’exercer à plusieurs niveaux. Plus profondément, Wikileaks agit comme le révélateur du mouvement open data : l’un et l’autre manifestent que la tendance est à la disqualification a priori du discours politique considéré comme essentiellement mystificateur. On est ici dans une entreprise radicale qui va finalement bien plus loin que ce qu’on pu entreprendre jusqu’ici les théories critiques. Il ne s’agit même plus de déconstruire le discours pour en mettre en évidence le caractère illusoire ou manipulatoire ; il s’agit simplement de le mettre de côté pour s’intéresser aux seules données, ouvertes à tous, permettant à chacun de construire son propre discours sur ces bases[[Fabrice Epelboin, “Bastille Day à #AmnDawla en Egypte : la révolution par l’open data radical,” ReadWriteWeb French edition, Mars 6, 2011, http://fr.readwriteweb.com/2011/03/06/a-la-une/bastille-day-amndawla-en-egypte-rvolution-par-lopen-data-radical/ ]]. On pourra objecter que Wikileaks ne relève pas de l’open data à proprement parler car ce qui est mis à disposition par son entremise ne relève pas de la donnée mais du document. L’objection est sans doute valable si l’on raisonne au niveau de l’unité documentaire. Ce serait pourtant manquer l’essentiel de ce qui fait l’intérêt de cette entreprise, dont le mode opératoire ne consiste pas à rendre public tel ou tel document particulièrement embarrassant ou croustillant, mais une masse documentaire qui, du fait des quantités d’information impliquées, se comporte comme une base de données au sein de laquelle tout un chacun est appeler à puiser les informations qui l’intéressent[[Kayser-Brill, Nicolas. “StateLogs: Wikileaks begins to reveal 250,000 diplomatic files.” OWNI, Digital Journalism, Novembre 27, 2010. http://owni.fr/2010/11/27/wikileaks-statelogs-diplomatic-assange-application-insurance/. ]]. C’est le sens de la collaboration nécessaire entre Wikileaks et différents titres de presse ( New York Times, Le Monde, El Pais ), ces derniers venant faire une sélection de documents jugés pertinents dans la base. Dans le domaine scientifique, le même mouvement est à l’ordre du jour. On a d’abord assisté à une première étape incitant les chercheurs à donner accès au sein de bases ouvertes aux données produites par leurs enquêtes ou leur manipulations expérimentales et faisant l’objet d’exploitations dans les publications scientifiques. Si cette idée semble évidente à première vue et de manière théorique, sa mise en oeuvre pose tout un ensemble de problèmes concrets dans de nombreuses disciplines. Le mouvement open data va cependant aujourd’hui plus loin et renverse la perspective : il ne s’agit plus seulement de produire une théorie - un discours explicatif - rendant compte de données ouvertes, mais bien plutôt de laisser les données produire leur propre théorie pour ainsi dire sui generis. C’est tout à fait le sens de l’initiative Culturomics [[Guillaud, Hubert. “Culturomics : Comprendre les “lois” de la culture - La Feuille - Blog LeMonde.fr.” La Feuille, Décembre 17, 2010. http://lafeuille.blog.lemonde.fr/2010/12/17/culturomics-comprendre-les-lois-de-la-culture/. ]] qui propose aux chercheurs mais aussi à tout un chacun une interface de recherche de fréquence sur l’ensemble du corpus numérisé au sein de Google books. L’article publié dans Science par plusieurs chercheurs[[Michel, Jean-Baptiste, Yuan K Shen, Aviva P Aiden, Adrian Veres, Matthew K Gray, The Google Books Team, Joseph P Pickett, et al. “Quantitative Analysis of Culture Using Millions of Digitized Books.” Science (Décembre 2010). http://dx.doi.org/10.1126/science.1199644.]] et présentant ce nouveau service est tout à fait significatif : il ne porte aucune théorie forte, aucune proposition ni hypothèses particulière : il montre plusieurs types d’interactions avec une base de données qui livre des réponses statistiques à un ensemble de questions spontanées. Comme dans le cas de l’open data dans ses dimensions politiques et journalistiques, son équivalent scientifique donne une importance secondaire au discours et place la donnée au centre. Il est certainement frappant de voir à quel point ce triomphe de la donnée, la dissolution du discours que l’on peut constater dans ces initiatives, s’accompagne pourtant dans le même temps d’une évolution exactement inverse, qui sacralise le discours dans sa forme la plus éloignée de la donnée : la narration. Le phénomène du story telling qui touche lui aussi tous les secteurs, représente la double inversé de l’open data puisqu’il enfouit la donnée factuelle dans le défilement de l’histoire syntagmatique. Bien documentée par le célèbre ouvrage de Christian Salmon[[Salmon, Christian. Storytelling : La machine à fabriquer des histoires et à formater les esprits. Editions La Découverte, 2008. ]], la technique de story telling vise à la fois à provoquer l’adhésion de celui pour qui elle est déployée et en même temps à anesthésier son sens critique. Ce n’est plus l’exactitude mais la séduction qui est érigée en vertu cardinale. Entre l’open data d’un côté et le story telling de l’autre, c’est finalement une certaine tradition rhétorique qui semble vouée à la disparition par écartèlement : construite en effet sur une collusion forte, sur un mélange presque indissociable des éléments factuels (l’invention) et des agencements qui les organisent les uns par rapport aux autres (la disposition), elle portait jusqu’à présent une certaine manière de construire une représentation partagée, socialisée du monde. Sa disparition programmée signifie une disjonction radicale entre la “réalité” d’un côté, placé du côté du factuel indépendant de sa représentation ou perception, et des relations sociales de l’autre résolument placées sous le signe de l’artifice séducteur et hypnotique. Cette évolution peut être vue comme congruente avec l’affaiblissement des institutions et de toutes les formes de médiation, phénomène bien caractéristique de notre époque. A moins que. A moins que le dissolution ne soit qu’un moment de transition, la chute d’un ordre rhétorique lié à un mode obsolète d’organisation de la société et non la disparition de toute rhétorique possible. Trois exemples peuvent être évoqués qui illustrent bien comment une “renaissance rhétorique” est peut-être en train de poindre, poussant avec elle la reconstruction d’un nouvel ordre du discours établi sur de nouvelles bases. Le premier exemple est le travail qui est en train d’émerger sur la notion de visualisation de données. Tandis que des ouvrages de référence commencent à être publiés sur le sujet, que d’excellents blogs font état des dernières recherches en la matière[[Andrew Vande Moere. « Information Aesthetics », s. d. http://infosthetics.com/. ]], ou que des artistes du numérique en explorent les possibilités multiples[[Harris, Jonathan, et Sep Kamvar. We Feel Fine: An Almanac of Human Emotion. 1er éd. Scribner Book Company, 2009. ]], plusieurs observateurs commencent à évoquer un “journalisme de données” dont le travail consisterait en grande partie à concevoir à la fois des modes de représentation, de visualisation des données, mais aussi des interfaces d’accès aux données qui soient satisfaisants pour le public[[Bradshaw, Paul. « How to be a data journalist ». The Guardian, octobre 1, 2010. http://www.guardian.co.uk/news/datablog/2010/oct/01/data-journalism-how-to-guide. ]]. D’un certain point de vue, l’ensemble de ces travaux que l’on rassemble désormais sous la bannière de la “curation de données” peut être vu comme la construction d’une rhétorique d’un nouveau genre - rhétorique dont il reste d’ailleurs à inventorier les figures et qui attend sans doute son Gradus. De manière un peu décalée mais finalement très liée, la question de la représentation des données en science manifeste des évolutions récentes similaires. Le triomphe de la donnée au détriment du discours interprétatif pourrait s’apparenter dans le champ des sciences humaines et sociales à la domination de sciences sociales “naturalistes”, “objectivantes”, sur des sciences humaines placées sous le signe de l’herméneutique. Or, c’est justement à partir d’une réflexion sur la représentation des données que l’apport des sciences humaines et de leur souci singulier de la représentation subjective des acteurs est réintroduit dans le nouveau contexte. C’est ce qu’a brillamment démontré Johanna Drucker dans une conférence organisée par le MIT[["Johanna Drucker : Humanistic Approaches to the Graphical Expression of Interpretation". MIT World, 2010. http://18.9.60.136/video/796.]] lorsqu’elle montre par exemple comment, en histoire, on peut concevoir des modes de représentation des données qui rendent justice à la perception subjective que les acteurs pouvaient avoir de la situation décrite. Le triomphe de la donnée pourrait dont s’accompagner de manière un peu paradoxale de la reviviscence de la question sémiotique, et finalement, herméneutique, via la question de sa représentation qui est loin d’être évidente. Partant d’un autre point de vue, le sociologue Dominique Cardon pose au mouvement de l’open data dans sa globalité une question similaire[[Dominique Cardon, “Zoomer ou dézoomer? Les enjeux politiques des données ouvertes » Article »,” OWNI, Digital Journalism, Février 21, 2011, http://owni.fr/2011/02/21/zoomer-ou-dezoomer-les-enjeux-politiques-des-donnees-ouvertes/. ]] : la mise à disposition des données ne résout en rien la question de la nature des données qui vont être exploitée, et finalement de la focale qui va être privilégiée par l’analyse : l’individu ou l’agrégat ? Drucker et Cardon disent presque la même chose : la notion de donnée est dépendant du regard qui la constitue, l’agrège, l’exploite et la représente. Pour revenir sur un terrain moins pointu, on pourra terminer ce tour d’horizon par le signalement d’un nouveau service, lancé ces derniers jours en bêta publique. Significativement appelé Storify[[Gahran, Amy. « Storify launches public beta: Curation is a core news skill ». Knight Digital Media Center, avril 28, 2011. http://www.knightdigitalmediacenter.org/leadership_blog/comments/20110428_storify_launches_public_beta_curation_is_a_core_news_skill/ ]], ce service en ligne qui se situe dans la lignée du Web 2.0 doit permettre à tout internaute de piocher divers documents sur Internet et les plateformes de réseaux sociaux pour les agencer ensemble au sein d’une trame narrative construisant une “histoire”. Devenu rhapsode, l’internaute est donc appelé à “coudre” les données ensemble pour produire une trame textuelle au sein de la myriade de documents disponibles. C’est ici le Web tout entier dans ses différentes composantes qui est mobilisé comme base de données ; mais il l’est dans la perspective d’une production généralisée de discours ouverte à tous et exercée dans des conditions bien différentes de ce qui était connu jusque-là. Le simple fait qu’une telle offre existe peut-être la manifestation d’un retour au discours après une courte période de réduction à la donnée. L’avenir dira si Storify rencontre les usages espérés. Car le mouvement open data ne peut échapper à la question que doivent affronter toutes les innovations : celle de son adoption par le plus grand nombre [[Michael Gurstein, “Open data: Empowering the empowered or effective data use for everyone?,” First Monday 16, no. 2 (Février 7, 2011), http://www.uic.edu/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/3316/2764. ]]. Or celle-ci ne peut se faire que si les données trouvent moyen de nourrir l’activité de production symbolique des utilisateurs ; autrement dit si elles font sens pour eux et s’articulent à une activité discursive socialisée dont on voit mal comment toute société pourrait se passer.
2011-05-01 15:21:06
C’était la fin des années 90. A l’époque, le grand public découvrait effaré un nouveau monde ; c’était le monde d’Internet avec ses promesses et ses menaces. En ce temps-là, on préfixait à peu près tous les mots avec un e- comme « electronic ». On parlait d’e-books, d’e-démocratie, d’e-cartes, d’e-gouvernement, d’e-journal et d’e-zine. Dans ces années, on pensait qu’il s’agissait d’un autre monde, radicalement différent de celui que nous connaissons et qui échappe à toutes ses lois. On parlait de « zone de non-droit », de « far west » qu’il allait bien falloir finir par réguler. A l’époque, une flopée de jeunes entrepreneurs se lançaient à l'assaut du nouvel Eldorado, qualifié de « nouvelle économie ». Ces « entreprenautes » intrépides proposaient des services en ligne tous plus improbables les uns que les autres et contribuaient à alimenter une bulle spéculative de grande ampleur qui allait éclater quelques années plus tard. Depuis l’époque des e-quelque chose, plus de dix ans se sont écoulés. Les usages des technologies numériques en réseau ont explosé dans la plupart des pays et touché des pans entiers de la population. Depuis cette époque, le sociologue Barry Wellman a publié un livre essentiel, The Internet in everyday life[[Barry Wellman et Caroline A. Haythornthwaite, The Internet in everyday life (Wiley-Blackwell, 2002).]], qui met en évidence l’intrication croissante de ce qu’on considérait auparavant comme relevant de deux univers séparés. Depuis cette époque, le réseau est devenu ubiquitaire grâce à la 3G ; on y accède de partout et à tout moment via les téléphones portables ; il est utilisé par des centaines de millions d’individus de tous âges et de toutes conditions pour communiquer, échanger informations et sentiments, s’exprimer, mobiliser l’opinion publique, organiser des actions collectives. Discours présidentiel Pour l’ouverture du sommet « e-G8 » donc, qu’il organisait la semaine dernière, Nicolas e-Sarkozy a prononcé un discours manifestant de manière éclatante l’état de sa réflexion sur le sujet[[Welcome / Opening Keynote & Discussion, 2011, http://www.youtube.com/watch?v=TsAQHIFFvAY&feature=youtube_gdata_player.]]. Pour le Président de la République, Internet est d’abord un « marché », vecteur de croissance et riche d’opportunités économiques. La plupart des observateurs ont remarqué la surreprésentation des chefs d’entreprise parmi les invités de l’e-G8 : Maurice Lévy, l’hôte de cette manifestation pour Publicis, Mark Zuckerberg avec Facebook[[Closing conversation, 2011, http://www.youtube.com/watch?v=Gy0bq9FAJRs&feature=youtube_gdata_player.]], Eric Schmidt et Google, parmi beaucoup d’autres, au détriment de la société civile. Ce faisant, le président français se situait dans la continuité du Conseil National du Numérique qu’il a installé quelques semaines plus tôt[[Stéphane Long, « Le Conseil national du numérique oublie les internautes », 01net.com, avril 27, 2011, http://www.01net.com/www.01net.com/editorial/532070/le-conseil-national-du-numerique-oublie-les-internautes/?r=/rss/actus.xml.]]. Prenant la suite du Forum des Droits de l’Internet créé en 2001 par Lionel Jospin et qui se voulait une plateforme de discussion permettant aux différents acteurs de l’Internet - entreprises, utilisateurs, puissance publique - de s’exprimer dans leur diversité[[Pierre Mounier, « FDI : un forum à haut risque », Text, Homo Numericus, février 25, 2011, http://homo-numericus.net/spip.php?article62.]], le tout nouveau Conseil du Numérique est, lui, exclusivement composé d’entrepreneurs. Conseil du Numérique et e-G8 relèvent de la même pensée présidentielle : Internet est un phénomène exclusivement économique d’où tout enjeu démocratique ou social est absent. Les questions de censure, de liberté d’expression et de protection de la vie privée ont donc été soigneusement évitées tout au long des deux jours au cours duquel le sommet s’est déroulé, provoquant une prise de position très critique de la CNIL[[« La protection de la vie privée absente de l’e-G8 : oubli ou rejet ? », CNIL - Commission nationale de l’informatique et des libertés, mai 24, 2011, http://www.cnil.fr/la-cnil/actu-cnil/article/article/la-protection-de-la-vie-privee-absente-de-le-g8-oubli-ou-rejet/.]]. Internet civilisé Pour Nicolas Sarkozy, Internet est par ailleurs un espace nouveau qui doit être soumis à une politique de « civilisation ». Cet « Internet civilisé » qu’il réclame à grand cris et qui constitue l’horizon de sa politique en la matière, dessine en creux la manière dont il perçoit les échanges qui s’y déroulent aujourd’hui. L’Internet « non-civilisé » - sauvage ? barbare ? - qui lui fait peur échapperait au contrôle des États et à la loi commune. Dans ce grand mouvement rhétorique de l’Internet civilisé, il considère donc comme nul et non avenu plusieurs années de législations et de jurisprudence dans la plupart des pays sur le sujet. Finalement, c’est sur deux sujets essentiellement qu’il s’agit pour lui de « civiliser » l’Internet : la pédopornographie et le droit d’auteur. Derrière ces deux sujets, apparemment disjoints, c’est la mise en place d’une mesure de contrôle particulière que défend en réalité le Président : il s’agit du filtrage technique des sites web, considéré par le gouvernement français comme un moyen efficace de contrôler le réseau.. Or, ce type de mesure, mis en oeuvre depuis de nombreuses années par des régimes autoritaires comme la Chine ou la Tunisie de Ben Ali, et en train de l’être en France [par l’intermédiaire de la loi Loppsi 2->http://www.senat.fr/dossier-legislatif/pjl09-292.html], est considéré par de nombreuses associations comme une atteinte inadmissible à la liberté d’expression. C’était d’ailleurs le sens de l’intervention du journaliste américain Jeff Jarvis, lui demandant quelques minutes après son discours, de ne pas « faire de mal à Internet » au nom de la lutte contre le piratage. Même réaction du côté de John Perry Barlow, invité surprise de la table-ronde sur le droit de propriété intellectuelle, qui a déclaré « avoir peur de ceux qui ont peur d’Internet »[[Plenary IV: Intellectual Property and the Culture Economy in the Digital Age, 2011, http://www.youtube.com/watch?v=HyOOOOPAfqw&feature=youtube_gdata_player.]]. Mais ce n ‘est pas tant sur les contenus que le discours présidentiel aura été le plus original que sur le positionnement énonciatif qui le structurait. Ce discours aura en effet été marqué par une opposition constante entre un « vous » (les gens de l’Internet) et un « nous » très indéfini, pour le moins révélatrice. Car cette opposition pronominale montrait bien à chaque détour de phrase à quel point la pensée du chef de l’Etat est marquée par cette appréhension d’Internet qui était la norme au siècle dernier, comme un monde étrange, prometteur, dangereux, en tout cas autre, en opposition avec ce qu’il appelait à d’autres moments la « vie réelle », c’est-à-dire sans Internet « Nous », « Vous »...et eux. Plus profondément, c’est sur la définition de ce « nous » que repose la plupart des enjeux révélés par ce e-sommet. Car de qui parle Nicolas Sarkozy lorsqu’il dit « nous » ? Parle-t-il, toujours dans la perspective de cette opposition entre deux mondes, de l’ensemble de la population, celle qui selon lui agit dans la « vie réelle » et donc hors d’Internet ? ou bien évoque-t-il plus simplement les chefs d’Etat du G8 auprès de qui il se propose de de porter le message des entreprenautes et qui, c’est certain, hormis peut-être Barack Obama, fréquentent assez peu les espaces numériques ? C’est dans l’interstice de cette ambiguïté que résidait finalement l’enjeu politique profond de cet étrange sommet. Qui représente le mieux les « vrais gens » de la « vie réelle » ? Un président élu une fois tous les cinq ans à l’issue d’un show médiatique et d’un jeu sophistiqué au sein d’une classe politique professionnelle assez peu légitime aux yeux des citoyens eux-mêmes ? ou le créateur d’un réseau social qui compte des centaines de millions d’utilisateurs, dont la plateforme est devenu un lieu de sociabilité quotidien voire permanent pour toute une partie de la population ? un homme politique populaire en qui beaucoup de Français se sont projetés un temps avant de le détester ? ou le PDG multimillionnaire d’un empire sorti de terre en quelques années ? Difficile à dire... C’est finalement à un face-à-face du Pouvoir et de l’Argent que l’on a assisté cette semaine aux Tuileries. Et entre les deux mondes, la société civile, l'ensemble des utilisateurs quotidiens d’Internet et citoyens soumis aux lois que l’on décide souvent sans eux, avaient bien du mal à faire entendre leur voix. Une tentative a bien été lancée, lors d’une conférence de presse improvisée pour le moins salutaire, organisée par la célèbre association de défense des libertés numériques La Quadrature du Net[[eG8: Improvised press conference of the civil society - Wednesday, May 25th 2011, 2011, http://www.youtube.com/watch?v=tP5K0Ifvizs&feature=youtube_gdata_player.]]. Il revient finalement à Lawrence Lessig d’avoir résumé la situation de la manière la plus frappante en déclarant que l’avenir d’Internet n’avait pas été invité à ce sommet[[« Un «contre eG8» dénonce la mise en scène du forum Internet du gouvernement », s. d., http://www.zdnet.fr/actualites/un-contre-eg8-denonce-la-mise-en-scene-du-forum-internet-du-gouvernement-39761132.htm#xtor=RSS-1.]]. Comme le souligne à juste titre Alex Howard, c’est en effet bien plutôt, semble-t-il, son passé qui en hantait les travées[[Alex Howard, « At the eG8, 20th century ideas clashed with the 21st century economy », O’Reilly Radar, mai 27, 2011, http://radar.oreilly.com/2011/05/eg8-2011-internet-freedom-ip-copyright.html.]].
2011-05-28 12:55:24
Le moins que l'on puisse dire est que le livre d'Alban Martin, paru en 2010 tombe aujourd'hui à pic. Car des indignados espagnols aux "émeutiers" anglais en passant par les révoltés grecs de la place Syntagma et la défiance des marchés financiers, tout indique aujourd'hui, comme ce livre en fait la démonstration, qu'une certaine forme de démocratie représentative arrive à bout de souffle. Peu efficace, peu légitime, incapable de fournir des réponses efficaces dans un contexte incertain et en mouvement rapide, le système politique actuel, qui s'est constitué il y a deux siècles sur la base d'idées qui en ont trois arrive certainement à la fin d'un cycle historique. Comme l'a dit Daniel Cohn-Bendit de manière symptomatique il y a quelques jours à propos de la rencontre de crise entre les deux chefs d'Etat français et allemands : "La parole de nos gouvernants est triple zéro". Cette dévalorisation manifeste de la parole politique et du système de gouvernance entraîne la nécessité, selon Alban Martin, de penser et mettre en place de "nouvelles technologies politiques". La société est [<img2189|left>->http://www.amazon.fr/gp/product/2916571450/ref=as_li_ss_tl?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=19458&creativeASIN=2916571450]en effet en train de se transformer à grande vitesse sous l'effet ou en accompagnement du développement de ces technologies numériques qui impactent tous les domaines de la vie sociale : l'économie, l'information, la culture et les relations interpersonnelles. Dans ces conditions, il semble difficile que le monde politique reste à l'écart de ce que l'auteur considère comme une révolution globale. Mais ce slogan appelant à "de nouvelles technologies politiques" est trompeur. Il pourrait laisser croire qu'il suffit d'ajouter quelques dispositifs de consultation par Internet aux mécanismes actuels de fabrication de la loi, quelque forum en ligne, quelque sondage web ou autres pages Facebook attachée à tel parti ou homme politique, pour donner un coup de jeune à notre vieux système parlementaire. C'est une idée fausse bien entendu, qu'Alban Martin dénonce vigoureusement dans son livre en mettant en évidence le caractère artificiel de ces initiatives, pauvres gadgets qui ne parviennent plus à faire illusion. Pour l'auteur d'Egocratie et démocratie, l'utilisation de ce type d'outils ne peut se faire qu'au sein d'un cadre politique rénové, profondément différent de celui actuellement à l'oeuvre. Comment définir ce nouveau cadre ? Sur quelles bases théoriques l'asseoir ? De manière un peu paradoxale et assez surprenante, Alban Martin ne le déduit pas pourtant immédiatement des nouvelles formes de sociabilité qu'engendrent les nouvelles technologies et en particulier les médias sociaux, ce qu'il propose de qualifier d'"egocratie" à la suite de Michel Serres. Car celles-ci, qui poussent à l'extrême l'expression individuelle des idées et aspirations de chacun, sont incapables de fabriquer, en soi, une volonté générale. Produisant mécaniquement un faisceau divergent d'opinions individuelles, elles ne peuvent se passer d'autres formes de médiation politique, dont le rôle est justement de parvenir à formuler des propositions communes pertinentes pour l'ensemble de la société. Pour définir le cadre dans lequel peuvent prendre place ces nouvelles technologies politiques qu'il appelle de ses voeux, Alban Martin puise à deux sources d'inspiration : il s'agit tout d'abord, et c'est assez attendu, de la tradition popularisée en France par Callon, Lascoumes et Barthes qui dans leur Agir dans un monde incertain paru en 2001, posent les bases de ce qu'ils appellent la "démocratie technique" : les enjeux techno-scientifiques que doivent affronter les sociétés développées (nucléaire, biotechnologies, nanotechnologies, changement climatique) sont désormais trop complexes pour recevoir des réponses satisfaisantes dans les cadres de concertation démocratique traditionnels. Prenant exemple notamment des conférences citoyennes expérimentées avec succès dans les pays scandinaves, les auteurs de cet ouvrage proposent de nouveaux mécanismes de fabrication d'un consensus démocratique "éclairé", qui s'appuient sur une expertise citoyenne désormais mieux partagée et qui doit faire entendre sa voix. Pour étayer sa proposition, Alban Martin, s'inspire aussi, et c'est plus étonnant, d'un autre modèle, issu cette fois-ci du monde marchand : les entreprises remarque-t-il ont dû s'adapter depuis plusieurs années aux transformations des relations que leurs clients établissent avec elles, leurs produits, leurs services. Cette relation est marquée par une interactivité plus grande qui produit cinq valeurs ajoutées à la relation marchande telle qu'elle était pratiquée jusque là : ces apports concernent la prédictibilité (du comportement des consommateurs), la cognition (via le crowdsourcing en particulier), l'utilité (amélioration d'un produit voire élargissement de son spectre d'usages), l'agilité (raccourcissement des cycles de production et de correction d'erreurs) et enfin, la légitimité. Ces évolutions que l'auteur identifie comme venues du monde marchand sans vraiment le démontrer d'ailleurs, il propose de les appliquer purement et simplement au monde politique....non sans quelques difficultés bien évidemment. La principale de ces difficultés tient à la déconnexion relative des deux espaces publics, numérique et physique. Ce qui s'exprime dans le premier est peu ou mal reconnu par le monde politique classique. D'où l'impression d'une relative inefficacité des mobilisation numériques dont la traduction politique réelle a bien du mal à émerger (c'est le constat que fait d'ailleurs Dominique cardon dans La Démocratie Internet. Promesses et limites). Alors donc, quelles sont maintenant les propositions concrètes qui permettraient de surmonter le découplage des deux espaces ? Alban Martin suggère un certain nombre de pistes en suivant les principes des cinq "valeurs ajoutées" qu'il a identifiées dans les mutations du monde marchand. Il s'agit donc de "favoriser l'agilité" du processus législatif en captant les "signaux faibles" de mécontentement et de mutation de l'opinion publique mais aussi des multiples innovations qui surgissent sur différents sujets. Il s'agit ensuite de "développer l'utilité" en donnant aux citoyens de l'information à la fois sur les conséquences de leur comportement individuel et sur la manière dont ils se positionnent par rapport à leurs concitoyens. C'est ici la très classique théorie des boucles de rétroaction qui est exploitée. Et ce sont justement les nouvelles technologies qui permettent aujourd'hui d'informer chacun quasiment en temps réel sur la destination de sa contribution fiscale (ce qui en accroît le sentiment d'utilité) ou sur les conséquences de sa consommation énergétique. Il s'agit enfin d'augmenter les connaissances à la fois en informant plus complètement les citoyens sur les dossiers les plus complexes (et c'est ici que prend sens le mouvement pour l'open data par exemple qui redéfinit par ricochet le rôle du journaliste) et en même temps en ouvrant le champ de la consultation à l'expertise citoyenne, qui vient des individus ou des groupes les plus concernés par des décisions dans tel ou tel domaine. Alban Martin a bien raison de clore son argumentation sur la question essentielle de la légitimité parce que c'est là que se situe le noeud de la question. Car la légitimité démocratique n'émane plus aujourd'hui seulement de la construction de majorités globales sur tous les sujets, mais bien plutôt par la prise en compte de points de vue experts et spécialisés sur des sujets particuliers et c'est sans doute là que réside la mutation politique la plus importante de notre époque. Or cette mutation nécessite effectivement pour être appréhendée dans les meilleures conditions la mise en oeuvre de "nouvelles technologies politiques" ou ce que nous pourrions aussi appeler une ingénierie démocratique relativement sophistiquée qui s'appuie massivement sur Internet et les technologies numériques de l'information et de la communication sans pour autant, et c'est là toute la difficulté, s'y réduire. [Martin, Alban. 2010. Egocratie et Démocratie. FYP éditions. 223 p.->http://www.amazon.fr/gp/product/2916571450/ref=as_li_ss_tl?ie=UTF8&tag=homonumericus-21&linkCode=as2&camp=1642&creative=19458&creativeASIN=2916571450]
2011-08-21 11:15:07
Lorsqu’Hubert Guillaud, rédacteur en chef d’Internet Actu pose la question de l’utilité des humanités numériques dans un billet du blog qu’il anime sur l’édition numérique, La Feuille, il fait mouche. Après avoir montré à quel point ce secteur était en plein développement, il remarque cependant qu’il est parfois peu aisé d’en appréhender les retombées positives : « [En tant que non-spécialiste, on a du mal à voir, à saisir l’apport de cette nouvelle forme de science, au-delà de ce qu’elle apporte pour le chercheur. On constate bien dans le Manifeste des Digital Humanities, qu’il y a d’abord cette volonté de faire communauté autour de l’intégration de la culture numérique dans les pratiques de recherche d’aujourd’hui. (...) On est beaucoup dans la structuration d’une discipline, alors qu’on souhaiterait surtout comprendre ce que ces outils apportent concrètement->http://lafeuille.blog.lemonde.fr/2010/07/22/quapportent-les-digital-humanities/] » [[Hubert Guillaud, « Qu’apportent Les Digital Humanities ? », La Feuille, 2010 http://lafeuille.blog.lemonde.fr/2010/07/22/quapportent-les-digital-humanities/ [consulté 28 août 2011].]]. Écrit il y a un peu plus d’un an, ce billet commence à se voir apporter quelques éléments de réponse, preuve s’il en fallait, que du temps est nécessaire à toute évolution scientifique pour porter ses fruits et les rendre visible en dehors des milieux de la recherche professionnelle qui la porte. On reconnaîtra dans les récents investissements de Google sur ce secteur un des signes les plus évidents que quelque chose d’important est en cours. L’appel à proposition que cette société a publié l’année dernière l’a conduit à [ financer douze projet de recherche en digital humanities->http://googleblog.blogspot.com/2010/07/our-commitment-to-digital-humanities.html][[Jon Orwant, « Our Commitment to the Digital Humanities », Official Google Blog, 2010 http://googleblog.blogspot.com/2010/07/our-commitment-to-digital-humanities.html [consulté 28 août 2011].]]. L’outil [Books Ngram viewer->http://ngrams.googlelabs.com/] a fait plus de bruit : il permet à tout un chacun de mesurer et de comparer le nombre d’occurrences de termes quelconques dans l’énorme corpus d’ouvrages numérisés par le programme Google books. Cet outil doit permettre de visualiser l’évolution dans le temps de la « popularité » d’une notion à partir de la fréquence avec laquelle il est évoqué dans les publications du monde entier. Un article publié par une équipe de chercheurs dans le magazine Science [[Jean-Baptiste Michel et al., « Quantitative Analysis of Culture Using Millions of Digitized Books », Science, 2010 <doi :10.1126/science.1199644>.]] a tenté de donner une illustration de ce que les recherches en sciences humaines pouvaient tirer de l’utilisation de cet outils : il s’agit de rendre visible les « [culturomics->http://www.culturomics.org/] », les lois de la culture, rien de moins. Emeutes et réseaux sociaux Deux exemples plus récents viennent apporter un éclairage un peu différent et peut-être un peu plus novateur, sur ce que peuvent apporter les digital humanities en dehors des milieux professionnels de la recherche. Le premier d’entre eux est lié aux émeutes qui se sont déroulées à Londres entre le 6 et le 9 août de cette année. Ces événements aussi violents que soudains ont provoqué un électrochoc dans la classe politique britannique. La réaction venant de celle-ci, et en particulier du Premier Ministre ne s’est pas faite attendre : violente elle aussi, et essentiellement répressive, elle s’est placée uniquement sur la plan de la responsabilité - pénale- individuelle, écartant tout élément d’analyse qui puisse être social ou même collectif. En l’absence de facteur explicatif de nature sociale, une fois épuisé le renvoi pur et simple à l’absence de moralité des individus, c’est souvent la technologie qui est mise en cause. La presse britannique et les responsables politiques ont en effet [rapidement accusé les systèmes de messagerie instantanée et les réseaux sociaux->http://www.telegraph.co.uk/news/uknews/crime/8687432/How-technology-fuelled-Britains-first-21st-century-riot.html] parce qu’ils auraient permis aux ’émeutiers’ de se coordonner et d’échapper à l’action de la police[[Matthew Holehouse, « How Technology Fuelled Britain s First 21st Century Riot », The Telegraph http://www.telegraph.co.uk/news/uknews/crime/8687432/How-technology-fuelled-Britains-first-21st-century-riot.html [consulté 28 août 2011].]]. [La condamnation de deux d’entre eux à quatre ans de prison pour avoir lancé un appel sur Facebook->http://www.01net.com/editorial/537504/quatre-ans-de-prison-pour-incitation-aux-emeutes-sur-facebook/][[Stéphane Long, « Quatre Ans De Prison Pour Incitation Aux Émeutes Sur Facebook », 01net, 2011 <http://www.01net.com/editorial/537504/quatre-ans-de-prison-pour-incitation-aux-emeutes-sur-facebook/> [consulté 28 août 2011].]], quoique non suivi d’effet, est venu corroborer cette opinion. Et les conséquences politiques en découlent naturellement : ils s’agira lors de prochains événements de permettre à la police de couper temporairement les communications par voie électronique sur une zone donnée.C’est sur ce point d’analyse précis que quelques jours seulement après les événements, deux chercheurs en sciences sociales ont publié un article démentant catégoriquement les analyses avancées par les politiques. Dans [cet article->http://papers.ssrn.com/sol3/papers.cfm ?abstract_id =1909467] intitulé « Why Net Censorship in Times of Political Unrest Results in More Violent Uprisings : A Social Simulation Experiment on the UK Riots » [[Antonio A. Casilli et Paola Tubaro, « Why Net Censorship in Times of Political Unrest Results in More Violent Uprisings : A Social Simulation Experiment on the UK Riots », SSRN eLibrary, 2011 http://papers.ssrn.com/sol3/papers.cfm ?abstract_id =1909467 [consulté 28 août 2011].]], Antonio Casilli et Paola Tubaro mobilisent à la fois un modèle théorique et un outil de simulation sur ordinateur pour tester la proposition de Cameron : les réseaux sociaux ont amplifié les émeutes, couper les communications permettra de réduire l’ampleur de futures émeutes. Or, la « simulation sociale » qu’ils mettent en oeuvre, en modifiant la variable communication (renommée « vision » dans leur modèle) montre exactement le contraire : dans les situations de communication libre, on assiste sur une certaine durée de temps à de violentes mais brèves éruptions insurrectionnelles dans certaines circonstances. Dans des situations où la communication est coupée, les émeutes ont tendance à se prolonger indéfiniment sur un palier sans retour à la normale. « Just in time sociology » Mais l’originalité de la démarche des deux chercheurs réside aussi dans la stratégie de communication qu’ils utilisent pour faire connaître leur travail. Soumis à une revue de sociologie, l’article est rendu immédiatement disponible sur l’archive ouverte SSRN où elle atteint en quelques jours la tête de classement des articles les plus téléchargés. Une version légèrement différente est dans le même temps postée sur les blogs personnels d’Antonio Casilli et de Paola Tubaro, d’où il sera repris dans de nombreux médias et traduit en plusieurs langues à la vitesse de l’éclair à partir de l’anglais. Ainsi une version française est publiée [sur le magazine en ligne ->http://owni.fr/2011/08/19/censure-reseaux-sociaux-londres-cameron-ukriots/] [Owni->http://owni.fr/2011/08/19/censure-reseaux-sociaux-londres-cameron-ukriots/] le 19 août[[Antonio A. Casilli et Paola Tubaro, « Censure Des Médias Sociaux : Éléments Pour Une Sociologie Des Émeutes Britanniques » , OWNI, Digital Journalism, 2011 http://owni.fr/2011/08/19/censure-reseaux-sociaux-londres-cameron-ukriots/ [consulté 28 août 2011].]]. L’article sera repris, cité et discuté dans de nombreux médias à partir de ce moment. On le voit, l’originalité de la démarche des deux sociologues réside autant dans le tempo de leur publication que dans la méthode mise en oeuvre. L’ensemble repose sur le principe de la rapidité. Il s’agit, écrit Antonio Casilli de ’just in time sociology’ dont on voit tout l’intérêt : il s’agit de répondre aux critiques que la classe politique et les responsables policiers, cités en début d’article, adressent aux sciences sociales en général : elles obéissent à un temporalité longue déconnectée de l’urgence de la situation et s’intéressent d’avantage à « comprendre » (lire justifier) les émeutiers plutôt que les combattre. L’article démontre au contraire que les sciences sociales peuvent éclairer l’action politique sur un point précis au moment où elle en a besoin, et, en utilisant les mêmes moyens de communication qu’elle, participer en temps réel au débat public. Le cinéma du chaos : une critique Autre exemple, récent lui aussi, mais sur un tout autre sujet. Il y a quelques jours, Matthias Stork, étudiant en études cinématographiques a publié sur le blog collectif Press Play [une virulente critique des dérives les plus récentes du cinéma contemporain->http://blogs.indiewire.com/pressplay/archives/video_essay_matthias_stork_calls_out_the_chaos_cinema/#]. Or, cette critique a pris la forme, non d’un article, ni même d’un billet rédigé ou d’un éditorial, mais d’une vidéo publiée en deux parties via la plateforme Vimeo[[Matthias Stork, »Chaos Cinema : « The Decline and Fall of Action Filmmaking » , 2011 http://blogs.indiewire.com/pressplay/archives/video_essay_matthias_stork_calls_out_the_chaos_cinema/# [consulté 28 août 2011].]]. Le propos du jeune chercheur est simple : la manière dont le cinéma populaire contemporain filme les scènes d’action en particulier n’obéit plus à aucune logique rationnelle ou narrative qui permette au spectateur de suivre et comprendre l’action qu’il est en train de regarder, mais à la volonté d’anesthésier son jugement en l’écrasant sous un flot démentiel et chaotique, un véritable déluge de violence et d’effets spéciaux. Ce phénomène, qu’il appelle « cinéma du chaos » a envahi la plupart des films d’action, mais pas seulement puisqu’il montre qu’on le retrouve aussi dans le genre de la comédie musicale. C’est ici le support de publication qui est intéressant : ce qui est présenté par Stork comme un « essai vidéo » est constitué exclusivement de dizaines d’extraits de films de différents genres et différentes époques que l’auteur commente en voix off. La démonstration de son argumentation repose dans les extraits choisis et leur juxtaposition. Alors que bon nombre de publications académiques dans ce domaine le sont encore au sein de revues imprimées accompagnées dans le meilleur des cas de photos fixes de scènes de films dont est fait le commentaire, on voit que le chercheur franchit plusieurs étapes d’un coup en adoptant un format similaire à l’objet qu’il étudie. C’est un des effets les plus importantes des digital humanities que de permettre de convoquer directement les sources de la recherche, qu’elles aient été numérisées ou qu’elles soient, comme ici, nativement numériques, dans les publications en ligne. Stork va ici plus loin puisque l’argumentation s’efface en voix off derrière le matériau lui-même qui accède au statut de preuve scientifique essentiellement du fait du montage qui en juxtapose les éléments les plus pertinents. Quelles humanités (numériques) ? Les deux exemples qui viennent d’être exposés se situent dans le mouvement des digital humanities non seulement parce qu’il mobilisent des moyens informatiques ou numériques dans le processus même de recherche, mais aussi parce qu’ils établissent une continuité avec les moyens de communication qui sont utilisés pour les disséminer. Ce sont de ce point de vue deux exemples d’un mouvement plus large qui a recours à des outils et des formes de communication en rupture avec celles établies jusqu’à présent par la tradition scientifique. On le voit, c’est le blog qui en est ici le vecteur essentiel, et on pourrait convoquer de nombreux autres exemples qui montreraient qu’il ne s’agit pas ici de cas isolés.[ Le récent colloque organisé à Paris par l’Institut Historique Allemand->http://dhiha.hypotheses.org/25][[Pierre Mounier, « Dans La Toile Des Médias Sociaux / Im Netz Der Sozialen Medien 27 – 28 Juin 2011 », Digital Humanities À l »IHA, 2011 http://dhiha.hypotheses.org/25 [consulté 28 août 2011].]] en a fait la démonstration. Les travaux d’André Gunthert avec la communauté en ligne [Culture Visuelle->http://culturevisuelle.org] et la plateforme [Hypothèses->http://hypotheses.org/] proposée par le Centre pour l’édition électronique ouverte en sont d’autre exemples. Qu’apportent les digital humanities, se demande Hubert Guillaud ?. Si la réponse ne semblait pas évidente jusqu’à présent, c’est d’abord parce qu’il lui manquait une réflexion pratique sur les modes de communication de la recherche en direction de la société à l’heure d’Internet. Les exemples les plus récents d’intervention des sciences humaines et sociales dans le débat public par de nouveaux canaux et sous des formes renouvelées montrent que la situation est en train d’évoluer. Pour autant, ce qui apparaît comme une évolution positive parce qu’elle reconnecte la recherche et la demande sociale, parce qu’elle permet aux sciences humaines et sociales d’être de nouveau entendues à un moment où leur « utilité » est plus que jamais questionnée, en particulier par une classe politique conservatrice dominante en Europe, doit être interrogé. Car on peut se demander si, en s’adaptant au nouveau contexte, à la fois du point de vue des méthodes utilisées, mais aussi de la temporalité de publication et enfin des formes d’exposition, ces disciplines ne changent pas profondément d’objectif et de nature. Il est donc à ce point du raisonnement nécessaire d’examiner à nouveau le dossier, non plus à la lumière de son adaptation contemporaine, mais à celle des traditions intellectuelles qu’ont établi les différentes disciplines des sciences humaines et sociales. C’est ce qui fera l’objet de l’analyse de la semaine prochaine.
2011-08-28 14:47:37
Qu’apportent les Digital Humanities ? Les quelques exemples qui ont été mis en avant [la semaine dernière->http://homo-numericus.net/spip.php?breve1011] [[Mounier, Pierre, ‘Qu’apportent Les Digital Humanities ? Quelques Exemples (1/2)’, Homo Numericus, 2011 http://homo-numericus.net/spip.php?breve1011 [accessed 5 September 2011]. ]] ont montré que cet apport n’était pas négligeable ; et que d’ailleurs, derrière cette question, c’était celle de l’utilité des sciences humaines et sociales tout court qui était posée. Enfermées dans un mouvement de spécialisation toujours plus important, prisonnières de formes de communication inaccessibles au grand public, ces disciplines ont eu peine à faire la démonstration de leur intérêt pour le reste de la société ces derniers temps. La crise de la « Princesse de Clèves » en a été en quelque sorte le témoin ultime. On a vu qu’au-delà de la mise en œuvre de l’utilisation de technologies numériques pour la collecte et l’exploitation des données, l’adoption de nouveaux modes de communication de la recherche et d’interaction avec la demande sociale fait partie intégrante de ce qui constituent aujourd’hui les digital humanities. Et c’est ce qui leur permet de rendre plus accessible des recherches qui seraient autrement inconnues du public. De ce point de vue, elles ne peuvent être considérées comme une sorte de luxe optionnel pour les sciences humaines et sociales, car ces disciplines sont contraintes d’entrer dans le même mouvement que celui qui affecte l’ensemble de la société. C’est sous doute le grand enseignement que l’on peut retirer des outils que développe le[ Center for History and New Media à Washington->http://chnm.gmu.edu/]. Que ce soit avec Zotero, Omeka ou [Pressforward ->http://pressforward.org/] dont on attend le développement avec impatience, ce centre de recherche, d’enseignement et de formation aux Digital Humanities manifeste une volonté constante d’établir des passerelles entre la recherche érudite d’un côté, et l’univers du web grand public de l’autre. On peut y voir un objectif de rétablir une circulation à double sens entre la recherche et la société ; d’un côté cette dernière doit pouvoir accéder aux savoirs sur les lieux et selon les formes auxquelles elle est habituée, et de l’autre les pratiques savantes doivent bénéficier de la plasticité, de la simplicité d’usage qui caractérise les outils grand public. S’il est difficile de contester le caractère positif de ces nouvelles passerelles que les disciplines des sciences humaines et sociales établissent avec leur environnement social, on peut toutefois se demander s’il n’y a pas un risque qu’elles soient aussi absorbées en quelque sorte par cet environnement et sa logique propre. Reprenons les exemples évoqués la semaine dernière. On a déjà eu [l’occasion de le dire->http://homo-numericus.net/spip.php?breve1008] [[Mounier, Pierre, ‘Du Discours Aux Données....et Retour ?’, Homo Numericus, 2011 http://homo-numericus.net/spip.php?breve1008 [accessed 5 September 2011]. ]], hormis les faiblesses méthodologiques évidentes que présentent les travaux construits sur l’exploitation de Google Ngram Viewer, ce qui frappe, c’est à la fois le caractère rudimentaire des analyses avancées et l’effacement à peu près complet du cadre théorique dans lesquelles elles sont constituées. [Comme l’écrit très bien récemment Martin Lafréchoux->http://miettes.hypotheses.org/100], « quand on a sous la main la puissance de Google et la quantité invraisemblable de données qu’il possède, il est un peu dommage de se contenter d’un décompte de n-grammes » [[Lafréchoux, Martin, ‘Lectures D’été : New York Times, Musil Et Léonard | Le Texte En Miettes’ http://miettes.hypotheses.org/100 [accessed 5 September 2011]. ]]. On a le droit d’être un peu sceptique lorsqu’on voit cet outil présenté comme étant quasiment auto-suffisant et utilisé par des chercheurs comme on interroge le sphinx avec l’espoir de pouvoir en déduire les « lois de la culture ». Autrement dit, l’outil fonctionne comme un point de fascination qui semble amoindrir toute construction intellectuelle préalable à son utilisation : Il « suffit » d’interroger Google pour connaître les lois de la culture. Le second exemple à avoir été évoqué, l’article écrit par Antonio Casilli et Paola Tubaro a lui aussi, d’une autre manière, un statut subtilement ambigu. Cet article, rédigé très rapidement après les émeutes et les déclarations du premier ministre britannique qu’il souhaite démentir, apporte effectivement une information supplémentaire et surtout dissonante dans le débat qui commence à se constituer sur le rôle des réseaux sociaux dans les émeutes. Pour autant, cette information est produite dans le même cadre épistémologique que celui de la plupart des autres intervenants de ce débat. Le modèle théorique sur lequel repose le travail de Casilli et Tubaro, le système multi-agents n'est en fait pas si éloigné que celui dans lequel baigne Cameron : celui de l’agent rationnel, centré sur l’individu et faisant abstraction des dimensions sociales, culturelles ou de classe qui peuvent aussi agir sur les comportements individuels et collectifs. C’est d’ailleurs ce qui le rend particulièrement audible et efficace en lui permettant d’échapper à la disqualification a priori que les hommes politiques ont alors adressé aux sciences sociales. Les deux auteurs démentent Cameron en se positionnant sur son propre terrain conceptuel en quelque sorte. Mais leur travail en perd du coup de manière un peu paradoxale toute force critique : il ne propose tout simplement pas un cadre alternatif de compréhension de la réalité sociale mais corrige une affirmation singulière dans un cadre de pensée partagé avec les acteurs politiques dominants. De ce point de vue, le contraste est saisissant avec l’ouvrage publié quelques mois auparavant par le même auteur, qui, dans Les Liaisons numériques[[Casilli, Antonio A., Les Liaisons Numériques : Vers Une Nouvelle Sociabilité ? (Seuil, 2010)]] s’attache avec succès à décrire à comprendre en profondeur, en recourant à des méthodes d’enquête croisées, la manière dont s’établissent de nouvelles formes de sociabilité au sein des réseaux numériques. C’est sans doute un peu la limite de la sociologie « just in time » qui apparaît ici. Ne pouvant prendre le temps d’effectuer une enquête approfondie ni d’exposer les fondements théoriques de sa démarche, elle doit se reposer sur des outils informatiques simulant la réalité au sein d’un cadre conceptuel partagé par tous les acteurs. Mais dans le même temps, elle renonce à proposer une perspective d’une autre nature, autrement plus radicale : celle de proposer une lecture inédite ou alternative de la réalité sociale construite sur une proposition théorique originale et forte. Les « cathédrales théoriques » que produisaient les sciences sociales des décennies précédentes dont la sociologie de la domination de Pierre Bourdieu représente un exemple remarquable ne semblent plus de mise. Sans doute peut-on voir dans cette évolution une des conséquences du changement récent des conditions dans lesquelles s’effectue la recherche, avec la montée en puissance des financements de court terme, sur appel d’offre, voire en liaison de manière plus ou moins explicite avec la commande industrielle. Mais peut-être faut-il aussi y voir la conséquence d’une évolution significative des conditions de communication des résultats de recherche qui doivent être plus rapidement accessibles et selon des formes plus courtes. Dans bien des cas, le passage de l’imprimé au numérique s’est traduit pour l’édition de sciences humaines et sociales par la montée en puissance de la forme article ou contribution à des ouvrages collectifs contre la prééminence de la monographie, puis par l’apparition de formes « très courtes » comme le billet de blog dont certains affirment qu’il est appelé à remplacer à son tour l’article devenu obsolète. On le voit bien, l’arsenal théorique dont Bourdieu s’équipe pour explorer le monde social est difficilement présentable sous forme de billets de blog. Comme on le sait, la forme et le fond sont indissociables. C’est ici le livre dans sa forme la plus traditionnelle qui est le plus adapté à l’exposition d’une théorie sociologique qui n’appartient qu’à son auteur et dont la sophistication a besoin de temps et de place pour s’exposer. Lorsqu’il entreprend sa critique en profondeur de La Distinction, ce n’est ni un site web que propose Bernard Lahire, ni une base de données en ligne ou un graphe social, encore moins un carnet de recherche ou une bibliographie collaborative, mais un ouvrage de presque 800 pages, La Culture des individus [[Lahire, Bernard, La Culture Des Individus : Dissonances Culturelles Et Distinction De Soi (La Découverte, 2004)]], dont la réalisation et la composition ne doivent pas grand-chose à la mobilisation des technologies numériques. Si les promesses des digital humanities provoquent un enthousiasme justifié, les sciences humaines et sociales au prisme du numérique semblent, elles, écartelées entre plusieurs pôles qui peuvent se révéler comme autant d’écueils : d’un côté la fascination pour l’outil qui peut conduire, dans le cas très fréquent des corpus instrumentés à des jeux non contrôlés dont la rigueur et la pertinence n’est pas toujours évidente ; de l’autre, l’adoption de formes d’interventions plus réactives et plus fluides, mais aussi plus fragmentées dont le pouvoir critique risque d’être très affaibli par le cadre médiatique dans lequel il s’insère. Enfin, des constructions théoriques fortes, mais dont le mode d’expression risque de se marginaliser fortement et de perdre de son efficacité parce que très éloigné des lieux et des formes d’échanges très contemporains. Lorsqu’on regarde la manière dont les grandes théories scientifiques se sont établies dans leur champ, on voit comment c’est le plus souvent à la fois en publiant des ouvrages témoins particulièrement marquants, en produisant dans le même temps une instrumentation nouvelle plus efficace pour la conduite de la recherche et en faisant la démonstration de leur intérêt pour leurs contemporains. Il ne semble pas que les Digital Humanities doivent échapper à cette triple exigence.
2011-09-05 15:52:01
On a piraté le droit de propriété intellectuelle. C’est en gros ce qu’affirment 180 professeurs de droits et juristes du monde entier qui se sont rassemblés le mois dernier à la Faculté de Droit de l’Université de Washington et ont conclu leurs travaux par une [déclaration commune->http://infojustice.org/washington-declaration][[‘The Washington Declaration on Intellectual Property and the Public Interest’, 2011 http://infojustice.org/washington-declaration> [accessed 27 September 2011].]]. Que dit cette déclaration ? Tout simplement que les extrémistes du copyright ont étendu au cours des 25 dernières années l’application du droit de propriété intellectuelle à un point qui menace les fondements même de nos sociétés : la liberté d’expression, le droit d’information, la culture, l’éducation et même la santé publique. Autrement dit, c’est le bien public qui est pris en otage par des intérêts privés au nom d’un droit devenu absolu et opposable à tout. Le droit de propriété intellectuelle a toujours été une question d’équilibre, affirment les universitaires, entre les revendications légitimes des créateurs et les besoins de la société. Alors que cet équilibre a été rompu par un quart de siècle de mesures législatives maximalistes, ils en appellent à un certain nombre de corrections : Il faut d’abord remettre le droit de propriété intellectuelle à sa place, avancent-ils : protéger les savoirs et la créativité culturelle contre des tentatives d’appropriation privatives s’appuyant sur ce droit. De la même manière, il faut veiller qu’il ne soit pas utilisé pour restreindre le droit d’expression ou porter atteinte à d’autres droits civiques, comme l’a récemment fait par exemple [TF1 en contraignant Youtube à retirer une vidéo satirique réalisée par le journaliste Bastien Hugues->http://www.numerama.com/magazine/19428-un-minutieux-montage-des-jt-de-pernaut-censure-au-nom-du-droit-d-auteur.html][[Guillaume Champeau, ‘Un Minutieux Montage Des JT De Pernaut Censuré Au Nom Du Droit D’auteur’, Numerama, 2011 http://www.numerama.com/magazine/19428-un-minutieux-montage-des-jt-de-pernaut-censure-au-nom-du-droit-d-auteur.html> [accessed 27 September 2011].]]. Il faut ensuite revaloriser le domaine public en imposant un moratoire sur toute nouvelle extension du droit de propriété intellectuelle. La puissance publique doit encourager la production de ressources libres, et contraindre ses propres agences à libérer celles qu’elles produisent sur des financements publics. C’est une voie sur laquelle le gouvernement américain s’est engagé depuis quelques années, mais qui est loin d’être suivie partout, en particulier en France où la plupart des publications issues de la recherche publique ne sont pas disponibles en libre accès. Il faut renforcer les limitations au droit de propriété intellectuelle, en particulier le fair use qui autorise des exceptions à son application pour la recherche, l’éducation, l’archivage. Ces exceptions sont constamment attaquées depuis plusieurs décennies et réduites, limitées, conditionnées jusqu’à en devenir impraticables. Il est vital de permettre aux institutions d’intérêt public que sont les écoles, les universités, les organismes de recherche, les musées, les bibliothèques de bénéficier des exceptions au droit d’auteur dans des conditions normales. La France, qui ne connaît pas de fair use, a prévu des “exceptions à des fins d’enseignement et de recherche”, ainsi que pour les bibliothèques dans la loi DADVSI de 2006. Soumises à des accords sectoriels avec les ayant-droits, ces exceptions représentent aujourd’hui [le dispositif le plus tarabiscoté que l’on puisse connaître->http://www.cndp.fr/savoirscdi/societe-de-linformation/cadre-reglementaire/questions-juridiques/lexception-pedagogique-les-nouveaux-accords-boen-n17-du-17-fevrier-2011-bilan.html][[Géraldine Baudart-Alberti, ‘L’exception Pédagogique : Les Nouveaux Accords (BOEN N°17 Du 17 Février 2011), Bilan’, Savoirs CDI, 2011 http://www.cndp.fr/savoirscdi/societe-de-linformation/cadre-reglementaire/questions-juridiques/lexception-pedagogique-les-nouveaux-accords-boen-n17-du-17-fevrier-2011-bilan.html#c6618> [accessed 27 September 2011].]] ; tous le disent : il est inutilisable pour les enseignants et les chercheurs. “Dans un contexte de changements technologiques importants, le système de brevets a un sérieux problème”. On ne saurait mieux dire ! La prolifération des brevets et la baisse constante de leur qualité ont eu pour résultat que ce dispositif de protection de la propriété intellectuelle est devenu un obstacle plutôt qu’un encouragement à l’innovation industrielle. Pour en avoir un exemple éclatant, [le billet publié->http://scinfolex.wordpress.com/2011/09/23/smiley-sous-les-sourires-la-marque/][[Callimaq, ‘SmileyTM : Un Sourire Qui Marque…’, :: S.I.Lex ::, 2011 http://scinfolex.wordpress.com/2011/09/23/smiley-sous-les-sourires-la-marque/> [accessed 27 September 2011].]] par Lionel Maurel sur son blog S.I. Lex à propos du smiley vaut le détour. Il montre bien comment les services juridiques des entreprises utilisent le dépôt de brevet tous azimuts pour neutraliser de manière déloyale leurs concurrents ou tout simplement gagner de l’argent facilement ! S’il faut limiter les revendications exorbitantes des détenteurs de droits, il faut aussi encourager la créativité culturelle pensent les signataires de la Déclaration de Washington. Il faut en effet remettre à plat le fonctionnement des sociétés de gestion de droits, devenues opaques et contre-productives. Il faut surtout redonner du pouvoir aux auteurs par rapport aux éditeurs, d’abord en limitant le périmètre des contrats qu’ils signent avec les éditeurs, en leur permettant de renégocier ces contrats, mais aussi en leur donnant la possibilité de définir eux-mêmes les licences qu’ils accordent au public sur leurs oeuvres. Il faut mettre fin aux punitions disproportionnées qu’entraînent les infractions au droit de propriété intellectuelle, limiter l’implication des fournisseurs d’accès dans la recherche et la poursuite de ces infractions ainsi que s’assurer que les procédures de jugement soient transparentes et équitables. Ceux qui n’en sont pas convaincus peuvent lire l’article très intéressant que le magazine en ligne Numerama a publié récemment sur [“ces délits jugés moins graves que le partage de la culture”->http://www.numerama.com/magazine/19648-tous-ces-delits-juges-moins-graves-que-le-partage-de-la-culture.html][[Guillaume Champeau, ‘Tous Ces Délits Jugés Moins Graves Que Le Partage De La Culture’, Numerama, 2011 http://www.numerama.com/magazine/19648-tous-ces-delits-juges-moins-graves-que-le-partage-de-la-culture.html> [accessed 27 September 2011].]]. La situation actuelle est le résultat d’une multitude de lois et de mesures négociées et appliquées de manière opaque, sans réel contrôle démocratique. Sans le citer explicitement, les congressistes ont dans leur collimateur le futur traité ACTA qui a été négocié par les gouvernements de différents Etats dans des conditions de secret particulièrement scandaleuses, y compris à l’égard des parlements nationaux où réside la souveraineté populaire. Le résultat de ces “négociations” où tout le savoir-faire en matière de lobbying de l’industrie du copyright a pu se déployer, sont conformes aux attentes : [jamais les dispositions de renforcement du droit de propriété intellectuelle n’auront été aussi extrêmes->http://www.laquadrature.net/fr/acta-mise-a-jour-de-lanalyse-de-la-version-finale][[‘ACTA: Mise-à-jour De L’analyse De La Version Finale’, La Quadrature Du Net, 2011 http://www.laquadrature.net/fr/acta-mise-a-jour-de-lanalyse-de-la-version-finale> [accessed 27 September 2011].]], créant des implications criminelles vagues et très étendues, forçant les intermédiaires techniques à surveiller et punir leurs propres clients, et court-circuitant tout à la fois les autorités judiciaires et législatives des différents pays signataires. C’est l’exact opposé des recommandations proposées par la Déclaration de Washington.
2011-09-26 22:49:20
Le 5 décembre dernier ouvrait le nouveau portail du gouvernement français : [data.gouv.fr->http://data.gouv.fr]. Ce site a pour objectif de mettre à disposition de l’ensemble des citoyens un grand nombre de « jeux de données » issues des différentes administrations françaises. Il est le résultat du travail de [la mission Etalab->http://www.etalab.gouv.fr/], [placée en février 2011->http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000023619063&dateTexte=&oldAction=rechJO&categorieLien=id][[ « Décret n° 2011-194 du 21 février 2011 portant création d’une mission « Etalab » chargée de la création d’un portail unique interministériel des données publiques », février 22, 2011, http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=?cidTexte=JORFTEXT000023619063]] sous l’autorité du Premier Ministre à la suite du [rapport Riester->http://www.modernisation.gouv.fr/piliers/simplifier/evenements/le-groupe-experts-numeriques-pilote-par-franck-riester-a-remis-son-rapport-a-eric-woerth-et-nathalie-kosciusko-morizet/telecharger-le-rapport-riester-pdf/index.html][[ Franck Riester, Amélioration de la relation numérique à l’usager (Ministère du Budget, des Comptes publics, de la Fonction publique et de la Réforme de l’état, février 1, 2010). http://www.modernisation.gouv.fr/piliers/simplifier/evenements/le-groupe-experts-numeriques-pilote-par-franck-riester-a-remis-son-rapport-a-eric-woerth-et-nathalie-kosciusko-morizet/telecharger-le-rapport-riester-pdf/index.html]] publié l'année précédente qui en préconisait la création. Data.gouv.fr a pour ambition de placer la France dans un mouvement international dit d’« open data » (données ouvertes) déjà mis en oeuvre par plusieurs pays comme les [Etats-Unis->http://www.data.gov/] et le [Royaume-Uni->http://data.gov.uk/]. Il propose aujourd’hui 350 000 jeux de données issues pour l’essentiel de l’INSEE (recensement de 2008), mais aussi du Ministère de l’Environnement parmi d’autres, ainsi que de quelques collectivités territoriales. Officiellement, le projet répond à deux objectifs : − un objectif de transparence de la part de l’Etat et de ses administrations. <iframe frameborder="0" width="480" height="270" src="http://www.dailymotion.com/embed/video/xmv6pe"></iframe><br /><a href="http://www.dailymotion.com/video/xmv6pe_la-transparence-est-un-choix_news" target="_blank">"La transparence est un choix"</a> <i>par <a href="http://www.dailymotion.com/etalab" target="_blank">etalab</a></i> − un objectif de développement économique avec la création de nouveaux services commerciaux basés sur l’exploitation des données publiques. <iframe frameborder="0" width="480" height="270" src="http://www.dailymotion.com/embed/video/xmod17"></iframe><br /><a href="http://www.dailymotion.com/video/xmod17_f-fillon-annonce-data-gouv-fr_news" target="_blank">F. Fillon annonce data.gouv.fr</a> <i>par <a href="http://www.dailymotion.com/etalab" target="_blank">etalab</a></i> La condition sine qua non à la réalisation de ces objectifs est la libre réutilisation des données sans condition, en particulier de nature financière. L’accès et l’exploitation y compris commerciale des jeux de données est libre et ne donne pas lieu à redevance ou contre-partie financière. Cette ligne de conduite, qui doit bien convenir aux partisans du libre accès à l’information est surprenante ; en tout cas bien éloignée des moeurs administratives françaises qui ont souvent pratiqué le culte du secret pour l’accès aux données et qui, lorsqu’elles y donnent accès, en interdisent par principe, par culture, toute utilisation dans un cadre qu’elles n’auraient pas défini par avance. <iframe frameborder="0" width="480" height="270" src="http://www.dailymotion.com/embed/video/xms553"></iframe><br /><a href="http://www.dailymotion.com/video/xms553_nkm-salue-l-ouverture-de-data-gouv-fr_news" target="_blank">NKM salue l'ouverture de data.gouv.fr</a> <i>par <a href="http://www.dailymotion.com/etalab" target="_blank">etalab</a></i> Pus profondément, cette politique entre en conflit avec les évolutions jusqu'à ces dernières années de certains établissements publics comme l’IGN ou Météo France, lancés dans une activité croissante de commercialisation de leurs données. Politique commerciale basée sur une restriction d’accès aux données ou libre mise à disposition de celles-ci sans espoir de revenus commerciaux que d’autres, des entreprises privées, se chargeront d’exploiter ? Les deux idéologies coexistent au sein de l’Etat, et le discours de Séverin Naudet, maître d’oeuvre de data.gouv.fr , en rend bien compte. <iframe frameborder="0" width="480" height="270" src="http://www.dailymotion.com/embed/video/xm960y"></iframe><br /><a href="http://www.dailymotion.com/video/xm960y_s-naudet-transparence-open-data_news" target="_blank">S.Naudet @ Transparence & Open Data</a> <i>par <a href="http://www.dailymotion.com/etalab" target="_blank">etalab</a></i> La mise à disposition des données publiques par Etalab, l’agence gouvernementale chargée de mettre en oeuvre data.gouv.fr, ne se fait pas dans un grand vide sociétal. Des groupes de pression existent depuis maintenant quelque temps, qui cherchent à encourager l’action du gouvernement en la matière. Le journal en ligne [Owni->http://owni.fr/] en est le meilleur représentant pour ce qui concerne la presse. Théoricien du « journalisme de données », un des anciens membres de l’équipe, [Nicolas Kayser-Bril, en fut le fer de lance->http://owni.fr/2011/04/17/le-datajournalisme-vecteur-de-sens-et-de-profits/][[ Nicolas Kayser-Bril, « Le datajournalisme: vecteur de sens et de profits », OWNI, Digital Journalism, avril 17, 2011, http://owni.fr/2011/04/17/le-datajournalisme-vecteur-de-sens-et-de-profits/. ]] jusqu'à son départ en juillet dernier. Né dans la foulée de l'appel à projet innovant lancé en 2009 par le secrétariat d'Etat à l'économie numérique, [l'entreprise Data Publica->http://www.data-publica.com/], présente un modèle d’affaire qui consiste à traiter les jeux de données pour en fournir des représentations directement exploitables auprès de ses clients. Côté associatif, c’est plutôt [Regards Citoyens->http://www.regardscitoyens.org/] qui tient le devant de la scène. L’association a d’ailleurs pris la peine de décortiquer les 350 000 jeux de données annoncées par data.gouv.fr, ce qui lui a permis d’exprimer [quelques critiques->http://www.regardscitoyens.org/opendata-la-moyenne-pour-un-data-gouv-fr-sous-formats-proprietaires/][[ « OpenData : La moyenne pour un data.gouv.fr sous formats propriétaires », Regards Citoyens, décembre 4, 2011, http://www.regardscitoyens.org/opendata-la-moyenne-pour-un-data-gouv-fr-sous-formats-proprietaires/. ]] sur le nombre réel de données mises à disposition et le format sous lequel elles le sont. Concernant leur nombre tout d’abord, l’association fait remarquer à juste titre que la plus grande part des données présentées proviennent du recensement de 2008 effectué par l’INSEE, dont les résultats se déclinent en autant « jeux de données » qu’il y a de communes en France, c’est-à-dire 36000. Sur le format, l'association relève que la plupart de ces données sont livrées sous forme de fichiers Excel, format fermé et propriétaire propre au logiciel éponyme de Microsoft. Etalab répond non sans raison qu’Excel est le format-roi des administrations françaises. Le problème ne viendrait donc pas de data.gouv.fr mais plutôt des administrations elles-mêmes dont le respect du Référentiel Général d'Interopérabilité est pour le moins inégal. Et encore, fait-on remarquer dans [un autre article->http://owni.fr/2011/12/10/la-france-entrouverte-transparence-open-gov-open-data-etalab/.][[ Nicolas Patte, « La France entr’ouverte », OWNI, Digital Journalism, décembre 10, 2011, http://owni.fr/2011/12/10/la-france-entrouverte-transparence-open-gov-open-data-etalab/. ]] : les fichiers Excel au moins présentent des données structurées, exportables et donc exploitables. Il n’en va pas de même avec les fichiers .doc ou, pire, .pdf que l’on trouve aussi dans le portail gouvernemental. Globalement cependant, la plupart des commentateurs accordent des bons points au gouvernement pour la qualité du travail accompli. Certes, data.gouv.fr n’est au fond qu’un annuaire bien fait de jeux de données publiques qui étaient déjà accessibles, mais son utilité est évidente. La mise à disposition sous licence ouverte en particulier, est bienvenue. On ne peut qu’espérer que la petite équipe dynamique de l’agence Etalab parviendra à entraîner un nombre croissant d’administrations françaises à entrer dans le mouvement. Toute initiative, aussi positive soit-elle, doit pourtant être remise dans le contexte d’une politique plus générale. Le mouvement open data porte avec lui un risque important : que se spécialisant sur la mise à disposition de certains types de données, quantitatives notamment, et s’intéressant exclusivement à certaines modalités techniques de mise à disposition, par l’intermédiaire de portails et/ou d’api, il en vienne à oublier de s’interroger sur d’autres aspects bien plus importants lorsqu’il s’agit d’évaluer la transparence de l’Etat et de ses administrations : la manière dont les données sont produites et, bien sûr, les données qui ne sont pas accessibles. Or, la production de statistiques publiques n’a sans doute jamais subi autant de pressions et de manipulations que sous le pouvoir actuel. Que ce soit les menaces à peine voilées sur [l’INSEE que l’on a voulu délocaliser->http://blogs.mediapart.fr/edition/en-defense-de-la-statistique-publique/article/300109/la-delocalisation-de-la-statistiqu][[ « La délocalisation de la statistique publique à Metz, un enjeu pour la démocratie », Mediapart, janvier 30, 2009, http://blogs.mediapart.fr/edition/en-defense-de-la-statistique-publique/article/300109/la-delocalisation-de-la-statistiqu.]], [l'affaiblissement concerté de l'appareil statistique du Ministère de l'Education nationale->http://www.lemonde.fr/idees/article/2011/12/14/des-statistiques-d-etat-a-geometrie-variable_1618346_3232.html][[ « Des statistiques d’Etat à géométrie variable », Le Monde , décembre 14, 2011, http://www.lemonde.fr/idees/article/2011/12/14/des-statistiques-d-etat-a-geometrie-variable_1618346_3232.html. ]], les manipulations sur les modes et objets de mesure, sans cesse perturbés afin d’empêcher les comparaisons ou les embargos voire interdictions de publication de certains chiffres, les atteintes au bon fonctionnement de l’appareil statistique public ont été nombreuses ces dernières années. L’ouvrage collectif, [Le grand Trucage. Comment le gouvernement manipule les statistiques->http://lectures.revues.org/862][[ Guillaume Rollet, « Lorraine Data, Le grand truquage. Comment le gouvernement manipule les statistiques », Lectures, Les comptes rendus (décembre 11, 2009), http://lectures.revues.org/862. ]], publié en 2009 aux Editions La Découverte en est un bon témoignage. Un exemple, peut-être anecdotique, mais frappant : le décompte du nombre de voitures incendiées dans la nuit de la Saint-Sylvestre ne fait plus l’objet d’un décompte officiel, [au prétexte de ne pas encourager une compétition entre les cités->http://www.google.com/hostednews/afp/article/ALeqM5js4Ucq9k9TZwxj7szfMA6OSgEDnA][[ Annie Thomas, « Saint-Sylvestre: pas de chiffres de voitures brûlées mais un début de polémique », Google News, janvier 2, 2011, http://www.google.com/hostednews/afp/article/ALeqM5js4Ucq9k9TZwxj7szfMA6OSgEDnA. ]]. Peut-être. Mais que dire alors de [l’impossibilité à laquelle sont confrontés les sociologues cherchant à travailler sur l’institution policière de pouvoir enquêter au sein des unités de police->http://www.liberation.fr/societe/01012372241-etudier-la-police-est-devenu-quasi-impossible][[ Alice Géraud, « «Etudier la police est devenu quasi impossible» », liberation.fr, novembre 18, 2011, http://www.liberation.fr/societe/01012372241-etudier-la-police-est-devenu-quasi-impossible. ]] ? Les longues enquêtes de terrain ne sont sans doute pas présentables sous forme de tableaux Excel additionnant les « faits constatés » (dont on sait combien ils sont difficiles à interpréter) ; elles n’en constituent pas moins des méthodes de collecte de « données » irremplaçables et indispensables à la compréhension fine d’une des institutions publiques qui posent le plus de problème aujourd’hui. Le mouvement open data court le risque de représenter l’aboutissement extrême du [« fétichisme du chiffre »->http://www.liberation.fr/economie/0101570051-triche-la-statistique-c-est-tres-pratique][[ Vittorio De Filippis, « Triche : la statistique, c’est très pratique », liberation.fr, mai 29, 2009, http://www.liberation.fr/economie/0101570051-triche-la-statistique-c-est-tres-pratique. ]] qui structure désormais le débat public. Devenue un élément potentiel de communication politique, la « donnée » doit être l’objet d’une critique plus acérée que celle qui porte sur les formats de fichier : dans quelle condition est-elle fabriquée ? pourquoi est-elle structurée de cette manière ? que mesure-t-elle et que ne mesure-t-elle pas ? comment évolue-t-elle dans le temps ? quelle est la fiabilité, l’indépendance de celui qui la produit ? C’est sur ces pistes que doivent se lancer les collectifs citoyens et les médias spécialisés sur ces questions. L’opacité la plus efficace est celle qui se donne l’apparence de la transparence.
2012-01-10 15:37:02
L'accès à la vidéo sur Internet s'effectue par deux moyens : le téléchargement et le streaming. Le premier permet de télécharger directement sur le disque dur de l'ordinateur l'intégralité d'un fichier vidéo localisé sur le Web avant de commencer à le diffuser. Le streaming repose sur le traitement immédiat des données reçues par l'ordinateur avant qu'elles ne soient toutes téléchargées. Cette technique nécessite donc une vitesse de connexion beaucoup plus rapide que celle nécessaire au visionnage d'images téléchargées.
viiiBALLE Francis, Médias et sociétés, 10e édition, Paris : éd. Montchrestein, 2001, p. 640.
xiLa musique représente toujours plus de 50 % des données disponibles sur les sites de P2P, mais avec le développement de l'ADSL les fichiers plus lourds gagnent du terrain, et en particulier les films, qui représentent 20 % des données. Signe de l'engouement pour la vidéo, le succès du réseau eDonkey, spécialisé dans ce type de fichiers, qui réalise près de 20 % de l'audience globale du P2P.
xiiAbréviation de Video-on-Demand (en français Vidéo à la demande), la VOD est un terme regroupant un large ensemble de technologies dont le but commun est de permettre à des individus de choisir des vidéos d'un serveur central, pour les visualiser sur un écran de télévision ou d'ordinateur. C’est une sorte de vidéo-club à la maison.
xiiiPhilippin Yann, À quoi sert vraiment le peer-to-peer ?, Fondation internet nouvelle génération (Fing) : http://www.fing.org/index.php?num=40164, 8 septembre 2003.
xivVoir Kaplan Daniel, Musique, numérique, propriété et échange : 8 millions de délinquants ?, Fondation internet nouvelle génération (Fing) : http://www.fing.org/index.php?num=4496,2, 21 novembre 2003.
xvLoi relative au droit d’auteur et droits voisins dans la société de l’information.
xviVoir à ce sujet les divers articles postés sur le blog http://www.dalbin.canalblog.com/.
xviiCARON Dominique, sociologue, France Télécom R&D, propos recueillis lors du « Grand colloque STIC », organisé pa