« Et si on inversait (aussi) la hiérarchie des normes dans l'enseignement supérieur ? | Accueil | #Agenda : Rugby, Digital Detox, Biens Communs et bibliothécaires. »

30 mai 2016

Commentaires

Hubert Guillaud

Si les Gafam ouvrent leurs logiciels de machine learning et pas les algorithmes qui font fonctionner leurs services, c'est certainement qu'il y a des différences de fonds.

Ce peut-être lié au fait que la valeur ne repose pas dans le logiciel, mais dans les données qui les alimentent (qui elles, restent fermées, comme le soulignait Wired :http://www.wired.com/2015/11/google-open-sourcing-tensorflow-shows-ais-future-is-data-not-code/ ).

Est-ce lié à une guerre du code et des développeurs que se livrent les grandes firmes entre elles ? http://alireailleurs.tumblr.com/post/129900264468/la-guerre-du-code-medium

Est-ce lié à la différence entre un programme originel et son fonctionnement réel, qui dépend de multiples autres données et surtout d'équipes dédiées, de gestionnaires d'algorithmes, comme les équipes, chargés chez chacun de veiller à corriger les algorithmes, à les faire fonctionner (à l'image des pallanquées de professeurs chargés d'aider les élèves à faire fonctionner Affelnet ou APB) ? http://alireailleurs.tumblr.com/post/141246307693/g%C3%A9rer-les-ruptures-new-york-times

Voir aussi par là : http://www.internetactu.net/2016/01/13/nos-systemes-pour-une-retroingenierie-des-systemes-techniques/

c.

je découvre votre blog via l´article sur rue 89. Merci, je me sens deja plus instruite que ce matin.

Claude Roux

Tout d'abord, une toute petite remarque, le Deep Learning n'est que le ré-empaquetage sexy des réseaux neuronaux. L'ensemble des algos qui tournent aujourd'hui a été inventé il y a près de trente ans, et l'article fondateur date de 1998. Nihil nove sub sole. Ce qui a changé la donne, c'est essentiellement la puissance de calcul (et en particulier l'utilisation plutôt astucieuse des co-processeurs graphiques) qui a permis de faire tourner ces algos sur des quantités absolument phénoménales de données. Ici, nous n'avons pas assisté à un changement de qualité mais de quantité. Par conséquent que les GAFAM mettent à disposition des algos anciens difficilement brevetables n'a rien de surprenant. Les réseaux neuronaux sont basés sur des calculs matriciels couplés à une descente de gradient. Rien de très pointu en matière d'informatique.

Enfin, le Machine Learning ou Apprentissage Automatique, est un ensemble de technique dont les réseaux neuronaux sont un aspect, les deux termes ne sont donc pas équivalents.

Pour moi, il existe un danger encore plus grave dans l'utilisation de ces outils, c'est que l'on ignore systématique leurs marges d'erreur. Il existe un danger non négligeable que l'on finisse pas ne pas remettre en cause leurs oracles et qu'ont les prenne systématiquement pour des jugements sûrs. Or ces outils sont faillibles, ils dépendent tellement des données initiales d'entrainement que le simple fait de les entraîner introduit déjà un biais.

Phifeu

Ce n'est pas le code qu'il faut nationaliser, ce sont les GAFA elles-mêmes. La rentabilité de ces sites dépasse l'entendement.

Yann

Encore du neurone à moudre avec cet article. J'abonde dans le sens de Mr Claude Roux ci-dessus. Il vaut mieux avoir un algo. moyen à itérer sur des grands volumes de données qu'un algo. excellent qui se fait la dent sur des volumes plus faibles. La masse du big data est donc bien l'enjeu. Et évidemment les GAFA comme toujours essaient de tirer partie de leurs bases d'utilisateurs pour faire le boulot à leur place (avec cette livraison de code). Mais ils sont tellement pressés que le principe de précaution lié à la marge d'erreur de ces traitements de données s'envole en fumée devant les bénéfices à faire. Et ça, c'est pas nouveau mais plus ça va, moins ce principe de précaution, ou toute forme de recul d'ailleurs, est appliqué.
Quant au nombre de critères qui sont pris en compte par l'algo du moteur de recherche, c'est plus 200 que 400 (ce sont les googlers eux-même qui le disent).

J.-M. K.

Bonjour.
Bel article :) Deux ou trois remarques en vrac.

+) La re-captation de code est une des différences fondamentales entre le code ouvert à la sauce "open-source" et celui ouvert à la mode GNU (Stallman/FSF).

+) Les photocopieurs savent depuis quelques temps détecter les tentatives de photocopies de billets de banque:).

+) les logiciels en Europe ne peuvent pas être brevetés, c'est une différence fondamentale avec les U.S qu'il faut conserver. D'ailleurs cela pose un problème pour la "valorisation" de la recherche appliquée en informatique puisqu'il s'agit de recherche technique sans brevet : voilà un foutu indicateur ANR qui tombe ....

L'utilisation des commentaires est désactivée pour cette note.

Casssconn
"Mais quiconque affirme qu’il y a de l’argent à faire avec un stock d’ARTICLES SCIENTIFIQUES est soit un idiot, soit un menteur."
Lawrence Lessig. 12 Janvier 2013.
Le blog d'un maître de conférences en sciences de l'information.
Réflexions, analyses, signalements, opinions.

"Where is the Life we have lost in living?
Where is the wisdom we have lost in knowledge?
Where is the knowledge we have lost in information?"
T.S. Eliot, in Choruses from The Rock (1934)

Where is the information we've lost in Google ?

Botte de foin


Tous les contenus de ce blog sont sous licence Creative Commons. Vous pouvez donc les reproduire, les distribuer ou les communiquer à condition :
  • de citer l'auteur
  • de ne pas en faire d'utilisation commerciale
  • d'appliquer ces mêmes conditions à toute création qui résulterait d'une modification, transformation ou adaptation d'éléments tirés de ce blog.

septembre 2022

lun. mar. mer. jeu. ven. sam. dim.
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30    
Identité numérique et e-reputation :
DÉCOUVRIR COMMANDER OU LIRE EN LIGNE L'OUVRAGE