this post was submitted on 06 May 2024
56 points (93.8% liked)

Forum Libre

729 readers
20 users here now

Communautés principales de l'instance

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

Une communauté pour discuter de tout et de rien:

Les mots d'ordre sont : respect et bienveillance.

Les discussions politiques sont déconseillées, et ont davantage leur place sur

Les règles de l'instance sont bien entendu d'application.

Fils hebdomadaires"

"Demandez-moi n'importe quoi"

Communautés détendues

Communautés liées:

Loisirs:

Vie Pratique:

Communautés d'actualité

Société:

Pays:

Communauté de secours:

founded 1 year ago
MODERATORS
 

Hello!

bon slrpnk.net a l'air d'être dans les choux alors je lance ce post avec mon compte de secours jlai.lu

Alors je lance cet AMA car ça fait un moment que je bouffe du machine learning à temps plein et pour suivre les news technique, je passe le plus clair de mon temps à lire de l'anglais. Et je trouve qu'en français, ben y a pas grand chose. C'est presque uniquement du discours dystopique mal informé.

Rien sur la recherche sur l'alignement, rien sur les modèles open source (condition sine qua non pour que ça se passe bien), rien sur les évolutions sociales positives que ça peut amener.

On parle juste de OpenAI, Google et Musk qui ne sont que quelques arbres malades d'une forêt bien plus grande.

Perso ça va faire 5 ans que je fais du deep learning professionnellement. J'ai travaillé pour Skymind, qui développait deeplearning4j. Ça vous dira rien, c'est un projet plus ou moins mort, mais c'était une tentative de faire un framework alternatif avant que tout le monde passe à pytorch. Puis je suis devenu principalement utilisateur des gros modèles entraînés par d'autres.

J'ai travaillé sur les modèles de vision au départ et maintenant presque exclusivement sur des modèles de langage. J'ai réussi à passer au 4/5e l'année dernière pour me consacrer aussi avec le fablab local à de la robotique open hardware (où bien sur j'utilise des modèles de deep learning pour la vision).

Ça fait plus de 20 ans que j'ai réalisé que l'IA a le potentiel de changer le monde pour le mieux, c'est pas par hasard que j'ai essayé de m'orienter le plus possible là dedans et ça me fait mal au cœur de voir tant de gens croire que notre seul but est d'aider Sam Altman à se faire quelques milliards de plus, qui ne voient pas les capacités de transformation de cette tech.

J'ai déjà donné quelques avis en anglais pour éviter le "doomism" dans des romans de SF (https://slrpnk.net/post/6100538) mais le faire dans ma langue natale ferait du bien!

Et, si, le titre est correct, ça me fait 6/5 de boulot, mais quand on aime on ne compte pas!

Voila, je préférerais qu'on reste sur ces thèmes mais AMA anyway!

you are viewing a single comment's thread
view the rest of the comments
[–] keepthepace_@jlai.lu 9 points 6 months ago (1 children)

Oh oui, les réseaux de neurone ça date au moins des années 50 et certains outils mathématiques sont encore plus anciens! Dans les années 90-2000 on traversait le deuxième hiver de l'IA (tiens donc encore une page qui n'a pas été traduite en français!) et seuls quelques fervents zélotes tels que Hinton ou Le Cun prêchaient encore le perceptron multi-couches qui est un vieil algo! C'est plus leur "foi" que leurs innovations qui ont amené la vague actuelle.

Il y a un point de bascule très net en 2012 quand AlexNet emporte la compétition ImageNet, une compétition de classification d'images ("Identifie l'objet dans l'image parmi 1000 catégories: banane, chien, humain, voiture, etc..."). L'architecture n'était pas nouvelle, mais de petites améliorations ont été amenées et surtout, elle a été porté en CUDA et peut donc tourner très vite sur des GPUs récents.

D'un coté les algos sont devenus un peu plus efficaces, de l'autre le hardware est devenu plus performant. En 2012 ça s'est croisé et il est devenu plus efficace d'entraîner des réseaux "boite noire" que des algos spécialisés.

Alors c'est peut être plus tôt que tu ne le penses, mais c'est la bascule du point de vue des devs, et à partir de ce moment là on a commencé à mettre du réseau de neurones partout.

Pour le grand public, la découverte a été via la génération de texte. Il y a 2 points je pense: d'abord GPT-2, premier à sortir des textes étonnamment cohérents. Puis ChatGPT, qui a permis à tout le monde de réaliser que c'était réel, utile, et que certaines composantes de l’intelligence étaient là.

Puis, google deep dream avec déjà fait pas mal le buzz avec de la génération d’image il y a genre 10 ans, et pourtant, ça avait pas pris.

Deep dream a été une étape vers les générateurs d'image qu'on a aujourd'hui. Deep dream aujourd'hui ressemble presque à un hack d'un classifieur d'images, mais ça n'a pas pris parce que la qualité était très mauvaise. Elle a doucement augmenté petit à petit. Il y a eu deux sauts:

  • Les premiers GANs qui ont tout d'un coup produit des images d'un réalisme bluffant (qui aujourd'hui nous blase...)
  • Les modèles de diffusion, qui sont ce que tout le monde utilise aujourd'hui. Je crois, mais c'est moins mon domaine, que leur intérêt est de pouvoir se connecter à des modèles de langage et de pouvoir exprimer/comprendre un panel beaucoup plus large d'objets.
[–] Ziggurat@sh.itjust.works 4 points 6 months ago

Intéressant le point historique sur la période 2000-2012. Et ca explique même pourquoi c'était un quasi sexagénaire qui posait la question des Réseau de neurones