mais la génération d'image me semble un aspect très secondaire et pas si inquiétant.
Ça enlève toute une catégorie de preuves considérées jusque là comme irréfutables : les vidéos, le son de la voix, les images. Un criminel/politicien/homme d'affaires corrompu n'aurait plus à s'emmerder autant pour camoufler ses petites affaires, il aurait juste à protester que l'enregistrement audio/vidéo brandi par l'accusation a été généré par IA. The Wire traçait les évolutions technologiques autour du téléphone, il faudrait peut-être qu'ils fassent une saison 6 sur l'IA. Je ne crois pas trop au système d'empreinte numérique évoqué dans la discussion, cela ne marcherait que si tous les opérateurs d'IA le font et il y aurait toujours la suspicion de la porte dérobée étatique, sans compter la possibilité de falsifier la signature.
Autre danger : le social engineering qui est la stratégie de cyberattaque consistant à se faire passer pour quelqu'un d'autre (grosso modo) afin de gagner accès à des informations confidentielles va être plus dangereux et industrialisable.
Et sur un plan plus léger, certaines personnes sont impatientes de pouvoir générer à la demande des films, séries, musiques complètement personnalisées ; cela serait un grignotage sur le lien qu'apporte la culture, qui nécessite de partager son vécu d'un contenu commun, et un nouveau pas (de géant) vers l'hyper personnalisation de la consommation.
Le principal souci étant, si j'ai bien suivi, que personne ne sait réellement comment l'IA arrive à tel ou tel résultat
Le problème de fond derrière le manque d'auditabilité, c'est la responsabilité en cas de problème. Mais notre société et nos entreprises savent déjà très bien la diluer ; si un avion Boeing se crashe alors qu'il était en "autopilote IA" fourni par OpenAI, personne chez Boeing ou OpeNAI ne finira plus en prison qu'aujourd'hui lorsqu'un avion s'écrase à cause d'un algorithme mal codé, ou d'un bout de matos mal maintenu. Et je crois que le niveau de déterminisme qui va de paire avec la capacité d'expliquer précisément comment le corpus de données et les paramètres du modèle ont permis d'aboutir à tel ou tel résultat, serait bien plus dangereux car manipulable que le flou actuel qui est fondamentalement proche du cerveau humain.