Question
Temps de traitement Réduction du bruit avec l'IA
Malgré une configuration correcte, Lightroom met en moyenne 3 min pour effectuer une réduction du bruit avec l'IA sur un RAW de 24 Mo.
Pendant ce temps, l'application est trés ralentie, presque inutilisable.
Est-ce normal avec cette configuration !? La carte graphique est elle insuffisante !?
Mon système:
en résumé : intel i5 13500 / DDR4 / NVIDIA Geforce GTX 1050 Ti / OS et Soft sur NVME 2.0, catalogue et photos sur disque SSD.
Version Lightroom Classic: 12.3 [ 202304101834-a085245c ]
Système d'exploitation : Windows 10 - Home Premium Edition
Version : 10.0.19045
Architecture de l'application : x64
Architecture du système : x64
Nombre de processeurs logiques: 20
Vitesse du processeur : 2,4Ghz
Version SQLite: 3.36.0
Utilisation du CPU: 1,0%
Mémoire intégrée : 32544,1 Mo
Mémoire GPU dédiée utilisée par Lightroom: 1519,9Mo / 4017,0Mo (37%)
Mémoire réelle disponible pour Lightroom : 32544,1 Mo
Mémoire réelle utilisée par Lightroom : 2332,2 Mo (7,1%)
Mémoire virtuelle utilisée par Lightroom : 4122,7 Mo
Nombre d'objets GDI : 912
Nombre d'objets utilisateur : 2957
Nombre de processus gérés : 3520
Taille de la mémoire cache : 383,5Mo
Version interne de Camera Raw: 15.3 [ 1451 ]
Nombre maximal de liens utilisé par Camera Raw : 5
Optimisation SIMD de Camera Raw : SSE2,AVX,AVX2
Mémoire virtuelle de Camera Raw: 863Mo / 16272Mo (5%)
Mémoire réelle de Camera Raw: 902Mo / 32544Mo (2%)
Paramètre PPP du système : 120 PPP (mode haute résolution)
Composition sur le Bureau activée: Oui
Taille d’aperçu standard: 2048 pixels
Affichages : 1) 1920x1200
Types d'entrée: Tactile multipoint : Non, Tactile intégré : Non, Plume intégrée : Non, Tactile externe : Non, Plume externe : Non, Clavier : Non
Informations relatives au processeur graphique :
DirectX: NVIDIA GeForce GTX 1050 Ti (31.0.15.3179)
État initial: GPU pour le traitement d'image pris en charge par défaut
Préférence utilisateur: GPU pour traitement d'image activé
....
