Skip to main content
Participant
May 10, 2023
Question

Temps de traitement Réduction du bruit avec l'IA

  • May 10, 2023
  • 4 replies
  • 2083 views

Malgré une configuration correcte, Lightroom met en moyenne 3 min pour effectuer une réduction du bruit avec l'IA sur un RAW de 24 Mo.

Pendant ce temps, l'application est trés ralentie, presque inutilisable.

 

Est-ce normal avec cette configuration !? La carte graphique est elle insuffisante !?

 

Mon système:
en résumé : intel i5 13500 / DDR4 / NVIDIA Geforce GTX 1050 Ti / OS et Soft sur NVME 2.0, catalogue et photos sur disque SSD.
 
Version Lightroom Classic: 12.3 [ 202304101834-a085245c ]
Système d'exploitation : Windows 10 - Home Premium Edition
Version : 10.0.19045
Architecture de l'application : x64
Architecture du système : x64
Nombre de processeurs logiques: 20
Vitesse du processeur : 2,4Ghz
Version SQLite: 3.36.0
Utilisation du CPU: 1,0%
Mémoire intégrée : 32544,1 Mo
Mémoire GPU dédiée utilisée par Lightroom: 1519,9Mo / 4017,0Mo (37%)
Mémoire réelle disponible pour Lightroom : 32544,1 Mo
Mémoire réelle utilisée par Lightroom : 2332,2 Mo (7,1%)
Mémoire virtuelle utilisée par Lightroom : 4122,7 Mo
Nombre d'objets GDI : 912
Nombre d'objets utilisateur : 2957
Nombre de processus gérés : 3520
Taille de la mémoire cache : 383,5Mo
Version interne de Camera Raw: 15.3 [ 1451 ]
Nombre maximal de liens utilisé par Camera Raw  : 5
Optimisation SIMD de Camera Raw : SSE2,AVX,AVX2
Mémoire virtuelle de Camera Raw: 863Mo / 16272Mo (5%)
Mémoire réelle de Camera Raw: 902Mo / 32544Mo (2%)
Paramètre PPP du système : 120 PPP (mode haute résolution)
Composition sur le Bureau activée: Oui
Taille d’aperçu standard: 2048 pixels
Affichages : 1) 1920x1200
Types d'entrée: Tactile multipoint : Non, Tactile intégré : Non, Plume intégrée : Non, Tactile externe : Non, Plume externe : Non, Clavier : Non
 
Informations relatives au processeur graphique : 
DirectX: NVIDIA GeForce GTX 1050 Ti (31.0.15.3179)
État initial: GPU pour le traitement d'image pris en charge par défaut
Préférence utilisateur: GPU pour traitement d'image activé
....
This topic has been closed for replies.

4 replies

benoitg64663307
Known Participant
January 10, 2024

Idem trop long alors que le traitement est top

pourta,t je travail sur mac pro 2019 

3,3 GHz Intel Xeon W 12 cœurs

96 Go 2933 MHz DDR4

AMD Radeon Pro W5700X 16 Go

 

Participant
May 11, 2023

Thank you all for your helpfull answers !

 

I understand there's no issue to fix on my computer, no parameter to adjust.... just need to wait while I use AI denoise and perhaps it's time to replace my GPU with a 8GB card.

 

 

Ian Lyons
Community Expert
Community Expert
May 11, 2023

While your GPU meets the minium requirements it dates from 2016-17. That's 6-7 year old technology. Compared to modern NVidia GPUs with tensor cores, you can expect Denoise to be at least 5 times slower on your GPU.

 

 

Participating Frequently
May 11, 2023

here is my config (2013)

estimated time to denoise : 26 mn !!!!

Should I change all my computer ?

 

dj_paige
Legend
May 11, 2023

If you want something less than 26 minutes, you would need a newer/faster/more memory GPU.

GoldingD
Legend
May 10, 2023

So, your GPU, is that 4 GB of VRAM?

And yes the AI Denoise is very much a resource hog, and makes huge files, slowly.

And uses the GPU heavily. And not just the VRAM

 

see:

https://community.adobe.com/t5/lightroom-classic-discussions/denoise-ai-in-12-3/m-p/13739081

 

and

https://community.adobe.com/t5/lightroom-classic-discussions/denoise-takes-several-minutes-to-complete/m-p/13739319

 

and, a non Adobe discussion:

https://www.lightroomqueen.com/denoise-work/