Ofta är det väl en utgång VGA och en DVI, men det brukar följa med en konverter så att man kan köra två av samma.
VGA är analogt. DVI är som en utgångspunkt digitalt MEN enligt specifikationen av DVI kan det också föras en analog signal till DVI-utgången. En sk. "konverter" är i detta fall alltså en galvanisk konverter. Om DVI-utgången saknar analog signal, kan inte denna konverter göra något åt det. Att konvertera en VGA-signal till en digital DVI-signal är inte möjligt med en sådan konverter.
*)Skärmarna har oftast analoga ingångar i VGA-format och digitala ingångar i DVI-format. Har skärmen t.ex bara DVI-ingång, är det sannolikt att du endast kan köra in digital signal.
Vill du ha bästa kvaliteten på bilderna bör du ha ett kort med två DVI-utgångar. Den analoga bilden är betydligt mjukare, och eftersom du kommer att ha den "digitala referensen" bredvid hela tiden, kommer du att märka skillnaden. Ju dyrare kort, desto mindre skillnad givetvis.
Kombinationen 2 DVI-utgångar och fläktlös är inte den lättaste. Jag har hittat 1 sådant, och det kostade ganska rejält.
Att köra ett "fläktat" kort är en dålig idé i dagens läge eftersom de billigaste fläktlösa korten börjar närma sig nollkostnad. Själv har jag ett Radeon-kort (smaksak, jag gillar de alternativa Radeon-drivrutinerna), med DVI och VGA utgångar. Betalade 30€ på ebay för det. Tidigare körde jag ett hotroddat Radeon-kort med Zalmans kylaggregat. Bara kylaggregatet kosta mera än mitt nya kort.
*) Givetvis finns de "riktiga" konvertrar från olika signaler till andra (analog/digital), men de är definitivt utanför scopet för denna diskussion