NVIDIA Prezentuje Chat z RTX, Wykorzystanie Potęgi GPU do Lokalnych Chatów AI

NVIDIA har precis släppt den första offentliga versionen av Chat with RTX-demo. Men nej, du kan inte chatta med ditt grafikkort och fråga ”hur mår du?”. För det behöver du programmet TechPowerUp GPU-Z. Chat with RTX är något helt annat. Tänk dig en helt lokaliserad AI-chatt som körs helt på din dator, drivet av de kraftfulla kärnorna i ditt GeForce RTX-grafikkort och som inte skickar några förfrågningar till molnbaserade chattserverar. Det är vad Chat with RTX är. NVIDIA arbetar för att göra det till ett alternativ till ChatGPT, som lagrar all sin kunskap lokalt på din dator och använder GeForce RTX GPU som hjärna.

I slutet av 2024, det utlovade ”AI PC-året” som förutsagts av branschledare som Microsoft och Intel, har NVIDIA redan haft en anmärkningsvärd fördel i sex år när det gäller AI-acceleration. Företaget introducerade lokalt accelererad AI för realtidsstrålspridningsteknik med RTX. Som en del av denna innovation utrustades deras GeForce RTX-grafikkort från 2017 med Tensor-kärnor. Dessa komponenter förbättrade avsevärt byggandet och träningen av djupa neurala nätverk (DNN) jämfört med att bara använda CUDA-kärnor. Denna progressiva teknik var ett betydande kliv framåt när det gäller prestanda och ökade grafikkortens kapabiliteter för AI-drivna uppgifter. Förutom brusreducering använder NVIDIA AI-acceleration för att driva DLSS-prestandaförbättringsfunktioner. Kan du inte utnyttja spelet fullt ut? Aktivera DLSS och välj en av de tillgängliga inställningarna tills spelet körs smidigt med dina önskade inställningar.

I våra senaste samtal med NVIDIA konstaterade företaget tydligt att de inte är alltför imponerade av de senaste processorerna från Intel och AMD, som introducerar neurala processorenheter (NPU); de erbjuder prestanda som sträcker sig från 10 till 16 TOPS endast för NPU:n och högst 40 TOPS för hela systemet (NPU + CPU + iGPU). Modellerna av NVIDIA GeForce RTX erbjuder tack vare sina Tensor-kärnor 20 till 100 (!) gånger högre prestanda genom massiv AI-acceleration i sin GPU-arkitektur. Medan CPU-baserade NPU-enheter syftar till att hantera enkla text- och bildbaserade AI-uppgifter, är NVIDIA på en helt annan nivå när det gäller AI redan idag. Tänk bara på att generera varannan bild i DLSS 3 Frame Generation-teknologi eller att minska bruset i en 4K-scen i realtids-spelande med över 60 bilder per sekund, beroende på upplösningen. Med andra ord har GeForce RTX-grafikkort enorma hårdvaruaccelerationsmöjligheter för AI som förblir oanvända när du inte spelar. Det är därför som NVIDIA har bestämt sig för att visa spelare att det är möjligt att köra helt lokala AI-verktyg med hjälp av denna hårdvaruacceleration. Företaget har bara börjat, och ett av deras första projekt är Chat with RTX, som vi presenterar i en förhandsversion idag. Med miljontals spelare som använder GeForce RTX-grafikkort kommer NVIDIA: s stora användarbas att innebära att vi kan förvänta oss att företaget tar en mer aktiv roll i PC: s AI-ekosystem genom att erbjuda ytterligare AI-upplevelser och verktyg för datorer med GeForce RTX-grafikkort.

Som tidigare nämnt är Chat with RTX en textbaserad generativ AI-plattform, liknande ChatGPT eller Copilot, men den skickar inte några data till molnet eller använder internetdata. Datamängden är det du tillhandahåller. Du har även möjlighet att välja mellan Llama2- och Mistral-AI-modellerna. NVIDIA tillhandahåller Llama2 och Mistral tillsammans med sina data-modeller för den tekniska Chat with RTX-demon, som uppdateras fram till mitten av 2022.

I den här artikeln kommer vi att testa Chat with RTX för att visa dig de kapabiliteter som den har när det gäller att leverera en kraftfull, helt offline AI-chatt för spelare.

FAQ:

1. Vad är Chat with RTX?
Chat with RTX är en textbaserad generativ AI-plattform som erbjuder lokal AI-chatt för spelare.

2. Hur utnyttjar Chat with RTX GeForce RTX GPU-kärnor?
Chat with RTX utnyttjar de kraftfulla GeForce RTX GPU-kärnorna för AI-chattacceleration.

3. Förlitar sig Chat with RTX på molnet eller internetdata?
Nej, Chat with RTX fungerar helt offline och förlitar sig inte på molnet eller internetdata.

4. Vilka AI-modeller finns tillgängliga i Chat with RTX?
De tillgängliga AI-modellerna i Chat with RTX är Llama2 och Mistral.

5. Hur kan jag tillhandahålla data för Chat with RTX?
Som användare kan du tillhandahålla data som kommer att användas av Chat with RTX.

6. Vilka kapabiliteter erbjuder Chat with RTX för spelare?
Chat with RTX erbjuder kraftfulla, helt offline AI-chattar för spelare.

Relaterade länkar:
– NVIDIA hemsida

The source of the article is from the blog klikeri.rs