NVIDIA Prezentuje Chat z RTX, Wykorzystanie Potęgi GPU do Lokalnych Chatów AI

NVIDIA har nettopp lansert den første offentlige versjonen av Chat med RTX-demoen. Men nei, du kan ikke chatte med grafikkortet ditt og spørre: «Hvordan har du det?» For det trenger du TechPowerUp GPU-Z-programmet. Chat med RTX er noe helt annet. Forestill deg en fullstendig lokalisert AI-samtale som kjører helt på datamaskinen din, drevet av de kraftige kjernene i GeForce RTX-grafikkortet ditt, og som ikke sender noen henvendelser til skyens chatte-servere. Det er det Chat med RTX er. NVIDIA jobber med å gjøre den til et alternativ til ChatGPT, som lagrer all kunnskapen sin lokalt på datamaskinen din og bruker GeForce RTX GPU som hjernen sin.

Innen utgangen av 2024, det lovte «AI-året for PC» som industriledere som Microsoft og Intel har spådd, har NVIDIA allerede hatt en bemerkelsesverdig fordel i seks år innen AI-akselerasjon. Selskapet introduserte lokal akselerert AI for sanntidsstrålesporingsteknologi med RTX. Som en del av denne innovasjonen ble deres GeForce RTX-grafikkort fra 2017 utstyrt med Tensor-kjerner. Disse komponentene forbedret betydelig byggingen og opplæringen av dyp nevralt nettverk (DNN) AI sammenlignet med å bare bruke CUDA-kjerner. Denne progressive teknologien var et betydelig sprang fremover med hensyn til ytelse, og økte kapasitetene til grafikkort for AI-drevne oppgaver. I tillegg til støyredusering bruker NVIDIA AI-akselerasjon for å drive DLSS-prestasjonsforbedringsfunksjoner. Kan du ikke utnytte spillet fullt ut? Aktiver DLSS og velg en av de tilgjengelige innstillingene til spillet kjører jevnt med dine ønskede innstillinger.

I våre nylige samtaler med NVIDIA, ga selskapet tydelig uttrykk for at de ikke er så imponert over de nyeste prosessorene fra Intel og AMD, som introduserer neurale prosesseringsenheter (NPU); de tilbyr ytelse fra 10 til 16 TOPS for bare NPU og ikke mer enn 40 TOPS for hele systemet (NPU + CPU + iGPU). NVIDIA GeForce RTX-modeller, takket være Tensor-kjernene, tilbyr 20x til 100x (!) høyere ytelse gjennom massiv AI-akselerasjon i sin GPU-arkitektur. Mens NPU-enheter basert på CPU tar sikte på å håndtere enkle tekster og bildebaserte AI-oppgaver, bruker NVIDIA AI på et helt annet nivå, selv i dag. Tenk bare på å generere hver annen ramme i DLSS 3 Frame Generation-teknologi eller redusere støyen i en 4K-scene i sanntids-spilling med over 60 bilder per sekund, avhengig av oppløsningen. Med andre ord har GeForce RTX-grafikkort enorme maskinvareakselerasjonsmuligheter for AI som ikke blir brukt når du ikke spiller. Derfor har NVIDIA bestemt seg for å vise spillere at det er mulig å kjøre fullstendig lokaliserte AI-verktøy ved hjelp av denne maskinvareakselerasjonen. Selskapet er nettopp i startfasen, og et av deres første prosjekter er Chat med RTX, som vi presenterer i en forhåndsvisningsform i dag. Med millioner av spillere som bruker GeForce RTX-grafikkort, betyr NVIDIAs enorme brukerbase at vi kan forvente at selskapet tar en mer aktiv rolle i PC AI-økosystemet ved å tilby ekstra AI-opplevelser og verktøy for datamaskiner utstyrt med GeForce RTX-grafikkort.

Som nevnt tidligere, er Chat med RTX en tekstbasert AI-plattform, lignende ChatGPT eller Copilot, men en som ikke sender noen data til skyen eller bruker internettdata. Datasettet er det du gir. Du har til og med muligheten til å velge mellom Llama2 og Mistral AI-modellene. For den tekniske Chat med RTX-demoen, tilbyr NVIDIA Llama2 og Mistral sammen med deres dataprodukter, som blir oppdatert frem til midten av 2022.

I denne artikkelen vil vi teste Chat med RTX for å vise deg hvilke muligheter den har for å levere en kraftig, fullstendig offline AI-chat for spillere.

FAQ:

1. Hva er Chat med RTX?
Chat med RTX er en tekstbasert generativ AI-plattform som tilbyr lokalisert AI-chat for spillere.

2. Hvordan utnytter Chat med RTX GeForce RTX GPU-kjernene?
Chat med RTX utnytter de kraftige GeForce RTX GPU-kjernene for akselerasjon av AI-chat.

3. Er Chat med RTX avhengig av skyen eller internettdata?
Nei, Chat med RTX fungerer fullstendig offline og er ikke avhengig av skyen eller internettdata.

4. Hvilke AI-modeller er tilgjengelige i Chat med RTX?
De tilgjengelige AI-modellene i Chat med RTX er Llama2 og Mistral.

5. Hvordan kan jeg gi data til Chat med RTX?
Som bruker kan du gi data som vil bli brukt av Chat med RTX.

6. Hvilke muligheter tilbyr Chat med RTX for spillere?
Chat med RTX tilbyr kraftige, fullstendig offline AI-samtaler for spillere.

Relaterte lenker:
– NVIDIA Hjemmeside

The source of the article is from the blog lokale-komercyjne.pl