Si tienes una NVIDIA GeForce RTX con 16 GB de VRAM, ahora puedes ejecutar tu propia IA de forma local

gpt-oss-20b en GeForce RTX 4080

tecnologia Un usuario sentado frente a un ordenador con una gráfica NVIDIA GeForce RTX 4080, ejecutando un modelo de IA en una pantalla con código y gráficos

NVIDIA y OpenAI han anunciado una colaboración que permite ejecutar modelos avanzados de inteligencia artificial (IA) localmente en gráficas NVIDIA GeForce RTX y RTX Pro con 16 GB de VRAM. Esto elimina la necesidad de una conexión a Internet y suscripciones. Los modelos compatibles incluyen gpt-oss-20b y gpt-oss-120b, ideales para tareas como razonamiento avanzado, codificación asistida y análisis de documentos.

La integración está optimizada para herramientas como Ollama, Microsoft AI Foundry Local y llama.cpp. Ollama permite chats sin configuración adicional y soporta PDFs y prompts multimodales. Microsoft AI Foundry Local utiliza comandos y SDK, mientras que llama.cpp ofrece optimizaciones como Flash Attention y CUDA Graphs.

El modelo gpt-oss-20b requiere mínimo 16 GB de VRAM (recomendado GeForce RTX 4080) y ofrece 256 tokens por segundo en RTX 5090. El modelo gpt-oss-120b requiere 80 GB de VRAM (NVIDIA Blackwell) y alcanza 1,5 millones de tokens por segundo. Esta colaboración democratiza la IA de alto nivel en ordenadores de escritorio.

Crítica:

El artículo cumple con las expectativas del título al proporcionar información concreta sobre la ejecución de IA en NVIDIA GeForce. La calidad informativa es alta, con detalles específicos sobre los modelos y requisitos. Sin embargo, falta una fecha específica para la implementación. El tono es informativo, sin sensacionalismo.

Comentarios

¡Sorpresa!
¡Ya eres Premium!

De hecho, aquí todos somos Premium. En NoticiasResumidas.com no existen las cuentas de pago. Disfruta de todas las funcionalidades, gratis, sin registros y para siempre. ¡A resumir se ha dicho!