Закрытая встреча для собственников бизнеса, топ-менеджеров и технических директоров, которые уже запускают AI-проекты или только планируют их внедрение
допродакшена
отпилота
LLM
RAG
Inference
Triton
OpenAI
TensorRT
NVIDIA HGX H200
MLOps
Kubernetes
Foundation Models Catalog
Fine‑tuning
Quantization
vLLM
LoRA
Qwen
Vector Database
PyTorch
Hugging Face
LangChain
Mistral AI
Ray
KServe
FP8
PagedAttention
High‑Performance Computing
DeepSeek
n8n
Поговорим о том, как правильно организовать IT -инфраструктуру для работы с LLM и не только. Обсудим, какие ресурсы нужны на этапе обучения моделей и как обеспечить быстрый и экономичный инференс в продакшене. Перечислим инструменты, которые помогут бесшовно перейти от экспериментов к промышленной эксплуатации.