La API de este chat está desplegada en Render, el servidor entra en reposo automáticamente — la primera consulta lo reactiva, lo que puede tomar entre 30 y 60 segundos. Las siguientes respuestas serán inmediatas.
Es un chatbot con IA que funciona como intermediario entre el usuario y un modelo de lenguaje. El frontend (HTML + Tailwind) captura la pregunta del usuario y la envía a una API propia construida en Python. Esa API se comunica con Groq usando el modelo LLaMA 3.3 70B para generar una respuesta inteligente y personalizada.
Usuario escribe una pregunta en el frontend
Vercel sirve el frontend (HTML + CSS + JS)
fetch() en JavaScript hace un POST a la API
FastAPI (Python) recibe la petición en el endpoint POST /ask
Groq API procesa la pregunta con LLaMA 3.3 70B
La respuesta regresa al frontend y se escribe con efecto typewriter
Puedes probar el endpoint directamente sin necesidad del frontend:
https://python-api-render-ubr9.onrender.com/ask
Body → JSON:
{
"name": "Sebastian",
"question": "¿Qué es la inteligencia artificial?",
"personality": "casual"
}
Respuesta esperada:
{
"answer": "¡Hola Sebastian! La IA es..."
}
Valores disponibles para personality:
api-python/ con subcarpeta app/ que contiene main.py, schemas.py y groq_service.py.fastapi, uvicorn, groq, python-dotenv. Se generó el requirements.txt con pip freeze.POST /ask que recibe name, question y personality, y devuelve la respuesta del modelo como JSON.system prompt según la selección del usuario, controlando el tono y comportamiento del modelo.localStorage, permitiendo guardar, cargar y crear nuevos chats sin base de datos..env con la variable GROQ_API_KEY y se agregó al .gitignore para no exponer la clave en GitHub.uvicorn app.main:app --host 0.0.0.0 --port 10000. Se configuró la variable GROQ_API_KEY desde el panel de Render.vercel.json para servir los archivos estáticos. Cada push a main redespliega automáticamente.Autor: Sebastian Vasquez Echavarria
Portafolio: sebas-dev.vercel.app
GitHub: python-api-render