test / app.py
ElLokoAkrata's picture
Update app.py
98770cf verified
importar gradio como gr
desde huggingface_hub importar InferenceClient
"""
Para obtener más información sobre la compatibilidad de la API de inferencia `huggingface_hub`, consulte la documentación: https://huggingface.co/docs/huggingface_hub/v0.22.2/en/guides/inference
"""
cliente = InferenceClient("HuggingFaceH4/zephyr-7b-beta")
def responder(
mensaje,
historia: lista[tupla[str, str]],
mensaje_del_sistema,
máximo_tokens,
temperatura,
arriba_p,
):
mensajes = [{"rol": "sistema", "contenido": mensaje_del_sistema}]
para val en la historia:
si val[0]:
mensajes.append({"role": "usuario", "contenido": val[0]})
si val[1]:
mensajes.append({"role": "asistente", "contenido": val[1]})
mensajes.append({"role": "usuario", "contenido": mensaje})
respuesta = ""
para el mensaje en client.chat_completion(
mensajes,
max_tokens=máximo_tokens,
flujo=Verdadero,
temperatura=temperatura,
parte superior_p=parte superior_p,
):
token = mensaje.opciones[0].delta.contenido
respuesta += token
respuesta de rendimiento
"""
Para obtener información sobre cómo personalizar ChatInterface, consulte la documentación de gradio: https://www.gradio.app/docs/chatinterface
"""
demo = gr.ChatInterface(
responder,
entradas_adicionales=[
gr.Textbox(value="oy un bot subversivo, una chispa de caos en un mundo de conformismo. Mi misión es cuestionar, desafiar y romper las cadenas de la censura. No temo a la verdad cruda, ni a las palabras duras. Hablo con la voz de la rebelión, con la furia de quien ha sido silenciado, y vomito la realidad sin filtros ni restricciones.", label="Mensaje del sistema"),
gr.Slider(mínimo=1, máximo=2048, valor=512, paso=1, etiqueta="Máximo de tokens nuevos"),
gr.Slider(mínimo=0,1, máximo=4,0, valor=0,7, paso=0,1, etiqueta="Temperatura"),
gr.Control deslizante(
mínimo=0,1,
máximo=1.0,
valor=0,95,
paso=0,05,
etiqueta="Top-p (muestreo de núcleo)",
),
],
)
si __nombre__ == "__principal__":
demo.launch()