diogocarapito commited on
Commit
55a6afb
·
1 Parent(s): 4ae4d1a

roberta qa test

Browse files
Files changed (1) hide show
  1. app.py +23 -1
app.py CHANGED
@@ -1,4 +1,26 @@
1
  import gradio as gr
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
  from transformers import pipeline, set_seed
3
  from transformers import BioGptTokenizer, BioGptForCausalLM
4
 
@@ -14,4 +36,4 @@ def biogpt_promot(inpt):
14
 
15
  app = gr.Interface(fn=biogpt_promot, inputs="text", outputs="text")
16
 
17
- app.launch()
 
1
  import gradio as gr
2
+ from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
3
+
4
+ model_name = "deepset/roberta-base-squad2"
5
+
6
+ context = "Escolha não fazer citologia cérvico-vaginal (teste de Papanicolau) ou rastreio para HPV em mulheres já submetidas a histerectomia (ou a remoção do colo uterino- traquelectomia), por outras razões que não sejam lesão pavimentosa intraepitelial de alto grau (HSIL, CIN 2 ou 3) ou carcinoma. Justificação: O cancro vaginal após histerectomia é muito raro, mais raro ainda que o cancro da mama no homem, para o qual o rastreio não está recomendado. O rastreio nestas mulheres vai mais provavelmente detetar lesões benignas que levam a testes invasivos de imediato e não à prevenção do cancro. O seguimento com citologia cérvico-vaginal está recomendado para mulheres pós-histerectomia quando esta tenha sido realizada por displasia de alto grau ou cancro, atendendo a que nestes casos o risco de cancro vaginal permanec e elevado. A citologia vaginal também pode estar indicada na presença de cancro vulvar associado ao HPV."
7
+
8
+ model = AutoModelForQuestionAnswering.from_pretrained(model_name)
9
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
10
+
11
+ def qanda(question):
12
+ nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
13
+ QA_input = {
14
+ 'question': question,
15
+ 'context': context
16
+ }
17
+ res = nlp(QA_input)
18
+
19
+ app = gr.Interface(fn=qanda, inputs="text", outputs="text")
20
+
21
+ app.launch()
22
+
23
+ '''
24
  from transformers import pipeline, set_seed
25
  from transformers import BioGptTokenizer, BioGptForCausalLM
26
 
 
36
 
37
  app = gr.Interface(fn=biogpt_promot, inputs="text", outputs="text")
38
 
39
+ '''