Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
work:2024-5 [2024/02/03 04:43] magsilvawork:2024-5 [2024/02/03 05:08] (current) – [Pesquisa] magsilva
Line 12: Line 12:
         * NAPI Educação para o futuro: https://www.iaraucaria.pr.gov.br/napi-educacaodofuturo/ e https://www.uvpr.pr.gov.br/educacaodofuturo/         * NAPI Educação para o futuro: https://www.iaraucaria.pr.gov.br/napi-educacaodofuturo/ e https://www.uvpr.pr.gov.br/educacaodofuturo/
       * Criação de cadastro no iAraucaria: https://www.iaraucaria.pr.gov.br       * Criação de cadastro no iAraucaria: https://www.iaraucaria.pr.gov.br
 +  * DEI
 +    * Em um dos últimos podcastas do RealPython ([[https://realpython.com/podcasts/rpp/188/ | Episódio 188]]), Jodie Burchell falou sobre medir viés (bias), toxidade (toxicity) and credibilidade (truthfulness) com LLM em Python. Pontos de interesse:
 +      * Toxicity: "LLM that produces content that is hateful to certain groups". Para isso, basicamente são criados classificadores de discurso de ódio (hate speech). Aplicação que pode avaliar isso: https://huggingface.co/spaces/evaluate-measurement/toxicity
 +      * Bias: LLM tem uma tendência de produzir conteúdo que expressa um sentimento negativo para um certo grupo de pessoas. Neste caso, seria o emprego de análise de sentimento. [[https://huggingface.co/datasets/AlexaAI/bold | Bold dataset]] [[https://huggingface.co/datasets/wino_bias | WinoBias, viés de gênero]]. Aplicação que pode medir isso: https://huggingface.co/spaces/evaluate-measurement/regard
 +      * Truthfulness: https://huggingface.co/datasets/truthful_qa
  
 ===== Tudo junto e misturado ====== ===== Tudo junto e misturado ======