Semana 30 de 2021

Semana 30 de 2021

Pesquisa

  • Reunião com yuri_rafael_grajefe_feitosa: revisão do PDM.
  • Submissão de artigo do bruno_henrique_pachulski_camara no SAST 2021.
  • Leitura de artigos sobre revisão de artigos:
    • “Pains and Gains of Peer-Reviewing in Software Engineering” (doi:10.1145/3375572.3375575).
    • “Pains and Gains of Peer-Reviewing in Software Engineering (4)” (doi:10.1109/ICSE-C.2017.49)
    • “Pains and Gains of Peer-Reviewing in Software Engineering (5)” (doi:10.1145/3468744.3468747).
    • “Pains and Gains of Peer Reviewing in Software Engineering: A Journal-Centric Perspective” (doi:10.1145/3468744.3468748).
    • “The ACM SIGSOFT Paper and Peer Review Quality Initiative: Status Report” (doi:3385678.3385681).
    • “Double-Blind is Good but Open Would Be Better Perceptions of Peer Review in the SE Community” (doi:10.1145/3402127.3402133).
    • “A community’s perspective on the status and future of peer review in software engineering” (doi:10.1016/j.infsof.2017.10.019).
    • “Peer Reviewing in Software Engineering: Perspectives from STVR Co-Editors-in-Chief” (doi:10.1145/3417564.3417568). Este artigo trouxe uma ideia simples, mas efetiva para um problema abordado no Congresso da SBC: pesquisadores com quantidades muito elevadas de artigos. Por exemplo, é normal que um pesquisador publique 50 ou 100 artigos em um ano? Um argumento levantado naquela seção (CAPES/CNPq) foi que não existe um parâmetro definido pelas agências de fomento e que isso deveria partir da comunidade. O artigo menciona algo que passa desapercebido: o processo de revisão por pares deve ser autosustentável. Em outras palavras, se você tem 100 artigos publicados, você deve ter prestado o serviço de revisão de uma quantidade compatível de seus pares (3 a 4 vezes a quantidade de artigos _submetidos_). Ou seja, na melhor das hipóteses, alguém que tenha publicado 100 artigos teria de ter revisado 300 artigos (considerando taxa de aceitação de 100%). Assim fica fácil perceber que isso é humanamente impossível. No entanto, mecanismos públicos para registrar as revisões realizadas ainda são escassos. Talvez com a ampla adoção de soluções como o Publons ou o RQC (ReviewQualityCollector), isso poderá se tornar uma realidade.
    • “Peer Review: Trust and Prejudice” (doi:10.1145/3417564.3417569).
  • Considerando a maratona de artigos acima, de nota temos o site de Empirical standards da ACM: https://acmsigsoft.github.io/EmpiricalStandards/. Será utilizado na disciplina de Tópicos em Engenharia de Software – Revisão sistemática.
  • Disponibilização do Code Defenders em http://dacom.cm.utfpr.edu.br/codedefenders.
  • Reunião com vinicius_bosa_petris: configuração do Code Defenders.
  • Reunião com rafael_rampim_soratto: apresentação dos resultados da análise de código e revisão da ferramenta.
  • Leitura do artigo “An Interview with Laurie Williams - ACM Fellow 2020 (doi:10.1145/3468744.3468750). Entrevista com Laurie Williams, uma pesquisadora de destaque e muito ativa em Engenharia de Software, com um trabalho especialmente próximo da indústria. Um bom exemplo de profissional: completo, com ótima atuação tanto na pesquisa quanto no ensino.
  • Reunião com leandro_césar_da_cruz: revisão do script para obtenção e processamento dos dados sobre teste de software.

Educação

  • Seminário sobre gamificação pelo Marcos Mincov Tenório no Conexão UTFPR: https://www.youtube.com/watch?v=HLopuOvp57k
  • Consegui instalar o Use Case Maker no Linux. Primeiro, é necessário configurar o .NET Framework 4.5.2 com o winetricks. Por padrão, sempre configure um prefixo por aplicação (WINEPREFIX) e, por via das dúvidas, configure a arquitetura para 32 bits (WINEARCH=win32). Ao invés de usar o instalador da última versão (disponível no Github), utilize aquele do SourceForge: 2.0.0.1.

Gestão

Manutenção

  • Desativar beep no Fedora/Gnome: gsettings set org.gnome.desktop.sound event-sounds false
work/semana_30_de_2021.txt · Last modified: 2021/09/14 14:46 by 65.21.179.252