Semana 30 de 2021
Pesquisa
- Reunião com yuri_rafael_grajefe_feitosa: revisão do PDM.
- Submissão de artigo do bruno_henrique_pachulski_camara no SAST 2021.
- Leitura de artigos sobre revisão de artigos:
- “Pains and Gains of Peer-Reviewing in Software Engineering” (doi:10.1145/3375572.3375575).
- “Pains and Gains of Peer-Reviewing in Software Engineering (4)” (doi:10.1109/ICSE-C.2017.49)
- “Pains and Gains of Peer-Reviewing in Software Engineering (5)” (doi:10.1145/3468744.3468747).
- “Pains and Gains of Peer Reviewing in Software Engineering: A Journal-Centric Perspective” (doi:10.1145/3468744.3468748).
- “The ACM SIGSOFT Paper and Peer Review Quality Initiative: Status Report” (doi:3385678.3385681).
- “Double-Blind is Good but Open Would Be Better Perceptions of Peer Review in the SE Community” (doi:10.1145/3402127.3402133).
- “A community’s perspective on the status and future of peer review in software engineering” (doi:10.1016/j.infsof.2017.10.019).
- “Peer Reviewing in Software Engineering: Perspectives from STVR Co-Editors-in-Chief” (doi:10.1145/3417564.3417568). Este artigo trouxe uma ideia simples, mas efetiva para um problema abordado no Congresso da SBC: pesquisadores com quantidades muito elevadas de artigos. Por exemplo, é normal que um pesquisador publique 50 ou 100 artigos em um ano? Um argumento levantado naquela seção (CAPES/CNPq) foi que não existe um parâmetro definido pelas agências de fomento e que isso deveria partir da comunidade. O artigo menciona algo que passa desapercebido: o processo de revisão por pares deve ser autosustentável. Em outras palavras, se você tem 100 artigos publicados, você deve ter prestado o serviço de revisão de uma quantidade compatível de seus pares (3 a 4 vezes a quantidade de artigos _submetidos_). Ou seja, na melhor das hipóteses, alguém que tenha publicado 100 artigos teria de ter revisado 300 artigos (considerando taxa de aceitação de 100%). Assim fica fácil perceber que isso é humanamente impossível. No entanto, mecanismos públicos para registrar as revisões realizadas ainda são escassos. Talvez com a ampla adoção de soluções como o Publons ou o RQC (ReviewQualityCollector), isso poderá se tornar uma realidade.
- “Peer Review: Trust and Prejudice” (doi:10.1145/3417564.3417569).
- Considerando a maratona de artigos acima, de nota temos o site de Empirical standards da ACM: https://acmsigsoft.github.io/EmpiricalStandards/. Será utilizado na disciplina de Tópicos em Engenharia de Software – Revisão sistemática.
- Disponibilização do Code Defenders em http://dacom.cm.utfpr.edu.br/codedefenders.
- Reunião com vinicius_bosa_petris: configuração do Code Defenders.
- Reunião com rafael_rampim_soratto: apresentação dos resultados da análise de código e revisão da ferramenta.
- Leitura do artigo “An Interview with Laurie Williams - ACM Fellow 2020 (doi:10.1145/3468744.3468750). Entrevista com Laurie Williams, uma pesquisadora de destaque e muito ativa em Engenharia de Software, com um trabalho especialmente próximo da indústria. Um bom exemplo de profissional: completo, com ótima atuação tanto na pesquisa quanto no ensino.
- Reunião com leandro_césar_da_cruz: revisão do script para obtenção e processamento dos dados sobre teste de software.
Educação
- Seminário sobre gamificação pelo Marcos Mincov Tenório no Conexão UTFPR: https://www.youtube.com/watch?v=HLopuOvp57k
- Consegui instalar o Use Case Maker no Linux. Primeiro, é necessário configurar o .NET Framework 4.5.2 com o winetricks. Por padrão, sempre configure um prefixo por aplicação (WINEPREFIX) e, por via das dúvidas, configure a arquitetura para 32 bits (WINEARCH=win32). Ao invés de usar o instalador da última versão (disponível no Github), utilize aquele do SourceForge: 2.0.0.1.
Gestão
- Conversa sobre plano de ensino (ementa, conteúdo) para algumas disciplinas de engenharia de software: https://docs.google.com/document/d/1N2favEcwuZDAubjDh3jpHPuYE2uOUASN_QLAmhQdd2A/edit
Manutenção
- Desativar beep no Fedora/Gnome:
gsettings set org.gnome.desktop.sound event-sounds false