====== Semana 33 de 2021 ====== ===== Educação ===== * Preparação de aulas sobre "Desenvolvimento de aplicações computacionais para apoio a ensino e aprendizagem": * [[https://docs.google.com/presentation/d/1mGglqcbfq6IpHWpx1NYFESEzMPKqrtdQSuTUHZ1VGPY/edit | Equidade]] * [[https://docs.google.com/presentation/d/1BA3I_erlL55UxzptUjCNRYlIn23yR2sc8unto5U26eE/edit | Acessibilidade]] ===== Pesquisa ===== * Início da elaboração de dois relatórios técnicos: * [[https://www.overleaf.com/project/611a7fb5df789543d41c3b2c | eBPF]]: eBPF é uma abordagem para executar código no espaço do kernel com finalidade de executar programas em resposta a eventos em aplicações e no kernel Linux. * [[https://www.overleaf.com/project/611a8176df789505cb1c3f86 | Rastreamento]]: Este outro relatório é sobre como relatar de inconsistências no teste de regressão. O foco é no registro de ocorrências de flakiness na execução de casos de teste de regressão, considerando o rastreamento com auxílio do eBPF e o registro das informações em um padrão, tratando tanto informações pontuais sobre o caso de teste flaky quanto o rastro de execução (trace). * Ao assistar uma palestra do Marco Tulio sobre refatoração [[https://www.youtube.com/watch?v=EHVPvRYZdko | Detecting Refactorings in Commits: Why, How, and so what?]], descobri uma ferramenta para detecção de refatoração que funciona com outras linguagens que não Java: [[https://github.com/aserg-ufmg/RefDiff | RefDiff]]. Por exemplo, ela detecta refatorações em Javascript. * Reunião com [[.students:bruno_henrique_pachulski_camara]] e [[.students:josé_luiz_borbolato]]: possibilidades trabalho com flaky tests e criação da datasets com reeexecução. * Participação no [[eBPF Summit 2021]]. * Assisti a [[https://youtu.be/w_5zXmm24jU?t=427 | palestra do Fernando Kamei: What Evidence We Would Miss If We Do Not Use Grey Literature?]]. ===== Aleatória ===== * A evolução dos algoritmos de compressão de áudio é impressionante. MP3 (MPEG-1 Layer 3) foi marco. Depois tivemos AAC, em suas diversas evoluções, e soluções livres, como OGG e Opus. Até recentemente, para codificação de áudio e otimizado para fala, tínhamos o Speex e então o Opus. Recentemente, o Google criou o Lyra, que aplica modelos treinados para otimizar a compressão de áudio a 3 kbps, permitindo fala reconhecível. No entanto, a qualidade é um tanto sofrível. Agora o Google disponibilizou a abordagem SoundStream, que permite uma qualidade muito boa em uma taxa de bits semelhantes: https://ai.googleblog.com/2021/08/soundstream-end-to-end-neural-audio.html. Em breve essa tecnologia será incorporada ao Lyra. Tempos interessantes para a compressão de áudio referente a fala (embora o SoundStream também seja capaz de comprimir outros tipos de áudios apropriadamente também). * About blankfaces: https://www.scottaaronson.com/blog/?p=5675. Ainda bem que quase não encontramos exemplos disso no dia a dia.