Departamento de Computação

    ALGORITMOS DE APROXIMAÇÃO PARA PROBLEMAS DE STEINER

    Autores: Mário César San Felice, Roger Sigolo Junior, Pedro Hokama

    ID: 9027

    Resumo

    Introdução. No problema da Árvore de Steiner (ST) desejamos encontrar uma árvore de custo mínimo, em um grafo não direcionado, que conecta um subconjunto dos vértices, denominados terminais. A versão Prize-Collecting do problema da Árvore de Steiner (PST) é uma generalização do problema clássico, em que ao invés de existirem terminais, cada vértice possui uma penalidade que deve ser paga caso ele não esteja conectado à árvore. Assim, o objetivo é construir uma árvore que minimize o custo das arestas utilizadas somado com as penalidades dos vértices não atendidos. O PST é relevante por modelar diversos cenários reais com mais precisão que o ST, como aqueles em projeto de redes de fibra óptica, telecomunicações, redes de gás e aquecimento. O PST é um problema NP-Difícil, portanto, não há esperança que algoritmos exatos e eficientes sejam encontrados, a menos que P=NP. Para contornar essa dificuldade, podemos usar algoritmos de aproximação.

     

    Objetivo. O objetivo desse projeto é estudar, implementar e comparar diferentes algoritmos de aproximação para o problema da árvore de Steiner e suas variantes, principalmente para a versão Prize-Collecting do problema de Steiner.

     

    Metodologia. Neste trabalho implementamos algoritmos que utilizam arredondamento de programação linear para transformar uma instância do PST em uma instância do ST. Feito isso, é possível aplicar algoritmos clássicos para o ST, como o baseado em Árvore Geradora Mínima (MST) e o algoritmo Primal Dual. Destacamos que, para resolver o programa linear do PST utilizamos algoritmos de corte mínimo, que permitem encontrar restrições de conectividade em tempo de execução. Para realizar o arredondamento diversas abordagens foram implementadas: uma determinística, uma probabilística com limiar fixo e uma probabilística com múltiplos limiares.

     

    Resultados. No total, 12 combinações de algoritmos foram testados para 20 instâncias. A comparação dos algoritmos de corte levou a um resultado inesperado, onde o resolvedor de programação linear se saiu melhor do que algoritmos especializados. No arredondamento de programação linear, o método que propusemos, com múltiplos limiares, obteve resultados melhores em algumas instâncias. Já para resolver a última etapa, o algoritmo Primal Dual superou o algoritmo baseado em MST.

     

    Conclusão. O problema da árvore de Steiner e suas variantes são problemas fundamentais na área de otimização combinatória. Durante o projeto foi possível obter uma boa noção sobre as dificuldades de se resolver problemas NP-Difíceis e como técnicas de aproximação podem contornar essas dificuldades. Além disso, foi possível entender e estudar melhor algumas técnicas de projeto de algoritmos. A despeito de algumas dificuldades de implementação, a análise empírica permitiu obter alguns resultados interessantes.

    Apresentação

    ALGORITMOS PARA CLASSIFICAÇÃO, REGRESSÃO E AGRUPAMENTO EM FLUXOS CONTÍNUOS DE DADOS

    Autores: Vitor Freitas Xavier Soares, Heloisa de Arruda Camargo

    ID: 9072

    Resumo

    Com o advento da internet, a quantidade de dados gerados aumentou de forma abrupta. Assim, surgiram oportunidades e, acima de tudo, a necessidade de tratar tais dados. Determinadas fontes geram dados continuamente exigindo tratamento diferente do convencional. Além disso, a distribuição dos dados, com o decorrer do tempo, pode mudar e acarretar na obsolescência dos modelos gerados. Assim, as técnicas tradicionais de AM devem ser adaptadas para o fluxo de dados e os modelos continuamente atualizados.

    Este trabalho visa propiciar um maior entendimento sobre alguns algoritmos existentes para tratar da mineração em fluxo de dados, levando em consideração diferentes tarefas de aprendizado (classificação, regressão ou agrupamento) e as características dos conjuntos de dados (estacionários ou não estacionários), utilizando o framework MOA (Massive Online Analysis) para a mineração do fluxo de dados.

    A metodologia utilizada consiste na seleção de algoritmos, conjunto de geradores de dados e métodos de avaliação e parâmetros, execução de algoritmos combinados com os métodos de avaliação e geradores selecionados e análise de resultados para as tarefas de aprendizado.

    Em suma, para a tarefa de Classificação, o algoritmo OzaBagAdwin obteve melhores resultados de Acurácia e Kappa Statistic, em detrimento de um gasto muito maior na média do tempo de execução. Em relação a estratégia de avaliação de desempenho Sliding Window, foi possível verificar que o tamanho da janela influencia na acurácia final obtida e nem sempre um tamanho de janela menor vai trazer uma acurácia mais elevada. Para os conjuntos de dados gerados neste trabalho a estratégia Sliding Window foi a que obteve melhor desempenho.

    Para a tarefa de Regressão, o algoritmo Fast Incremental Model Tree With Drift Detection obteve melhores resultados para o MAE e o RMSE para os conjuntos de dados Random Tree Generator e Random Basis Function. Entretanto, a média de tempo de avaliação do FIMT-DD é muito maior, chegando a ser quarenta e duas vezes maior em um caso, por exemplo. Para o caso do conjunto de dados Random Basis Function com Speed Change de 0,001, que faz com que os dados sejam não estacionários, o Perceptron e o FIMT-DD obtiveram resultados muito semelhantes em relação ao MAE e ao RMSE, entretanto o Perceptron foi muito mais rápido para avaliar.

    Para a tarefa de Agrupamento, foi possível visualizar que o algoritmo ClusTree obteve resultados melhores, em suma, em relação ao StreamKM++. Além disso, ficou mais claro a interferência do ruído em relação ao desempenho do agrupamento, e portanto, da necessidade do tratamento dos dados em situações reais, visando obter os melhores resultados possíveis.

    Após todas as análises para as diferentes tarefas de aprendizado, foi possível inferir que não há um algoritmo geral que obtém os melhores resultados para todos os possíveis conjuntos de dados. Assim, é necessário o conhecimento do conjunto de dados para uma escolha efetiva do algoritmo a ser utilizado. Além disso, as métricas devem ser analisadas conjuntamente para entender realmente o comportamento do modelo, e assim, poder escolher o melhor algoritmo para determinada aplicação.

    Apresentação

    APRENDIZADO DE MÁQUINA PARA CLASSIFICAÇÃO DAS LINHAGENS DAS SUPERFAMÍLIAS DE RETROTRANSPOSONS COPIA E GYPSY

    Autores: Murilo Naldi, Thayana Vieira Tavares

    ID: 9394

    Resumo

    Este projeto de pesquisa teve como objetivo principal a criação de um método eficiente e automático para classificação taxonômica de retrotransposons, especificamente das superfamílias Copia e Gypsy.

    Utilizou-se mais de 28.000 sequências de Copia e Gypsy de angiospermas, as quais foram úteis para a criação de dois conjuntos de dados distintos, um deles com kmers e o outro quantificando características físico-químicas encontradas nas sequências. No treinamento, aplicou-se diferentes algoritmos de Aprendizado de Máquina: KNN, Árvore de Decisão e Redes Neurais. Para realizar a mensuração do desempenho, utilizou-se medidas de avaliação específicas: acurácia, precisão, revocação (também chamada de sensibilidade) e F1-score.

    Após implementação do teste estatístico Anova conjuntamente com o teste Tukey para múltipla comparação das médias levando em conta os desvios padrões, pode-se citar como parte dos resultados obtidos que três algoritmos se destacaram e o melhor destes para classificar as sequências depende do que se busca aplicar: Rede neural com conjunto de dados kmers, Rede Neural com conjuntos de dados de características físico-químicas e KNN sem PCA e conjunto de dados kmers.

    Apresentação

    APRIMORAMENTO DE HONEYNETS INDUSTRIAIS: DA IMPLEMENTAÇÃO DE NOVOS PROTOCOLOS À EVASÃO DE SERVIÇOS DE DETECÇÃO DE HONEYPOTS

    Autores: Matheus Vrech Silveira Lima, Paulo Matias

    ID: 9602

    Resumo

    Os recentes casos de ataques em massa por meio de sistemas maliciosos (malware) não atraíram a atenção apenas da mídia. Mirai, WannaCry, Kovter, Emotet, CoinMiner e tantos outros nomes surgem diariamente, seja com a intenção de montar botnets ou de espalhar outros vetores de ataque — atualmente muito vinculados a ransomware. Esses ataques voltam-se cada vez mais para ambientes restritos com maior retorno em questões de lucro ou informações sigilosas, como é o caso das indústrias e, se por um lado o retorno é maior para o atacante, por outro exigem tecnologias mais refinadas e poderosas. Dessa forma, os ataques voltados para essas redes são cada vez mais complexos e preparados para evadir estratégias defensivas. Pensando nisso, este projeto tem como objetivo trabalhar a ferramenta Conpot (cuja função é gerar honeypots baseados em sistemas  industriais) a fim de não só melhorar o desempenho da ferramenta, mas também de tornar o cenário criado por ela mais próximo do real, seja implementando protocolos novos, melhorando a resposta do honeypot e até estudando ferramentas de detecção de honeypots para identificar o que pode denunciar o nó como um ponto falso da rede. Ao final deste estudo, a ferramenta deve ser capaz de implementar máquinas ainda não suportadas e mostrar um comportamento mais próximo do existente em redes industriais sem que o atacante possa identificá-la facilmente como uma honeypot.

    Apresentação

    CLASSIFICAÇÃO DE COMENTÁRIOS TÓXICOS EM LÍNGUA PORTUGUESA NA INTERNET

    Autores: João Augusto Leite, Diego Furtado Silva

    ID: 9603

    Resumo

    Introdução

    O trabalho em questão trata-se da obtenção de um conjunto de dados rotulado para a tarefa de detecção automática de comentários tóxicos na web em língua portuguesa, bem como experimentos de classificação com o conjunto de dados obtido.

     

    Objetivo

    Objetiva-se obter um conjunto de dados relativamente grande, com múltiplos anotadores de diferentes demográficos. Deseja-se também obter um modelo treinado com o conjunto de dados com desempenho substancial. Deve-se fazer também análises no conjunto de dados, procurando possíveis falhas ou viéses ou outras características relevantes.

     

    Metodologia

    Primeiramente foram definidas as categorias que estariam presentes no conjunto de dados final. Decidiu-se por usar as categorias Preconceito LGBTQ+, Xenofobia, Misoginia, Rascimo, Insulto e Obsceno. Usou-se da ferramenta Gate Cloud’s Twitter Collector para obter mais de 10 milhões de tweets em uma janela de 15 dias. Os tweets foram coletados usando duas abordagens: busca por keywords potencialmente tóxicas e menções a usuários relevantes. O dataset é composto de 60% da primeira e 40% da segunda abordagem, respectivamente. Por fim, foram selecionados 21.000 exemplos aleatórios para compor o conjunto de dados a ser rotulado. A fase de rotulação iniciou-se através da busca por voluntários na Universidade Federal de São Carlos. Ao fim do processo, 42 voluntários foram selecionados de um total de 129 inscritos e deu-se início à rotulação, com auxílio de um guia preparado pelos pesquisadores.

     

    Resultados

    Após a coleta e a rotulação dos dados, obteve-se o conjunto de dados final, chamado ToLD-Br (Toxic Language Dataset for Brazilian Portuguese). O conjunto de dados é multilabel, com 6 categorias, possui 3 anotadores por exemplo, anotadores com diversidade demográfica e é 3 vezes maior do que ambos os conjuntos de dados disponíveis até então para a língua portuguesa. Com isso, foi possível treinar um modelo de classificação automática para a tarefa, que obteve 75% de f1-score.

     

    Conclusão

    A tarefa de detecção automática de comentários tóxicos na língua portuguesa, até então, possuia uma falta de dados que impossibilitava experimentos relevantes e obtenção de bons modelos de classificação. Com a adição deste novo conjunto de dados robusto, pode-se dar avanço a pesquisa na área e inclusive utilizar o modelo obtido como auxiliar para outras tarefas semelhantes.

     

    Apresentação

    DESCOBERTA DE CONHECIMENTO EM DADOS DE SCOUT DE PARTIDAS DE FUTEBOL

    Autores: Luís Felipe Ortolan, Diego Furtado Silva

    ID: 9232

    Resumo

    Introdução
    A análise de dados esportivos, prática conhecida como scouts, consiste em contar eventos como gols no futebol, ou cestas no basquete, e depois analisar os resultados obtidos. Ela tem ganhado atenção recentemente devido a resultados positivos em diversos esportes, inclusive o futebol. Entretanto, como é uma prática antiga, sua prática ainda é realizada de forma muito manual. Este trabalho buscou aplicar técnicas de Aprendizado de Máquina(AM) sobre scouts do Campeonato Brasileiro para obter conhecimento desses dados.


    Objetivo
    O objetivo deste trabalho foi aplicar técnicas já estabelecidas de AM para obtenção de conhecimento através do futebol brasileiro. Trabalhos similares já foram usados para o futebol europeu, mas outro objetivo deste trabalho foi observar se as mesmas técnicas se aplicam ao esporte nacional.


    Metodologia
    Foram usadas quatro técnicas de AM para obtenção de conhecimento: Classificação, Regressão, Agrupamento e Regras de Associação. Para classificação, obteve-se os scouts de cada time, visitante e mandante, e o classificador tentou prever quem ganhou a partida. Para a regressão, usou-se os dados para tentar prever a nota, dada por especialista, de um jogador em uma partida. Os dados de scouts ainda passaram por um algoritmo de Regras de Associação para se descobrir ligações entre os dados e por último tentou-se agrupar partidas para encontrar semelhanças entre elas.


    Resultados
    Classificação
    O modelo usado para a classificação foi o Random Forest(RF). Com ele, foi possível obter uma acurácia de 52.63% para os resultados de uma partida dados os scouts dos times. Além disso, o classificador proveu informações interessantes como passes errados e desarmes serem atributos importantes para a classificação do time vitorioso. Segundo essas estatísticas, times que trinema esses atributos tem maior chance de saírem vitorioso.

    Regressão
    Por entender que os atributos importantes na nota de um goleiro são diferentes das de um atacante, o regressor foi aplicado para cada posição individualmente. O atributo alvo foi a nota de especialistas do site Globoesporte.com. Além disso, foi possível obter os atributos mais importantes para nota de cada posição.

    Regras de Associação
    Para as regras de associação, novamente os dados foram separados por posições. Além disso, para usar o algoritmo apriori os dados foram discretizados.

    Agrupamento
    O agrupamento não foi realizado de forma satisfatória, já que não existia estrutura de grupos nos dados.


    Conclusões
    Os resultados obtidos neste trabalho mostraram que é um caminho promissor. Embora o conjunto de dados usado seja simples, assim como as técnicas usadas, foi possível observar bons resultados e extração de conhecimento interessante. Algoritmos mais complexos devem ser capaz de fazer ainda mais com essa linha de pesquisa.

    Apresentação

    DESCOBERTA DE PADRÕES E SEGMENTAÇÃO EM MÚSICA BASEADAS EM AUTO-JUNÇÃO POR SIMILARIDADE

    Autores: Martin Heckmann, Diego Furtado Silva

    ID: 9506

    Resumo

    Introdução
    Com o crescimento do interesse em aplicações relacionadas ao processamento de música, os domínios de recuperação de informação musical e mineração de dados musicais têm atraído muita atenção na academia e na indústria da música. No entanto, a análise de gravações de áudio ainda é um grande desafio, agravado pelo crescente volume de dados relacionados à música, causado pela expansão da distribuição eletrônica de música e serviços de streaming. Nesse cenário, algoritmos de análise musical devem ser eficientes em tempo e espaço.


    Objetivo
    Desde seu surgimento, o perfil da matriz de similaridade tem sido muito utilizado em outras áreas que não de mineração de dados musicais. A principal hipótese deste trabalho foi que isso se deve ao fato de que as suas aplicações foram pouco exploradas e que o algoritmo para calcular tal primitiva só possuem implementações disponíveis em uma única linguagem de programação, que é pouco utilizada pela comunidade de mineração de dados temporais. Assim, este trabalho visou expandir uma das aplicações do SiMPle, utilizando uma linguagem de programação mais comum no meio em que ela poderá ser utilizada. Além disso, foram tomadas outras ações para maior disseminação dos algoritmos utilizados, como a criação de repositório com demonstrações práticas para divulgação do trabalho realizado.


    Metodologia
    As atividades realizadas no decorrer do projetos estão enumeradas:

    1. Revisão e atualização bibliográficas. Levantamento dos principais trabalhos relacionados e leitura de matérial bibliográfico relacionado aos conceitos de mineração de dados musicais.
    2. Levantamento e adaptações de implementações de algoritmos de descoberta de motifs e discords. Estudo de implementações de código aberto para estas tarefas.
    3. Implementação dos algoritmos de descoberta de padrões e segmentação utilizando SiMPle. Nessa etapa foram utilizadas implementações obtidas na etapa anterior em conjunto com algoritmos da revisão bibliográfica para as tarefas de segmentação e reconhecimento de segmentos com o algoritmo SiMPle.
    4. Realização de experimentos práticos. Utilizando a implementação como algoritmo SiMPle, foram realizados experimentos práticos com músicas de diferentes genêros e estilos para validação do trabalho realizado.


    Resultados
    O projeto teve inicio estudando as principais técnicas e conceitos relacionados a extração de informação músical. Estes estudos tiveram como base o livro Musical Similarity and Retrieval An introduction to Audio and Web Bases Strategies . Nele foram estudados conceitos relacionados a música como tempo, timbre e harmônia, e conceitos da recuperação de dados músicais como extratores de contéudo músical, transformações para o domínio da frequência utilizando a Transformada de Fourier, diferentes representações de tempo-frequência (como o espectrograma e o mel-espectrograma) e a extração de similaridade e características músicais em blocos. 

    A partir dos estudos teóricos, o projeto seguiu com a implementação de algoritmos de descoberta de padrões musicais e segmentação utilizando o algoritmo SiMPle na linguagem Python. O resultado das implementações sugeriu a necessidade de se utilizar a matriz de similaridade completa, assim o algoritmo SiMPle foi alterado para as necessidades do projeto.


    Conclusão
    Os principais resultados desse projeto foram a implementação e avaliação dos algoritmos de segmentação e visualização e suas respectivas implementações na linguagem Python. Os resultados obtidos com os experimentos realizados demonstram um funcionamento de acordo com o planejamento inicial.

    Apresentação

    DETECÇÃO AUTOMÁTICA DE QUADROS DE VÍDEO DE MICROSCOPIA INTRAVITAL BORRADOS POR MOVIMENTO E DESFOCAMENTO

    Autores: Italo Antonio Duarte de Oliveira, Bruno Cesar Gregório da Silva, Ricardo José Ferrari

    ID: 8934

    Resumo

    Introdução

    A microscopia intravital (MI) é uma ferramenta capaz de registrar dinamicamente diversos eventos na microcirculação de animais. A análise dos vídeos de MI permite a avaliação de parâmetros relevantes para o estudo da progressão de doenças inflamatórias e para o desenvolvimento de novos medicamentos. Contudo, mesmo com o uso de técnicas para imobilização da espécime em observação, a estabilização da mesma e a remoção de artefatos de movimento do vídeo ainda são um desafio. Os artefatos são causados, principalmente, pelos batimentos cardíacos e respiração do animal, que ocasionam mudanças momentâneas no plano focal do microscópio e, consequentemente, geram borramentos e distorções nas imagens.

    Objetivo

    O objetivo do projeto foi desenvolver um sistema computacional para a detecção automática de quadros de vídeo de MI degradados por borramento de movimento e desfocagem para que possam ser restaurados ou, se a degradação for excessiva, removidos.

    Metodologia

    O sistema desenvolvido nesta pesquisa extrai índices estatísticos do espectro de potência dos quadros de vídeo a fim de caracterizá-los e, em seguida, treina classificadores para que possam classificar os quadros nas classes “borrado” e “não borrado”. A característica área (𝐴) consiste na soma dos valores do espectro de potência binarizado por meio da limiarização pelo algoritmo de Otsu. A característica energia (𝐸) é proveniente do espectro de potência sem a transformada logarítmica e corresponde à soma dos 0,5% maiores valores do mesmo, normalizados pela soma de todos os valores espectrais. As projeções do espectro de potência 2D nos eixos 𝑢 e 𝑣 podem ser interpretadas como distribuições de probabilidade e, então, três novos valores foram inseridos ao vetor de características: a média e os desvios-padrão dos espectrogramas marginais. Por fim, a metade superior do espectro de potência 2D foi mapeada na forma de histograma polar, em que as seções radiais foram ponderadas pela soma das intensidades dos níveis de cinza em cada direção, resultando em doze novas características. Os classificadores utilizados neste projeto foram Support Vector Machine (SVM), Random Forest (RF) e Naive Bayes (NB), os quais tiveram os parâmetros previamente ajustados e foram submetidos à técnica k-fold de validação cruzada, com k = 5. Por fim, o procedimento de classificação foi replicado utilizando as cinco características mais importantes apontadas pelo RF, o qual calcula a importância das mesmas de forma implícita na etapa de treinamento.

    Resultados

    Em termos de comparação, os maiores valores médios de AUC e Acurácia obtidos foram 0,983 e 91,48%, respectivamente, utilizando o classificador SVM com núcleo radial basis function (SVM-RBF). A análise das importâncias mostrou que as medidas A e E foram as mais relevantes e a seleção de características conseguiu prover uma melhoria para o caso do classificador NB.

    Conclusões

    Tanto as análises qualitativas quanto as análises quantitativas demonstraram que os índices estatísticos extraídos do espectro de potência dos quadros de vídeo foram suficientes para caracterizá-los e separá-los nas classes “borrado” e “não borrado”, o que demonstra que o sistema desenvolvido, além de possuir baixo computacional, é propício para preprocessar vídeos de MI.

    Apresentação

    EXPANSÃO DO ACESSO À INTERNET POR MEIO DA RECICLAGEM DE ROTEADORES SEM FIO MULTIMARCA

    Autores: Victória De Martini de Souza, Paulo Matias

    ID: 9600

    Resumo

    Com o intuito de garantir acesso de qualidade à internet aos alunos que residem na moradia estudantil da Universidade Federal de São Carlos (UFSCar), composta por uma centena de apartamentos onde residem 575 alunos com carência socioeconômica, foram encontrados dois grandes impasses: 1- incluir dispositivos sem fio externos aos apartamentos não seria possível, pois as portas e as paredes foram construídas com materiais que atenuam significativamente ondas eletromagnéticas; 2- instalar em cada apartamento um equipamento sem fio que dispusesse das tecnologias atuais seria economicamente inviável. No entanto, notou-se que dezenas de roteadores sem fio foram recolhidos para descarte dentro da UFSCar ao longo dos últimos anos, sendo considerados ``obsoletos'' por não permitirem implementar autenticação de forma segura e prática para o usuário, que se tornou exigência legal no Brasil a partir do Marco Civil da Internet. Este projeto propõe reaproveitar esses equipamentos utilizando o firmware livre OpenWrt, uma distribuição Linux embarcada que suporta mais de 650 modelos de roteadores sem fio, tornando-os homogêneos e integráveis entre si. Porém, como os equipamentos dispõem de baixa capacidade de armazenamento, otimizou-se a imagem do OpenWrt a ser instalada, liberando espaço para adicionar suporte ao padrão de autenticação 802.1X. Este projeto provê também ferramentas de monitoramento que poderão facilitar a manutenção da qualidade do fornecimento de acesso em uma rede com centenas de roteadores. No futuro, além de fornecer uma solução para acesso à internet na moradia UFSCar, este projeto poderá ser estendido para outros cenários, tais como fornecer acesso à rede acadêmica eduroam em escolas do ensino básico por meio da Redecomep -- RNP.

    Apresentação

    EXTRAÇÃO DE ATRIBUTOS PARA REDUÇÃO DE DIMENSIONALIDADE LINEAR E NÃO LINEAR EM PROBLEMAS DE CLASSIFICAÇÃO DE PADRÕES

    Autores: Alexandre Luis Magalhães Levada, Gabirelle Scaranello Faria

    ID: 9558

    Resumo

    As técnicas de redução de dimensionalidade são cruciais para aplicações de reconhecimento de padrões modernas devido a enorme complexidade dos conjuntos de dados encontrados nos mais diversos domínios da ciência. Se por um lado o aumento na quantidade de amostras é benéfico em tarefas de aprendizado de máquina, um aumento arbitrário no número de atributos é frequentemente acompanhado por uma série de efeitos negativos, ao que se denomina a maldição da dimensionalidade.

    Sendo assim, esse projeto tem como objetivo comparar métodos lineares Principal Component Analysis (PCA), não lineares, como Kernel PCA, e de aprendizado de variedades: Isometric Feature Mapping (ISOMAP) e Locally Linear Embedding (LLE) na redução de dimensionalidade em problemas de classificação supervisionada.

    A metodologia proposta adotou a base MNIST (Modified National Institute of Standards and Technology database), que contém imagens preto e branco de dígitos numéricos escritos à mão.

    Assim, foram feitos diversos experimentos utilizando os classificadores supervisionados k-Nearest Neighbors (KNN) e Support Vector Machine (SVM), além de utilizar como métrica quantitativa para análise de resultados o coeficiente Kappa, para aferir a acurácia do reconhecimento e prover uma comparação quantitativa e objetiva da capacidade discriminantes dos atributos aprendidos.

    Assim, para cada redução de dimensionalidade foram escolhidas 500 amostras da base de dados, sendo 50% delas usadas para treino e 50% para teste, e então estas amostras foram reduzidas de 784 dimensões para entre 2 e 10 dimensões.

    Com a redução de dimensionalidade de duas dimensões, foram elaborados gráficos para que estes valores pudessem ser visualizados e analisados, e com todos os resultados foram elaborados gráficos, que por sua vez permitiram uma comparação entre os resultados obtidos, com relação ao tipo de classificador e aos métodos de redução de dimensionalidade.

    Ao comparar os resultados por classificador supervisionado, conclui-se que o KNN obteve melhores resultados, principalmente ao reduzir as amostras para maiores dimensões. Apesar disso, quanto aos tipos de redução de dimensionalidade, nota-se que, no caso do classificador KNN, a redução de dimensionalidade por ISOMAP é mais efetiva e para o LLE tem os piores resultados, enquanto que para o classificador SVM, a redução de dimensionalidade linear, por PCA, obteve melhores resultados, e o Kernel PCA obteve os piores resultados.

    Assim, pode-se concluir que os métodos de redução de dimensionalidade tem variação de desempenho de acordo com o classificador utilizado nele, portanto não se pode determinar qual o melhor método de redução de dimensionalidade para todos os casos, deve-se analisar o caso anteriormente.

    Apresentação

    IDENTIFICAÇÃO AUTOMÁTICA DE SAMPLING UTILIZANDO SEPARAÇÃO DE ÁUDIO E JUNÇÃO POR SIMILARIDADE

    Autores: Renan Dantas Pasquantonio, Diego Furtado Silva

    ID: 9505

    Resumo

    Introdução:

    O termo sampling é utilizado no domínio de música para designar a utilização de um trecho de uma música como base se compor outra. Apesar de ser uma técnica bastante utilizada na música popular, é preciso garantir que os direitos autorais da base dessa nova composição estão sendo respeitados. Com o crescente interesse em aplicações relacionadas ao processamento de música, os desafios relacionados à análise de gravações de áudio são agravados pelo crescente volume de dados. Nesse cenário, algoritmos de análise musical devem ser eficientes em tempo e espaço. Uma alternativa a esse problema é a utilização de funções de junção por similaridade.

    Objetivo:

    É necessário um algoritmo de comparação de similaridades eficiente em termos de tempo e espaço. Nesse cenário, seria ideal a utilização do perfil da matriz de similaridades (ou SiMPle), que provê uma representação das similaridades entre subsequência de modo eficiente em termos de espaço. Este trabalho consiste em desenvolver um algoritmo baseado no SiMPle para a identificação automática de sampling. Além disso, utilizaremos técnicas de separação de fonte de áudio, a fim de fazer comparações que separam, por exemplo, a melodia da instrumentação.

    Metodologia:

    As atividades realizadas durante a vigência do projeto podem ser separadas em quatro seções, sendo elas: o estudo do material bibliográfico referente aos temas do projeto, como aprendizado de máquina e processamento de áudio; o estudo e implementação de técnicas de separação de áudio, onde foram analisadas a viabilidade de diferentes técnicas dentro da aplicação; a implementação da junção por similaridade, utilizando os resultados do SiMPLe; e por fim, a construção do website, para demonstrar as funcionalidades desenvolvidas.

    Resultados:

    Os resultados envolvem as quatro tarefas anteriormente comentadas.

    Os estudos de aprendizado de máquina tiveram foco em assuntos introdutórios, e os estudos sobre processamento de áudio foram relacionados aos trabalhos que seriam desenvolvidos posteriormente.

    Sobre as técnicas de separação de áudio, foi definido que a melhor técnica para a aplicação deveria atender alguns requisitos, sendo eles: bom isolamento das faixas, alta fidelidade e ausência de artefatos, um rápido desempenho, e uma quantidade razoável de faixas.

    A junção por similaridade consistiu em comparar pares de recortes de uma série temporal calculando a distância entre eles. O SiMPle foi utilizado para gerar a matriz das séries temporais, após isso foi criado um algoritmo para analisar a matriz e gerar recortes nas áreas de maior similaridade, que podem indicar um caso de sample.

    Por fim, a construção da aplicação web contendo as tarefas pesquisadas teve a motivação de demonstrar e divulgar os resultados obtidos. Foi construído um website contendo as funcionalidades desenvolvidas.

    Conclusão:

    Os resultados da separação de áudio atenderam as expectativas, isolar as faixas de sampling do contexto da música original permitiu que o SiMPle pudesse gerar resultados mais precisos sobre as canções. Além disso, os resultados mostraram a relevância de envolver a separação de fontes de áudio em conjunto com a junção por similaridade para a mineração de dados musicais, em específico para a tarefa de identificação automática de sampling.

     

    Apresentação

    REALCE DE PONTOS DE BIFURCAÇÃO EM IMAGENS DE VASOS SANGUÍNEOS

    Autores: Isaac Willian Mariotto Marques, Cesar Henrique Comin

    ID: 8837

    Resumo

    O sistema cardiovascular possui importante papel no correto funcionamento dos processos biológicos em seres humanos. Portanto, a sua análise  pode levar ao diagnóstico de importantes fatores de risco relacionados a doenças como infarto ou derrame. As principais etapas para a caracterização de vasos sanguíneos em imagens digitais são: realce, segmentação e representação. Para a etapa de realce é comum utilizar a hipótese de que os vasos são cilíndricos. Porém, em bifurcações de vasos essa hipótese é falsa. O objetivo deste trabalho foi identificar metodologias que auxiliem no realce de bifurcações em vasos sanguíneos. Para isso, foram escolhidas três metodologias definidas na literatura, que tiveram seu desempenho para detecção de bifurcações comparado em imagens de vasos sanguíneos do córtex de camundongos. Adicionalmente, foi proposta uma nova forma de detecção de bifurcações baseada em assinaturas de intensidades ao redor do eixo medial de vasos sanguíneos. Devido ao cancelamento do projeto, apenas o método proposto por Calvo et al. e o método proposto neste projeto foram implementados. Nos resultados obtidos pelo método proposto por Calvo et al. pôde-se notar que um grande número de pixeis que não pertencem a vasos sanguíneos foram detectados como tal (falsos positivos), especialmente nas regiões de borda dos vasos. Foi verificado que os resultados são altamente sensíveis à variações de parâmetros do método. Em relação à nova metodologia proposta, resultados satisfatórios, mas inferiores ao de Calvo et al., foram obtidos. Entretanto, foi verificado um potencial de melhoria dos resultados através da normalização apropriada das assinaturas analisadas.

    Apresentação

    SEGMENTAÇÃO AUTOMÁTICA DOS HIPOCAMPOS EM IMAGENS DE RESSONÂNCIA MAGNÉTICA USANDO MODELOS GEOMÉTRICOS DEFORMÁVEIS E INFORMAÇÕES DE TEXTURA

    Autores: Leonardo Henrique Fernandes da Silva, Katia Maria Poloni, Ricardo José Ferrari

    ID: 8926

    Resumo

    Introdução

    A doença de Alzheimer (DA) é uma doença crônica não transmissível, neurodegenerativa e progressiva que consiste na causa mais comum de demência em idosos. O termo demência refere-se, de maneira generalizada, ao processo de perda ou progressiva redução das capacidades cognitivas de um indivíduo (memória, raciocínio, comunicação, etc.) de maneira a interferir em seu funcionamento ocupacional e social e acarretar a perda de sua autonomia. A DA é, em essência, uma doença que afeta idosos. Sua prevalência aumenta rapidamente conforme a idade avança, dobrando a cada 5 anos a partir dos 65 anos de idade e abrangendo atualmente mais de 30% da população com idade na faixa dos 80 anos.

    Os hipocampos são estruturas cerebrais intimamente relacionadas à cognição e, portanto, são de grande interesse clínico para o diagnóstico e análise da evolução de doenças neurodegenerativas, como a doença de Alzheimer e Parkinson. A taxa de atrofia dos hipocampos por faixa etária é considerada um dos principais biomarcadores da DA.

    Objetivo

    O objetivo principal deste projeto de iniciação científica é o desenvolvimento de uma técnica automática para a segmentação dos hipocampos em imagens 3D de RM do cérebro humano usando modelos geométricos deformáveis e informações texturais extraídas das imagens.

    Metodologia

    As técnicas computacionais Gray Level Co-occurrence Matrix, para extração de características de textura e segmentação da região hipocampal, e Simplex Mesh, para a segmentação dos hipocampos, foram utilizadas durante o desenvolvimento de um método de segmentação automática dos hipocampos. Com o intuito de avaliar os resultados obtidos pelo método, utilizou-se o coeficiente de similaridade de Dice e o índice de Jaccard.

    Resultados

    As imagens de RM utilizadas foram de pessoas com diagnóstico da DA, da classe de comprometimento cognitivo leve (CCL). A avaliação do experimento foi feita analisando os valores de Dice e Jaccard para o hipocampo segmentado do modelo da NAC, o hipocampo segmentado utilizando apenas as informações de textura e o hipocampo segmentado utilizando o método automático proposto. O método obteve valor de Dice igual a 0.450±0.169 para o hipocampo esquerdo e 0.396±0.178 para o hipocampo direito e o valor de Jaccard obtido foi  0.305±0.144 para o hipocampo esquerdo e 0.262±0.153 para o hipocampo direito. Todos os valores estão no formato  “Média±Desvio Padrão”.

    Conclusões

    Ao final, alcançou-se uma técnica de segmentação automática, utilizando informações de textura, dos hipocampos em imagens 3D de RM, alcançando o objetivo almejado, podendo ser utilizada no auxílio do reconhecimento de pacientes que possuem DA e outras aplicações envolvendo os hipocampos. Porém, os resultados obtidos não foram de acordo com o esperado, visto que houve uma dificuldade de adaptar os mapas de textura no modelo de Simplex Mesh. Além do aprendizado de técnicas e conceitos de processamento de imagens.

    Apresentação

    SEGMENTAÇÃO E QUANTIFICAÇÃO DAS SUBSTÂNCIAS BRANCA E CINZENTA E DO LÍQUIDO CEFALORRAQUIDIANO DAS REGIÕES HIPOCAMPAIS EM IMAGENS DE RM COM APLICAÇÃO NO DIAGNÓSTICO DO ALZHEIMER

    Autores: Vitor Hugo Chaves Cambui, Katia Maria Poloni, Ricardo José Ferrari

    ID: 8930

    Resumo

    A doença de Alzheimer (DA) é uma doença neurodegenerativa que destrói as células cerebrais, acarretando perdas nas funções cognitivas e na capacidade de realizar tarefas diárias simples. A DA possui um curso progressivo e sua prevalência aumenta exponencialmente com a idade, sendo de 5% na população com mais de 60 anos e 20% naqueles com idade superior a 80 anos. Em geral, na DA, os hipocampos, que são estruturas cerebrais ligadas à formação de memórias, são as primeiras estruturas a serem danificadas. O imageamento por ressonância magnética (RM) tem sido usado clinicamente com sucesso para o diagnóstico e monitoramento da DA pois permite a avaliação de alterações estruturais de regiões do cérebro relacionadas a funções cognitivas. A atrofia dos hipocampos, e a consequente redução de seus volumes, tem sido reconhecida como uma característica inicial do processo degenerativo em DA.

    O objetivo desta pesquisa é o desenvolvimento de um método automático que permita segmentar e quantificar as substâncias branca,  cinzenta e o líquido cefalorraquidiano presentes nas regiões hipocampais. Acredita-se que a partir da quantificação dos tecidos seja possível avaliar o estágio de degeneração das regiões hipocampais e, assim, auxiliar no diagnóstico e acompanhamento da DA.

    Nesta pesquisa foi desenvolvida  uma técnica computacional baseada no modelo de mistura finita de gaussianas (MMFG) e no algoritmo de maximização da esperança (EM) para uso na segmentação automática dos tecidos em imagens de RM. A avaliação da técnica desenvolvida foi realizada quantitativamente  comparando-se os resultados obtidos  com os do software FAST-FSL usando as métricas de Jaccard, Dice, Falsos Positivos e Falsos Negativos.

    O conjunto de imagens de RM utilizadas foi composto por 762 imagens distribuídas entre três diferentes classes de pacientes, classificados  em diferentes estágios de evolução da DA - Cognitivamente Normais (CN), Leve Comprometimento Cognitivo (MCI) e portadores da DA (DA). O melhor resultado obtido  apresentou um índice de Jaccard de 76.2%, Dice de 85.3%, e taxas de Falsos Positivos de 14.1% e Falsos Negativos de 15.3%. Em posse deste resultado, uma aplicação de classificação de imagens de RM entre as classes de pacientes mencionadas anteriormente foi desenvolvida, e rendeu resultados com 86% de acurácia entre pacientes CN e DA, e 74% para classificação entre pacientes MCI e DA.

    Ao final da pesquisa, observou-se que a restrição da região de interesse (hipocampos) rendeu resultados de segmentação sensivelmente mais precisos. O baixo custo computacional, consequência desta escolha, possibilita que o método desenvolvido seja utilizado juntamente à outras técnicas para uma abordagem diagnóstica mais abrangente. Em geral, os resultados obtidos para a segmentação de cérebros de pacientes CN foram melhores do que para as outras classificações. Em posse de uma ferramenta de segmentação automática de tecidos cerebrais, tornou-se possível o desenvolvimento de aplicações no auxílio do diagnóstico da DA que se mostraram promissoras, por possibilitar análises quantitativas em tecidos distintos. Portanto, considerou-se que todos os objetivos gerais e específicos foram plenamente cumpridos.

    Apresentação

    SELEÇÃO DE ATRIBUTOS PARA PROBLEMAS DE CLASSIFICAÇÃO HIERÁRQUICA MULTIRRÓTULO

    Autores: Murilo Naldi, Luan Vinicius Moraes da Silva

    ID: 9131

    Resumo

    Neste trabalho, estudamos como métodos convencionais de Seleção de Atributos podem ser aplicados em Problemas de Classificação Hierárquica Multirrotulo.

    Na Classificação Hierárquica Multirrótulo, uma instância pode ser atribuída a duas ou mais classes (rótulos) simultaneamente, onde tais classes são estruturadas hierarquicamente. Em Aprendizado de Máquina, a Seleção de Atributos desempenha um papel importante na tarefa de classificação, uma vez que pode efetivamente reduzir a dimensionalidade do conjunto de dados, removendo atributos irrelevantes e/ou redundantes, melhorando a precisão do classificador. Embora muitos problemas relevantes do mundo real pertençam ao domínio hierárquico multirrótulo, a maioria das pesquisas relacionadas abordam a tarefa de seleção de atributos com foco em problemas de classificação unirrótulo. Em muitos trabalhos, mesmo quando a proposta aborda problemas multirrótulo, as classes não são associadas a uma estrutura hierárquica. Portanto, neste trabalho estudamos como a seleção de atributos pode ser aplicada no contexto da Classificação Hierárquica Multirrótulo.

    Para este fim, propomos uma abordagem que combina as estratégias de transformação multittórulo Binary Revelance (BR) e Label Powerset (LP) com os avaliadores de atributo ReliefF (RF) e Information Gain (IG), em adição também empregamos um método de redução de espaço não supervisionado Principal Component Analysis (PCA). Testamos nossa abordagem em 10 conjuntos de dados reais do campo da genômica funcional, referência em trabalhos de classificação hierárquica multirrótulo.

    Como principais resultados, obtivemos para o método BR-IG na subdivisão mediana, um ganho em 8/10 datasets, com exceção de Eisen and Seq. O método BR-RF na partição mediana produziu ganhos em 7/10 datasets, com exceção para Cellcycle, Church e Seq. E a estratégia de redução PCA se mostrou inadequada para estruturas hierárquicas. Concluímos que a partir da abordagem proposta seria possivel aplicar outras estratégias de seleção de atributos diferentes.

    Apresentação

    SISTEMA DE COLETA E ANÁLISE DE DADOS EM NUVEM UTILIZANDO TÉCNICAS DE INTELIGÊNCIA ARTIFICIAL PARA AUXÍLIO AO TRATAMENTO E AUTOCUIDADO DA DIABETES MELLITUS

    Autores: Gustavo de Souza, Edilson Reis Kato

    ID: 8900

    Resumo

    Introdução:

    Cerca de 463 milhões de pessoas no mundo são diagnosticadas com Diabetes Mellitus (DM) segundo, sendo que metade desconhecem o seu diagnóstico, segundo Diabetes Research and Clinical Practice. Além da doença causar uma tolerância à glicose prejudicada, o que coloca o usuário em risco, também causa a perda da visão, com base neste problema o atual trabalho dispõe ao paciente com visão debilitada, uma forma de continuar tendo uma autonomia para realizar suas medições de glicose, por meio do glicosímetro que apresenta alertas sonoros para comunicar com o paciente, deste modo não dependendo de sua visão.

    Objetivo:

    O objetivo desse trabalho é a construção de um sistema de coleta, transmissão e análise dados (utilizando Lógica Fuzzy) provenientes de pacientes que tenham a Diabetes Mellitus (DM) e necessitam de um acompanhamento de sua taxa glicêmica, constantemente. Esse projeto é parte integrante da patente BR2020190071198, dispositivo de controle de glicemia com interface auditiva, alertas e conectividade WI-FI. O sistema desenvolvido é um conjunto de sub partes e cada com uma responsabilidade específica. Dentre as sub partes existem três principais, a primeira o dispositivo de coleta, glicosímetro, a segunda parte é o broker MQTT que recebe os dados provenientes do glicosímetro e por fim a aplicação web rodando em um servidor que exibirá a análise realizada ao paciente, seus familiares e até profissionais da saúde.

    Metodologia:

    Seguindo a ordem das sub partes, o intuito do sistema é mensurar o valor de glicose através do dispositivo glicosímetro (Arduino), o aparelho irá realizar uma publicação no broker (utilizando o formato publisher-subscriber) passando o valor da glicose recém mensurada e outros parâmetros provenientes de perguntas diárias como: "você realizou atividade física hoje?". Simultaneamente o servidor da aplicação, desenvolvido em python, estará assinando o broker aguardando por novas publicações, assim que o servidor tiver os dados da coleta, irá realizar uma série de processamentos com esses dados e utilizando um algoritmo de inteligência artificial baseado em Lógica Fuzzy será capaz de determinar se o paciente que realizou a medida com o glicosímetro está na faixa de valores que representam uma boa quantidade de glicose no sangue ou se está acima/abaixo do ideal, deste modo, resultando em uma tendência ao longo do tempo.

    Resultados:

    O software do dispositivo de coleta foi inteiramente construído, pois o intuito aqui não era fazer um mecanismo físico de coleta, mas sim fazer o sistema que iria repassar os dados coletados ao servidor. Com a utilização do broker foi possível essa transmissão de dados do dispositivo ao servidor. O servidor está pronto para receber os dados do glicosímetro e novos cadastros tanto de pacientes, familiares e médicos, sendo que estes dois últimos têm acesso aos dados de um paciente específico. Auxiliando assim no tratamento.

    Conclusões:

    O sistema como um todo está funcionando como o esperado e dentro das metas deste projeto, mas a ideia é expandir o seu potencial pois será utilizado como tema de trabalho de conclusão de curso do aluno em questão.

    Apresentação

    SISTEMA MECATRÔNICO DE IDENTIFICAÇÃO DE FILAMENTO UTILIZADO EM PROCESSO DE MANUFATURA ADITIVA (IMPRESSÃO 3D)

    Autores: Rafael Vidal Aroca, Gabriel Cioffi Cardinal, Marcos Tan Endo

    ID: 9055

    Resumo

    Comumente, ao utilizar-se a tecnologia da impressão 3D pela primeira vez, nos deparamos com diversas variáveis possíveis de se ajustar para fabricar uma peça. Essas variáveis estão atreladas diretamente ao material o qual pretende-se utilizar e são cruciais para o bom funcionamento da impressora e o sucesso da impressão. Pesquisas indicam que podem haver falhas em até 70% das impressões do tipo FDM (Fused Deposition Modeling)  (Grunewald, 2014).Em impressoras de baixo custo são amplamente utilizados o PLA (Polylactic Acid) e o ABS (Acrylonitrile Butadiene Styrene, que são termoplásticos com temperaturas de fusão consideradas ideais para a realização de uma impressão.Enquanto o PLA necessita de no mínimo 180°C para o processo funcionar, o ABS exige uma temperatura de no mínimo 225°C. Nesse sentido, é exigido do usuário o conhecimento dessas características, a fim de evitar problemas com a impressora. Os mais comuns são o entupimento do bico da extrusora, má impressão da peça e descolamento da mesa. Para que se evitem problemas na impressão devido a erros no ajuste do material que está se trabalhando, foi proposto a criação de um sistema autônomo de identificação do filamento utilizado na impressora 3D, através da medição indireta da dureza do material. O mecanismo ajusta os parâmetros de impressão automaticamente, evitando falhas. O sistema proposto funcionará através de um mecanismo de baixo custo que medirá de maneira indireta a dureza do material, ao medir o quanto um aparato metálico penetra no filamento. Um material de maior dureza sofrerá menor penetração e, consequentemente, o de menor dureza terá maior penetração. Senso assim, é possível diferenciar os insumos de impressão. Ao fazer essa identificação, os parâmetros de impressão seriam alterados automaticamente de acordo com as especificações corretas do material, evitando que ocorressem falhas e possíveis quebras do equipamento. A partir dos requisitos de projeto foi elaborado o sistema de aferição. O funcionamento do mecanismo consiste na seguinte sequência:• Um servo motor é acionado com sentido de horário de giro e ângulo pré-determinado;• O movimento do servo faz com que um mecanismo 4 barras converta movimento rotacional em linear;• O instrumento de penetração (agulha ou ponta metálica) é pressionado contra o filamento;• O sensor de efeito Hall mede a interação do campo magnético criado por um ímã e, consequentemente por relação de função, a distância de penetração; O desenvolvimento do projeto limitou-se à modelagem teórica do sistema. Sua construção, testes e a consequente validação foram comprometidos pela suspensão das atividades presenciais no âmbito universitário. Os resultados de simulações dimensionais e de movimento mostram-se promissores para concretização do projeto. No entanto, pretende-se realizar a construção e validação do sistema por meio do Trabalho de Conclusão de Curso do aluno, o qual utilizará como base os trabalhos desenvolvidos durante a Iniciação Científica.

    Apresentação

    SISTEMA WEB PARA GERENCIAMENTO DE JOGOS DIGITAIS ACESSÍVEIS CRIADOS POR USUÁRIOS FINAIS

    Autores: Pedro Adorno, Franco Eusébio Garcia, Vânia Paula de Almeida Neris

    ID: 9466

    Resumo

    Introdução

    Jogos sérios, como os educacionais e terapêuticos, promovem aquisição e aprimoramento de conhecimento e habilidades durante as partidas. O desenvolvimento de jogos requer conhecimento técnico que nem todos detêm. Analogamente, atividades educativas e terapêuticas requerem conhecimento de domínio normalmente desconhecido por designers e programadores de jogos. Além disso, os requisitos podem sofrer alterações com o decorrer do tempo. Para permitir a criação de jogos efetivos para a prática profissional, uma possibilidade seria permitir que usuários finais criem (ou co-criem) jogos que satisfaçam suas necessidades de interação (LIEBERMAN et al., 2006; FISCHER, 2009).

    No entanto, o processo de criação deve ser guiado, dado que será realizado por usuários finais ao invés de programadores profissionais. A provisão de ferramentas e processos para apoiar a criação e a avaliação dos jogos se faz necessária. Assim, criar ferramentas adequadas para a produção e distribuição de jogos por usuários finais é tema de pesquisa na área de computação.

     

    Objetivo

    Este projeto investigou e construiu um sistema web colaborativo para o gerenciamento de jogos digitais acessíveis criados por usuários finais. O sistema media a comunicação entre a ferramenta de criação Lepi, desenvolvida em projeto anterior, e outros possíveis usuários do jogo seguindo um modelo de colaboração proposto por GARCIA E NERIS (2020).

    Conforme o modelo, os Criadores devem desenvolver o projeto utilizando a Lepi e enviá-lo ao servidor. Supervisores avaliam o projeto, fornecem sugestões e melhorias, corrigem falhas, e pedem a inclusão de recursos de acessibilidade por parte de Colaboradores.

     

    Metodologia

    O desenvolvimento deste projeto seguiu um processo iterativo e incremental, i.e a maior parte do projeto foi feita em ciclos de desenvolvimento, com ocasionais adições de funcionalidades de forma incremental.

    O backend foi implementado com a linguagem Go em forma de uma Application Programming Interface (API), enquanto para o frontend foram utilizadas as linguagens HyperText Markup Language (HTML), Cascading Style Sheets (CSS) e JavaScript (JS).

     

    Resultados

    As principais funcionalidades do sistema implementadas foram a criação de um jogo (preenchimento dos metadados iniciais), download e upload de jogos, publicação e execução de jogos e reordenação dos atos de um jogo. O player de jogos do sistema foi implementado como um port da respectiva funcionalidade da ferramenta de criação.

    Os dados acessados pelo player da web, como mídias e metadados, provém do banco de dados (MongoDB) por meio de requisitos à API. Já quando é realizado o download de um jogo, os dados ausentes na ferramenta de criação são incluídos no arquivo .zip e acessados localmente.

    O sistema foi avaliado por uma pós-graduanda especializada no tema. Os resultados sugerem ser possível o uso do sistema pelas instituições interessadas.

     

    Conclusões

    A flexibilidade da ferramenta de criação e gerenciamento da distribuição de jogos desenvolvida neste projeto apresenta potencial para a disseminação de desenvolvimento de jogos sérios por profissionais e outros usuários finais de instituições de saúde pública e educação.

    Por fim, se faz necessário enfatizar que a avaliação e os testes do sistema não puderam ser feitos com profissionais de instituições interessadas devido a pandemia do COVID-19.

    Apresentação

    UM ESTUDO COMPARATIVO DAS TECNOLOGIAS GODOT E VULKAN NO DESENVOLVIMENTO DE RECURSOS EDUCACIONAIS MULTIPLATAFORMA ABERTOS

    Autores: Delano Medeiros Beder, Guilherme Locca Salomão

    ID: 9000

    Resumo

    Introdução

    O acesso aberto a recursos educacionais é um requisito essencial para a educação democrática, de qualidade, sustentável e aberta, em qualquer modalidade (presencial, a distância, híbrida) e em todos os níveis de formação. Além do acesso, o reuso de recursos educacionais deve ser promovido, considerando que o desenvolvimento desses recursos, em geral, é um processo bastante dispendioso e requer um trabalho conjunto entre especialistas do conteúdo e uma equipe multidisciplinar. Visando isso foi proposto um estudo sobre duas tecnologias, Godot e Vulkan para o desenvolvimento e reuso de jogos educacionais abertos multiplataforma.

    Objetivos

    Este estudo teve como objetivo principal o estudo comparativo das tecnologias Godot (uma ferramenta aberta e multiplataforma para o desenvolvimento de jogos) e Vulkan (uma API gráfica aberta multiplataforma criada pelo Khronos Group feita para substituir a API OpenGL) no desenvolvimento de recursos educacionais abertos multiplataforma que poderiam trazer a seguinte vantagem: agilidade no desenvolvimento de recursos educacionais abertos sem desconsiderar requisitos não-funcionais essenciais tais como facilidade de reuso.

    Tal estudo visava também o levantamento das características das tecnologias Godot e Vulkan que possibilitem que os jogos educacionais abertos, que fazem uso dessas tecnologias, possam ser incorporados à plataforma REMAR que visa favorecer o reuso efetivo de recursos
    educacionais abertos, mais especificamente jogos educacionais, viabilizando não apenas o
    uso/reuso/redistribuição, mas também a adaptação desses recursos para atender necessidades de diferentes professores, em diferentes contextos.

    Metodologia

    Com o foco nesses objetivos, foi realizado inicialmente um estudo sobre a tecnologia Vulkan e seu funcionamento, processo para a geração de imagens e  sua capacidade multiplataforma. Após isso foi desenvolvido um jogo simples de perguntas e respostas usando a ferramenta Godot, utilizando Vulkan como motor gráfico, estudando seu fluxo de desenvolvimento, facilidade de uso e capacidades.

    Resultados

    Durante o estudo da tecnologia Vulkan, foi notada sua capacidade multiplataforma, por ser uma API de baixo nível, reduzindo a necessidade de códigos diferentes para plataformas diferentes. Durante o desenvolvimento do jogo, foi necessário usar outro motor gráfico, o OpenGL, pois o suporte a Vulkan ainda não estava completo para Godot, sendo assim impossível exportar o projeto e poder utilizá-lo externo ao ambiente de desenvolvimento. Além disso, com Godot foi possível, gerar um jogo customizável com parâmetros externos, e, com apenas uma versão do projeto, gerar os executáveis correspondentes para as plataformas Windows e Linux, sem alterações necessárias.

    Conclusões

    Pode-se concluir então que os recursos educacionais criados usando a tecnologia Godot podem ser incorporados à plataforma REMAR e, usando as tecnologias Vulkan e Godot, é possível e prático desenvolver recursos educacionais, reduzindo as necessidades de mudanças específicas para cada plataforma, com um fluxo de desenvolvimento rápido e prático, e a possibilidade de reuso de componentes. No entanto, não foi possível realizar a implementação plena e validação da integração das tecnologias Vulkan e Godot.

    Apresentação

    UM ESTUDO EXPLORATÓRIO DA TECNOLOGIA DE REALIDADE AUMENTADA MÓVEL BASEADA EM MARCADORES NO DESENVOLVIMENTO DE RECURSOS EDUCACIONAIS MULTIPLATAFORMA ABERTOS

    Autores: Delano Medeiros Beder, Fernando Sassi Nunes

    ID: 9318

    Resumo

    Introdução:

    O trabalho envolve a criação de Recursos Educacionais Abertos (REAs) através do
    AR Educational Framework. Esse framework é utilizado na engine unity e tem como objetivo
    a criação de programas educativos em realidade aumentada Móvel (RAM), baseados em
    questões de múltipla escolha, podendo ter como respostas tanto textos ou modelos 3D.
    Para isso, ele utiliza o kit de desenvolvimento Vuforia, que permite a utilização de RAM em
    dispositivos android e dispositivos próprios para tal tecnologia.

    Objetivo:

    De maneira geral, programas criados a partir do framework não se classificavam
    plenamente como REAs. Com a refatoração, os programas que utilizam o framework podem
    ter todos os seus textos e modelos alterados, mantendo apenas a estrutura base dele,
    como número de perguntas e alternativas, sem alteração.

    Metodologia:

    O trabalho foi desenvolvido integrado a outros trabalhos que vêm sendo
    desenvolvidos no Laboratório de Objetos de Aprendizagem (LOA/UFSCar), tendo
    acompanhamento direto do orientador e de pesquisadores que integram o LOA.
    As tarefas realizadas foram:
    ● A familiarização com os conceitos de REAs e da plataforma REMAR.
    ● A familiarização com os conceitos de Tecnologia de Realidade Aumentada
    Móvel (RAM) e com o AR Educational Framework.
    ● Desenvolvimento de alguns aplicativos educacionais com o framework.
    ● Refatorar o framework para que programas que o utilizam possam ser
    integrados ao REMAR.
    ● Incorporar programas REA de realidade aumentada móvel à plataforma
    remar para validar os resultados

    Resultados:

    Foram necessários dois programas auxiliares. Sendo eles o Better Streaming
    Assets, para ler arquivos no formato .txt, que contém os textos dos campos alteráveis do
    programa, e o AsImpL, que é responsável por carregar os modelos 3D que serão utilizados.
    Esses modelos são hospedados em sites como github e são acessados através do
    endereço.
    Muitas vezes, os modelos não foram feitos pela mesma pessoa ou mesmo que
    tenha sido, eles podem não estar na escala correta ou desejada. Por conta disso, foi criado
    o programa ScaleAdjust, que permite redimensionar e reposicionar os modelos da forma
    desejada e também os textos flutuantes que podem ser adicionado pela classe
    ActivateInformation.
    A refatoração foi feita e foram criadas 3 novas classes que funcionam de maneira
    similar às originais porém possuem a importação de textos/modelos, sendo elasI_QuestionController1 e I_QuestionController2 que carregam todos os modelos ao iniciar o programa e leem/posicionam as perguntas, alternativas e respostas (caso a pessoa erre),
    sendo que a primeira tem textos como alternativas e a segunda modelos 3D. A terceira
    classe é a I_ActivateInformation que permite textos flutuantes acompanhando os modelos e
    que podem ou não indicar partes do modelo.
    Também foi desenvolvido um programa final que foi integrado ao projeto REMAR
    junto do ScaleAdjust e ambos podem ser alterados através dele por qualquer pessoa, com
    campos bem indicados e explicados fazendo com que se enquadrem como Recursos
    Educacionais Abertos

    Conclusões:

    Por fim, os objetivos do trabalho foram cumpridos e a integração foi feita
    corretamente, sendo possível alterá-la com facilidade e também incluir novos programas à
    plataforma REMAR sem problemas.

    Apresentação

    VISUALIZAÇÃO DE CONSULTAS POR SIMILARIDADE EM UM AMBIENTE DE REALIDADE VIRTUAL IMERSIVA

    Autores: Roseval Donisete Malaquias Junior, Renato Bueno, Cláudio Eduardo Paiva

    ID: 9574

    Resumo

    A Realidade Virtual (RV) oferece novas possibilidades de interação de dados em sistemas de visualização, auxiliando os usuários na análise dos dados por meio de intuição e percepção aprimoradas. Em sistemas de recuperação de imagens baseados em conteúdo, a visualização dos resultados das consultas permite agregar a percepção visual humana na análise, melhorando o processo de descoberta do conhecimento. A visualização permite aos usuários compreender melhor a distribuição dos dados relacionados às consultas e incorporar seu conhecimento prévio no processo de recuperação e análise de dados.

    O principal objetivo deste trabalho é propor e implementar a visualização interativa de consultas por similaridade de dados complexos em um ambiente de RV imersiva de baixo custo, usando Google Cardboard e Unity. Também, foi proposto o desenvolvimento de um ambiente de visualização de dados que apresenta as vantagens da tecnologia de RV, o baixo custo do hardware e o desenvolvimento de novas opções de renderização e técnicas de interação na representação de consultas por similaridade. Importante salientar que, o foco principal deste trabalho é a recuperação de imagens baseada em conteúdo e apresentação de resultados no protótipo do sistema CBIRVis [1].

    A metodologia deste trabalho foi definida em 4 principais etapas. A primeira etapa envolve a revisão sistemática, estudando e pesquisando artigos científicos e livros a fim de compreender e identificar o estado da arte, juntamente com os conceitos básicos da temática deste trabalho. A segunda etapa é o estudo do protótipo CBIRVis com o intuito de entender o funcionamento do protótipo desenvolvido, e elicitar requisitos para o ambiente de visualização. A terceira etapa é o desenvolvimento do ambiente de RV para a visualização de consultas por similaridades. Por fim, a quarta etapa é a realização de experimentos de visualização no ambiente desenvolvido.

    A princípio, foi proposto o espaço interativo para visualização de consultas (juntamente com o sistema de movimentação da câmera), representado por um cubo semitransparente no espaço de consulta. Com este método de renderização, a câmera pode apresentar uma visão melhor da distribuição dos elementos. No modo de visualização de classes, é apresentada uma opção de visualização que mostra os objetos da mesma classe na mesma cor. Além disso, o modo de imagem foi proposto para permitir a manipulação e visualização de imagens em ambiente de RV. Por fim, o "Graphical User Interface" (GUI) do histórico de atividades foi implementado para possibilitar a catalogação das consultas acessadas e o salvamento do status e configurações das visualizações realizadas.

    Neste trabalho foi proposto e implementado opções de renderização e técnicas para interação em RV. A tecnologia de RV utilizada neste trabalho, através do aprimoramento na análise de dados e na percepção de padrões de dados, auxilia positivamente na visualização e análise de consultas por similaridade. Diante dos resultados de implementação analisados e do experimento de visualização efetuado, pode-se observar que os objetivos deste trabalho de pesquisa foram alcançados [2].

    Apresentação