Resumos de Trabalhos - JIC 2019


Sessões de pesquisa do Instituto de Matemática




Sessão: IM - Sistemas / Mineração de Dados

5 - CdR - Algoritmo Comparador de Registros provenientes de um Linkage Probabilístico com o OpenRecLink




Autores: JULIO CEZAR PAIVA , CLAUDIA MEDINA COELI , VALERIA BASTOS , MYRIAN COSTA

Orientação: REJANE PINHEIRO , HELEN REGINA MOTA MACHARETH

Resumo: Introdução
O Brasil conta com diversos sistemas de informação em saúde (SIS), que instrumentalizam e apoiam a gestão do SUS no planejamento, programação, regulação, controle, avaliação e auditoria. A análise conjunta de múltiplos SIS acresce o escopo de dados que auxiliam a elaborar políticas públicas.
Todavia, não existe um identificador único para o vínculo exato e existe a necessidade de utilizar dados de identificação como nome, nome da mãe e data de nascimento para vincular as diferentes bases de dados. É usado, então, o software OpenReclink para realizar o linkage probabilístico das bases de dados. Devido a problemas no preenchimento dos campos de identificação, é necessário revisão manual dos links para aumento da acurácia.
Objetivo
Desenvolver um algoritmo baseado em critérios utilizados pelos revisores, a partir de técnicas de mineração de dados, visando diminuir a fase de revisão manual.
Método
Foi efetuado o linkage dos dados de notificação de tuberculose e mortalidade. Os links obtidos neste processo foram classificados automaticamente pelo OpenReclink em: pares, não pares e duvidosos.
Foi feita a revisão manual e identificação dos pares que mudaram de classificação para construção das bases de treinamento e teste. Foram geradas variáveis baseadas em características dos campos de nome do paciente, nome da mãe, data de nascimento e endereço, contemplando informação sobre fragmentos de nomes iguais, abreviados, raros, comuns, parecidos, data de nascimento igual, parecida e diferente. Foi utilizado o algoritmo Apriori para a construção de regras de associação das variáveis criadas (antecedente) com a classificação automática e do revisor (consequente). Resultados
Dos 14.484 links, a classificação foi alterada em 30% deles, sendo 5,3% dos pares falsos positivos, aproximadamente metade dos links apresentavam fragmento raro para o nome do paciente ou da mãe, 97% tinham fragmento comum, 0,6% dos nomes dos pacientes e 1,3% dos nomes da mãe estavam abreviados. Foram geradas 1454 regras de associação com com o Apriori. Ter fragmento abreviado, não ter nome comum e possuir algum fragmento raro estava presente na maioria das regras em que a classificação mudou de dúvida para par, com elevada confiança e lift. Ter fragmento abreviado e não ter fragmento raro, em ambos os nomes, estava associado, majoritariamente, às classificações falso positivas e a confiança e lift nestes casos era menor.
Os dados obtidos a partir da nova versão do algoritmo, com os novos critérios já aplicados, ainda não foram analisados. O algoritmo encontra-se em fase de teste em outra base de dados.
Conclusão
O Apriori gerou regras a serem selecionadas para elaboração de algoritmo determinístico paraa apoio às tarefas de revisão manual, que, em um primeiro momento, são coerentes com o processo de reclassificação manual dos links.



Sessão: IM - Sistemas / Mineração de Dados

802 - SEU ROSTO EM PALAVRAS: IDENTIFICAÇÃO DE EXPRESSÕES FACIAIS PARA COMUNICAÇÃO EM LIBRAS




Autores: RENNAN GAIO

Orientação: VALERIA BASTOS , VANESSA QUADROS GONDIM LEITE

Resumo: De acordo com o art. 27o da Lei nº 13.146 – Lei Brasileira de Inclusão, de 6 de julho de 2015 (BRASIL, 2015), afirma que a educação é um direito da pessoa com deficiência e que o sistema educacional deve ser incluso em todos os níveis. Porém, as universidades brasileiras não estavam preparadas para absorver esses estudantes nos seus ambientes físicos, na comunicação, nos materiais ou na didática dos professores. Ou seja, a acessibilidade requer planejamento, já que cada deficiência (visual, física, cognitiva, auditiva, etc.) exige diferentes ações de acessibilidade. No censo de 2010 do IBGE foram constatados que 5,1% da população brasileira possui algum tipo de deficiência auditiva, e que cerca de 2,2 milhões de pessoas (1,1% da população) possui uma deficiência auditiva grave (IBGE, 2010). Em função da dificuldade de acessibilidade entre alunos com deficiência auditiva, foi pensada uma maneira de tentar amenizar esse déficit de comunicação entre alunos e professores, através da criação de um tradutor de Linguagem Brasileira de Sinais - Libras (PEREIRA, 2013) para o Português, viabilizando a comunicação de surdos para os leigos em Libras.
Libras não é uma linguagem unificada, e também possui não só variações entre países (ASL - American Sign Language, LSF - Langue des Signes Française, DGS - Deutsche Gebärdensprache) como também variações regionais. Neste estudo estamos utilizando Libras com as variações do Rio de Janeiro, e validando os sinais identificados com a ajuda de deficientes auditivos.
A linguagem de Libras é dividida em 5 principais partes: expressão facial /corporal, configuração da mão, pontos de articulação, orientação da mão e movimentação. Neste trabalho estaremos abordando principalmente as expressões faciais, comparando diferentes técnicas para a identificação das diferentes configurações de rosto que uma pessoa precisa para criar a comunicação mínima em Libras.
Para fazer a identificação e classificação da face do usuário, estaremos utilizando a câmera do computador, buscando pelos pontos de interesse (olhos, sobrancelhas, boca, bochecha) e, a partir da composição desses pontos, iremos descrever as possíveis configurações de rosto do usuário. Será feito um comparativo entre as técnicas testadas, mostrando qual teve a melhor taxa de acerto, e o motivo da escolha de um algoritmo para classificação das expressões que melhor se adeque às nossas necessidades. Serão testadas técnicas como a classificação de expressões faciais utilizando Haar Cascade, e também algoritmos de classificação como PCA. O objetivo final do trabalho é dar início a um projeto que seja eficiente para o reconhecimento de Libras, e que auxilie os portadores de deficiência auditiva na comunicação do seu dia a dia com pessoas leigas na língua de sinais.



Sessão: IM - Sistemas / Mineração de Dados

1518 - Ambiente analítico de saúde em banco de dados Não-relacional




Autores: RAFAEL SAMPAIO , YURI MEDEIROS DA SILVA , THAIRON SOUZA DA SILVA , GIOVANNI LUIZ ALVES PEREIRA , GUSTAVO LUIS VELOSO DE CARVALHO , ABRAHAM BANAFO AMPAH

Orientação: VALERIA BASTOS , MYRIAN COSTA

Resumo: A política de dados abertos, instituída em 2016 pelo governo federal [1], tem como objetivo promover a publicação de dados contidos em datasets de órgãos públicos, na forma de dados abertos. O Sistema Único de Saúde (SUS) disponibiliza os dados dos serviços prestados das unidades públicas, de forma anônima, através do seu portal de dados DATASUS. A dificuldade na utilização desses dados é que são provenientes de sistemas legados e com estrutura não adequada à ambientes analíticos.
O objetivo deste trabalho é coletar dados do SUS através do próprio site [2], armazenando-os em um banco de dados não-relacional (NoSQL), e através de métodos de inteligência computacional, mineração de dados e estatística, entender o comportamento de determinadas doenças, as características da população atingida, a forma de atendimento em hospitais da rede do SUS, dentre outras informações que irão compor conhecimentos úteis para o entendimento sobre a saúde da população.
Para atingir esse objetivo foi feito um processo de extração e transformação e posterior carga dos dados de algumas bases principais do SUS (SIH, SINASC e SIM) dos últimos 5 anos disponíveis. Devido aos dados apresentarem duas das características de grandes volumes de dados: variedade e volume, o banco de dados não-relacional MongoDB, que possui escalabilidade e flexibilidade quanto a estrutura, se mostra mais adequado à tarefa. Particularidades deste SGBD como a propriedade BASE (Basically Available, Soft state , Eventual consistency) não apresentam desvantagens para o presente trabalho, tendo em vista que a base será usada em um ambiente OLAP. Além disso, um tempo de resposta relativamente pequeno, independente da complexidade da consulta [3], torna-o uma alternativa atraente para cargas analíticas.
Este trabalho está sendo realizado em conjunto com a equipe do laboratório LinkDataPop do Instituto de Estudos de Saúde Coletiva da UFRJ.



Sessão: IM - Sistemas / Mineração de Dados

4698 - Buscas Semânticas na Recuperação de Dados Interligados




Autores: JOAO PEDRO GANDARELA DE SOUZA , WILLIAM LACERDA

Orientação: LETICIA VERONA , MARIA LUIZA MACHADO CAMPOS , GISELI RABELLO LOPES

Resumo: Nos dias atuais, pela facilidade e o crescimento da informação disponibilizados na Internet, são feitas cada vez mais buscas por informação na Web. Problemas relacionados à localização e recuperação das informações desejadas são intensificados na rede. Nessa realidade, a recuperação de informação tem o propósito de buscar informações em documentos através de palavras-chave em linguagem natural para recuperação de informações. Entretanto, problemas semânticos no mapeamento entre a busca formulada e a necessidade de informação que o usuário deseja expressar podem surgir.
Devido à dificuldade na busca e problemas de interoperabilidade semântica, foram criadas técnicas como o uso de ontologias e vocabulários controlados para publicação de dados em formato RDF (Resource Description Framework). Este formato é usado para publicação de Dados Interligados [1], que permite melhorias na forma de representar e estruturar os dados na Web, permitindo interligar dados de fontes diversas. Busca semâ ntica é um paradigma de busca que faz uso da semâ ntica explı́cita em Dados Interligados para resolver tarefas de busca: interpretar a consulta e os dados; efetuar o casamento entre a consulta e os dados; e ranquear os resultados [2]. Por isso, a importância de estudar e desenvolver métodos de buscas semânticas, que usam em conjunto dados interligados e técnicas tradicionais da área de recuperação de informação. Isto tem como objetivo fundamental a recuperação da informação através do entendimento das intenções do usuário e o significado contextual dos termos na busca para possibilitar respostas mais precisas.
O objetivo do presente trabalho está no aprofundando e desenvolvimento de métodos para melhorar a precisão nas respostas a consultas, através do uso de técnicas de buscas semânticas. Buscas semâ nticas sã o centradas em entidades (coisa ou objeto unicamente identificável), alé m de atributos (descrições) e relacionamentos. Resumidamente, abordagens para lidar com buscas semâ nticas focam nos seguintes grandes passos: (i) reconhecer, rotular, e desambiguar entidades em consultas, adicionando atributos/aspectos, tipos, relacionamentos, ações/verbos; (ii) entender a consulta de forma a descobrir qual a intenção do usuá rio ao formulá -la para entã o (iii) tentar respondê -la. A intenção é permitir que usuários não especialistas tenham a possibilidade de descrever suas consultas a partir de palavras-chave e receber resultados que estão representados estruturalmente através de subgrafos RDF, que atendam às necessidades do usuário e descrevam adequadamente sua necessidade de informação.
Para testar os métodos propostos, está sendo desenvolvida uma aplicação-piloto, usando dados reais de empresas e pessoas condenadas por práticas de trabalho escravo e que fizeram doações para campanhas políticas [3]. Como avaliação, verificaremos os resultados obtidos com a aplicação-piloto visando avaliar a eficiência dos métodos e técnicas desenvolvidos e implementados.



Sessão: IM - Sistemas / Mineração de Dados

4814 - Exploração de Dados Abertos com uso de Técnicas de Sumarização de Grafos




Autores: HENRIQUE FERNANDES RODRIGUES

Orientação: BRUNO CASTRO , MARIA LUIZA MACHADO CAMPOS , GISELI RABELLO LOPES

Resumo: Um volume cada vez maior de dados tem sido disponibilizado em plataformas digitais. Desse modo, o número de datasets (conjunto de dados) são muito numerosos e de temáticas variadas. Por tal motivo, é difícil encontrar os dados desejados, mesmo que estes estejam organizados. Um caso de organização, explorado neste trabalho, abrange um portal construído usando a plataforma CKAN (Comprehensive Knowledge Archive Network). Neste, há como identificar datasets por tags (etiquetas), visando organizar os conteúdos relacionados a estes. Contudo, a interface fornecida pelo CKAN não é tão otimizada ao nível de permitir a exploração adequada dos dados, não permitindo uma visualização que seja mais simples. Além disso, não há uma padronização na atribuição das tags, sendo estas, em geral, definidas pelo próprio publicador do dataset.
Nesse contexto, o objetivo do presente trabalho é permitir que datasets sejam realmente expostos e acessíveis, através do emprego de tags semânticas (com uso de um vocabulário controlado relacionado ao domínio dos dados). Tal problemática foi levantada e está no contexto da dissertação de mestrado de Bruno Castro, também sendo parte do esforço do grupo de pesquisa GRECO para disponibilizar dados públicos. Os relacionamentos entre datasets e tags serão representados de maneira estruturada, em formato de RDF (Resource Description Framework), representação padrão de Dados Interligados, visando facilitar sua posterior recuperação. Baseando-se na teoria de sumarização de grafos [1] e, usando como caso de uso o Portal de Dados Abertos sobre Agrotóxicos (http://dados.contraosagrotoxicos.org/pt_PT/​), foram aplicadas técnicas visando facilitar a exploração dos datasets existentes neste portal. As associações de tags semânticas aos datasets foram então transformadas, por meio da ferramenta ETL4LOD+ [2], para o formato de um grafo RDF, onde os datasets e as tags são os nós, conectados pelos relacionamentos semânticos que são as arestas. Além disso, foi aplicado o algoritmo HITS [3], usado para determinar a importância de nós em um grafo, com o intuito de prover ponderação aos nós que representam as tags, em relação aos datasets do portal e às outras tags relacionadas. Dessa forma, ponderações mais elevadas indicam tags que, provavelmente, são mais representativas ao conteúdo do portal explorado.
Com a aplicação dessa abordagem, foi possível gerar uma interface mais amigável, com a possibilidade da visualização de um resumo inicial, indicando as tags semânticas que melhor resumem os datasets contidos no portal, permitindo a aplicação da expansão aos nós correlacionados, garantindo uma melhor exploração. Ainda mais, é esperado conseguir integrar essa interface, obtida por meio do triplestore GraphDB, à interface da plataforma CKAN. Assim, os dados poderão ser explorados de forma iterativa e com o dinamismo desejado, e os datasets poderão ser acessados, mantendo a característica essencial do portal, mas adicionando um novo meio de exploração.



Sessão: IM - Sistemas / Mineração de Dados

5093 - DETECÇÃO DE ATAQUES EM SISTEMAS VIRTUALIZADOS




Autores: BRUNO GAVARRA

Orientação: DANIEL SADOC MENASCHE

Resumo: O aumento na demanda por serviços de cloud computing e de armazenamento em nuvem intensifica a importância de garantir a segurança dos mesmos. Em particular, existem inúmeras brechas de vulnerabilidade documentadas sobre sistemas virtualizados. Entretanto, a literatura sobre a detecção automática de ataques que fazem uso de tais brechas é ainda incipiente. Neste trabalho, visamos preencher tal lacuna.
Este projeto tem como objetivo avaliar o desempenho de ambientes virtualizados, levando em conta anomalias de acesso originadas pelo próprio sistema ou por um ataque externo (no caso deste estudo, injection). Para tal, avaliamos a aplicabilidade de algoritmos de aprendizado de máquina para identificar os ataques, visando comparar a eficácia de tais algoritmos contra aquela apresentada por algoritmos mais clássicos (e.g., testes de hipótese estatísticos). Comparamos os algoritmos clássicos contra algoritmos de aprendizado por máquina sob vários quesitos, incluindo flexibilidade, custo computacional e robustez. Nossos estudos preliminares indicam que algoritmos de aprendizado por máquina são complementares às abordagens padrões. Tal conclusão é baseada em estudos de trabalhos relacionados, cuja metodologia pretendemos replicar em trabalhos futuros.
Metodologia: a metodologia envolve aspectos teóricos e práticos. Do ponto de vista teórico, pretendemos comparar aspectos fundamentais associados ao algoritmo de bucket, e suas relações com o SPRT e teste de hipótese, identifcando suas vantagens e desvantagens. Do ponto de vista prático, visamos analisar o desempenho dos algoritmos em traços de dados reais.



Sessão: IM - Sistemas / Mineração de Dados

5868 - Ferramenta de visualização de dados de saúde coletiva




Autores: FELIPE GONÇALVES COSTA CASTRO , YAGO DE ARAUJO SERPA

Orientação: VALERIA BASTOS , MYRIAN COSTA

Resumo: Este trabalho possui como principal objetivo o apoio para equipes de pesquisa do IESC-UFRJ (Instituto de Estudos de Saúde Coletiva da Universidade Federal do Rio de Janeiro) para visualização de indicadores na área de saúde coletiva. Para tal objetivo, está sendo proposta a criação de uma aplicação web onde os pesquisadores da área de saúde conseguirão confirmar hipóteses e inferir novos estudos baseados em dados de natureza pública disponibilizados pelo DATASUS [1]. Com o surgimento de novos formatos e tecnologias para armazenamento de dados, uma grande variedade de desafios, antes considerados tecnicamente inviáveis, tornam-se factíveis. Se analisarmos historicamente a maneira como são organizados os bancos de dados relacionais, fica comprovado que, para grandes volumes de dados com atributos cujos valores podem ser ausentes, esta estrutura pode não atender às consultas de grande complexidade, exigindo muito tempo de processamento.
Para construção da aplicação proposta estamos utilizando o banco de dados não relacional MongoDB com o armazenamento e dados disponíveis no site do DATASUS - SIM (Sistema de Informações de Mortalidade) e SINASC (Sistema de Informações de Nascidos Vivos) - tratadas previamente [2]. Será utilizada a tecnologia SPA (Single Page Application – Aplicação de Página Única) para desenvolvimento de todo o frontend. Esta tecnologia permite explorar a capacidade de processamento dos clientes da aplicação, ou seja, os browsers, através do desenvolvimento em JavaScript, HTML, dentre outros.
Naturalmente, com o desenvolvimento SPA, está sendo utilizado para comunicação entre cliente e servidor o formato JSON (JavaScript Object Notation - Notação de Objetos JavaScript), sendo este bastante difundido e utilizado para comunicação e transmissão de dados entre serviços expostos, principalmente em APIs REST e formato que as bases usadas para o trabalho.
Um fator que vale ressaltar nesta arquitetura é a alta escalabilidade e manutenibilidade, permitindo evoluções e implementações de frameworks para otimizar consultas como o Graphql. Outra grande aliada ao trabalho proposto é a biblioteca de visualização de dados D3 (Data-Driven Documents), feita em JavaScript e que possui conexão simples e objetiva com o MongoDB, permitindo armazenar e exibir os dados em tempo de execução e de forma interativa.
Dessa forma, a solução se mostra facilmente escalável e adaptável, abrindo oportunidades de implementações de novas funcionalidades em trabalhos futuros, ampliando assim o apoio e a colaboração entre as áreas de tecnologia e de saúde.



Sessão: IM - Ensino

253 - O Laboratório de Ensino de Matemática e o uso de Recursos Didáticos: concepções de licenciandos




Autores: THAYS RAYANA SANTOS DE CARVALHO

Orientação: AGNALDO DA CONCEIÇÃO ESQUINCALHA , ANA TERESA DE CARVALHO CORREA DE OLIVEIRA

Resumo: Pesquisas têm mostrado que a utilização de recursos didáticos no ensino de Matemática pode ter grande importância para favorecer e facilitar a aprendizagem (RÔMULO RÊGO; ROGÉRIA RÊGO, 2012; LORENZATO, 2012). No entanto, muitos professores não recorrem ao uso de recursos na Educação Básica, em particular, os recursos materiais. Mas, em nosso trabalho, optamos por investigar a formação inicial de professores de Matemática, procurando compreender, inicialmente, o que os futuros professores entendem por recurso didático e laboratório de ensino de Matemática. Este trabalho trata- se de uma dissertação de mestrado em Ensino de Matemática que tem como objetivo principal investigar as concepções de licenciandos de Matemática, e suas transformações, acerca da utilização de recursos didáticos na prática docente, a partir do trabalho desenvolvimento na disciplina de Laboratório. O lócus da pesquisa é a disciplina de Laboratório de Instrumentação para o Ensino de Matemática do curso de licenciatura da UFRJ. A escolha dos alunos que cursam essa disciplina se deu pelo fato de considerar-se que o laboratório de ensino de Matemática é um ambiente propício para se pensar, discutir e refletir sobre o uso de recursos no ensino de Matemática. A pesquisa tem uma abordagem qualitativa, com aspectos de pesquisa exploratória. Os instrumentos de coleta de dados utilizados foram o questionário e o grupo focal. Para atingir os objetivos propostos, a coleta de dados se inicia por meio de um questionário aplicado aos alunos do curso de Licenciatura em Matemática que se matricularam na disciplina no início do semestre 2018/1, além da realização de um grupo focal ao término da disciplina, com 14 alunos. Para a análise dos dados, optou-se pela Análise de Conteúdo, por meio da criação de categorias e subcategorias, que foram elaboradas a partir das respostas dadas aos instrumentos de coleta de dados e dos objetivos propostos. De acordo com a investigação, o curso de licenciatura está formando os licenciandos com vistas à utilização de recursos materias em sua futura prática docente principalmente devido às discussões e trabalhos realizados na disciplina de Laboratório de Instrumentação para o Ensino de Matemática, ainda que tenham sido pouco evidenciados ao longo do curso em outras disciplinas e tão pouco utilizados em suas aulas, mostrando assim, a importância dessa disciplina na formação de professores. Os licenciandos reconhecem a importância do uso de recursos no ensino de Matemática e demonstram interesse em utilizá-los em suas futuras práticas, embora apresentem diferentes concepções em relação aos recursos (vistos como humano e materiais) e ao Laboratório de Ensino de Matemática. Estes, por sua vez, concebem que a utilização de recursos não só é uma boa maneira de introduzir e explorar os conteúdos, como também de auxiliar os alunos na construção do próprio conhecimento, tornando as aulas mais atrativas e desfazendo a ideia de que a Matemática é difícil de aprender.



Sessão: IM - Ensino

354 - TÍTULO: PROFESSORES DE MATEMÁTICA EM UMA COMUNIDADE VIRTUAL DE PRÁTICA: O RECONHECIMENTO DA IDENTIDADE NO CIBERESPAÇO




Autores: DANIELA MENDES VIEIRA DA SILVA

Orientação: AGNALDO DA CONCEIÇÃO ESQUINCALHA , VICTOR GIRALDO

Resumo: Na presente Tese analisamos a emergência de elementos da constituição da Identidade Profissional (IP) de Professores que Ensinam Matemática (PEM) que integram de uma Comunidade Virtual de Prática (CVP) sediada no aplicativo da Rede Social WhatsApp, sendo esta a nossa questão de pesquisa. Escolhemos o formato multipaper, no qual a Tese é composta de artigos científicos que reunidos respondem a uma questão de pesquisa proposta, para cumprir o nosso desiderato e estabelecemos quatro objetivos para dar conta da nossa questão de pesquisa, para cada um deles escrevemos um artigo independente, com metodologia e referenciais teóricos próprios. No primeiro artigo fizemos um estado do conhecimento sobre CVP, caracterizando-as; no segundo artigo fizemos um ensaio teórico sobre a tessitura do conhecimento em grupos de WhatsApp; no terceiro artigo analisamos, com o apoio da análise temática de conteúdo, interações de professores na CVP considerada e a emergência de elementos da constituição da sua identidade profissional neste contexto; no quarto artigo dialogamos com PEM da CVP considerada e analisamos, com o apoio da análise temática de conteúdo, a partir de conversas sobre a sua atuação na escola e na comunidade, a emergência de elementos da constituição da sua identidade profissional. Abrimos a Tese com uma introdução estendida na qual apresentamo-la e aprofundamos os referenciais teóricos abordados em cada um dos artigos que a compõe e a fechamos com um capítulo de integração dos seus artigos, o qual responde à questão de pesquisa proposta. Como resultado deste estudo, entendemos que a vulnerabilidade é o que impulsiona cada um dos docentes analisados à tessitura do conhecimento com seus pares. Esta busca pelo outro se dá por meio do sentido de agência; impulsionada pelas crenças e concepções, autoconhecimento, conhecimento profissional e compromisso político dos PEM; e é por meio dela que práticas são trocadas e o trabalho dos docentes envolvidos é reconhecido e divulgado.
Também é por meio da agência dos docentes em foco que as salas de aula dos professores considerados se interligam, interfaceadas pelas pequenas telas de seus smartphones, por meio da grande rede mundial de computadores. Tal tessitura é plural e viabilizada pelo fenômeno da constituição de grupos de WhatsApp para discussão de temas de interesse comum. Nestes grupos, os nossos sujeitos buscam, de maneira ubíqua, não só trocar conhecimentos, mas também romper a solidão docente e obter reconhecimento e publicidade para as atividades de suas próprias salas de aula.



Sessão: IM - Ensino

639 - PRÁTICAS DE PROFESSORES QUE ENSINAM MATEMÁTICA PARA ALUNOS AUTISTAS




Autores: ANA GABRIELA CARDOSO DO NASCIMENTO

Orientação: AGNALDO DA CONCEIÇÃO ESQUINCALHA , GISELA PINTO

Resumo: A educação especial e inclusiva enfrenta diversos desafios pelo fato de atender a um vasto público de pessoas com diferentes particularidades. Em relação ao aluno com Transtorno do Espectro Autista (TEA), as especificidades são em relação a três aspectos: comunicação, interação social e comportamento. Segundo Belisário Filho (2010), as manifestações desse transtorno variam imensamente, a depender do nível de desenvolvimento e idade e, com isso, os alunos com TEA apresentam diversas formas de ser e agir, com respostas diferentes entre si. Tais especificidades podem provocar a inserção do aluno em sala de aula em detrimento da sua inclusão, dificultando sua aprendizagem, inclusive de matemática. O papel do professor é fundamental para possibilitar, além do aprendizado de um conteúdo específico, a independência e o desenvolvimento cognitivo destes alunos, ampliando a possibilidade de integração social. Com isso, o objetivo dessa pesquisa é investigar as práticas de professores que ensinam matemática para alunos autistas e como se desenvolve o processo de inclusão destes alunos nas aulas de matemática. Buscamos responder as seguintes questões: como tem sido a educação matemática de autistas nas escolas regulares? quais são as práticas dos professores que ensinam matemática para alunos autistas? quais são as especificidades que devem ser consideradas nos processos de ensino-aprendizagem desse público? Considerando as particularidades do tema, a pesquisa será de caráter qualitativo, com a realização de um questionário com professores que lecionam ou já lecionaram matemática para alunos com TEA. Em relação às estratégias, primeiramente foi feito um estudo piloto com a aplicação de um questionário, criado no Google Forms. O questionário tinha três seções – perfil do professor, contato com o aluno autista, e prática docente e inclusão – sendo respondido por seis professores. Com o estudo piloto percebemos que o questionário poderia ser melhor elaborado, com a adição de mais perguntas, além de perceber, por meio das respostas dos professores, as especificidades do comportamento e do aprendizado de seus alunos autistas, assim como sua atuação com esses alunos. Baseado na concepção de Richardson (1999), o questionário foi reelaborado, com a introdução de novas perguntas, e será aplicado novamente com um quantitativo maior de professores, sendo enviado por redes sociais para grupos de professores de autistas. A análise de dados será realizada por meio da análise temática de conteúdo.
Esperamos, com essa pesquisa, descobrir e analisar práticas de professores que ensinam matemática que respeitem as especificidades do aluno autista. Além disso, esperamos conhecer diferentes tipos de alunos autistas, que se adaptam ou não com o método de ensino que lhe foi aplicado, e a efetividade de sua aprendizagem.



Sessão: IM - Ensino

4796 - O ensino de conteúdos visuais de Matemática para alunos com deficiência visual ou surdos.




Autores: VINíCIUS BERBAT PAULA

Orientação: CLAUDIA COELHO DE SEGADAS VIANNA

Resumo: Atualmente, mais da metade das escolas públicas brasileiras têm alunos com deficiência, transtornos globais do desenvolvimento ou altas habilidades incluídos em classes comuns, e este número vem aumentando a cada ano. De acordo com o Censo Escolar da Educação Básica (BRASIL, 2016), de 2008 a 2016 o percentual de escolas públicas com alunos incluídos em classes comuns quase duplicou, passando de 31% para 57,8%. Por este motivo, é perceptível a necessidade de preparo de licenciandos a fim de lidarem de maneira efetiva as estas especificidades destes alunos.
Diante da demanda gerada pela inclusão e da necessidade de pesquisas em torno do ensino- aprendizagem de estudantes com necessidades educativas especiais (NEE), buscou-se um tema que representasse um desafio no ensino de matemática para alunos surdos ou com deficiência visual.
Optou-se, então, por pesquisar o desenvolvimento do ensino e aprendizagem de área e perímetro. O estudo se deu por meio de consulta a pesquisas relacionadas ao tema e a partir das discussões desencadeadas no grupo do Projeto Fundão, da qual participam e colaboram professores que atuam no Instituto Benjamin Constant e no Instituto Nacional de Educação de Surdos. Dentre os principais aspectos abordados e discutidos acerca do ensino de matemática para alunos surdos, destacou-se a importância da adequação dos recursos didáticos utilizados e a influência da Língua Brasileira de Sinais (Libras) na interpretação, discussão e resolução dos problemas de matemática. A partir da pesquisa inicial foi possível realizar e aplicar atividades para alunos cegos e surdos e investigar o efeito destas nos alunos.
A metodologia adotada consistiu de: (i) leituras às principais referências bibliográficas acerca do ensino de alunos surdos e cegos e também sobre ensino de área, perímetro e volume. (ii) leitura e análise dos Parâmetros Curriculares Nacionais (BRASIL, 1998) e da Base Nacional Comum Curricular (BRASIL, 2018), nas seções que se referem aos conteúdos abordados; (iii) planejamento e aplicação de atividades. A pesquisa teve como foco principal o ensino de alunos surdos, pois o autor bolsista deste trabalho conhece Libras e assim pode atuar de forma ativa na aplicação das atividades no Instituto Nacional de Educação de Surdos. O registro da aplicação das atividades no INES possibilitou que o grupo pudesse refletir sobre os diferentes aspectos envolvidos no processo (material utilizado, adaptações nos enunciados, comportamento dos alunos), de forma a promover ajustes e melhorias.. Um dos resultados encontrados foi a necessidade de se refletir mais acerca dos enunciados em português para aplicação com alunos surdos, tendo em vista que a Língua Portuguesa não é a Língua de Instrução deste grupo.



Sessão: IM - Ensino

5854 - Construção do conhecimento através de um grafo interativo com vídeos didáticos produzidos pelos próprios estudantes




Autores: RAFAEL RIS-ALA JOSÉ JARDIM , LEANDRO MENDONÇA DO NASCIMENTO , VINICIUS DOS SANTOS SILVA

Orientação: CARLA AMOR DIVINO MOREIRA DELGADO

Resumo: Este trabalho apresenta uma atividade didática com o objetivo de minimizar obstáculos epistemológicos na aprendizagem do cálculo da área de figuras planas com o aporte da tecnologia. O público alvo foram os alunos do 9º ano do Ensino Fundamental II da Escola Municipal Professora Dulce Trindade Braga da Prefeitura de Duque de Caxias. Como documento norteador, escolhemos a Base Nacional Comum Curricular (BNCC) para reiterar as competências e habilidades inerentes ao ano escolar. Para o desenvolvimento deste projeto, foi proposta a elaboração de um grafo interativo. Os alunos participaram da construção das ideias propondo elementos fundamentais em cada apresentação e confeccionaram o material através de vídeos produzidos de seus smartphones. Observou-se que a atividade, por trazer em seu cerne as metodologias ativas, retirou os alunos da inércia fazendo com que fossem atores do seu próprio aprendizado e sobretudo aumentou o engajamento, a vontade de aprender, conduzindo os discentes no percurso apresentado no grafo proporcionando uma aprendizagem significativa.



Sessão: IM - Ensino

6511 - Revisão Sistemática suas caracteristicas, benefícios e aplicação no campo de pesquisa educacional




Autores: FERNANDO GABRIEL SOUZA DA SILVA

Orientação: LUCIANE DE SOUZA VELASQUE

Resumo: O trabalho consiste em realizar uma revisão sistematica sobre o ensino de estatistica que atualmente está em foco devido a sua presença maior nos novos curriculos e visto a sua presença em pesquisas de opinião e debates de diversos temas. Segundo Campos (2007), no âmbito da Educação Estatística, pôde-se observar uma preocupação mais acentuada com os recursos que a Estatística pode oferecer, não apenas para a pesquisa científica, mas também para o desenvolvimento de uma postura investigativa, reflexiva e crítica do aluno em uma sociedade globalizada, marcada pelo acúmulo de informações e pela necessidade de tomada de decisões em situações de incerteza e, por isso, o objetivo da revisão é entender o estado da arte campo de pesquisa em educação estatística com enfoque no ensino básico, entrentanto, existe uma dificuldade em analisar todo um campo de pesquisa devido o escopo e quantidade de trabalhos sendo desenvolvidos estar em constante crescente, assim, a maneira como o pesquisador busca novos textos para seu trabalho deve se adaptar a essa realidade uma busca sem cuidado pode limitar e potencializar o desenvolvimento do vies na pesquisa. Assim surge o segundo objetivo de demonstrar uma forma de realizar essa pesquisa inicial descrevo o que é um revisão sistemática, uma forma de esquematizada de realizar a investigação na fase inicial, suas particularidades ao utiliza-la no campo educacional e as vantagens de sua aplicação. Com o objetivo de demonstrar aos pesquisadores do campo educacional a necessidade de uma mudança cultural na forma do como as revisões são realizadas para uma que sai do campo informal para o campo estruturado e planejado. Metodologia baseada na do PRISMA, (Principais Itens para Relatar Revisões sistemáticas e Meta-análises) principal fonte metodológica para a aplicação de revisões sistemática e no dos EPPI-Centre, (Evidencias para Politicas e Praticas Informação e coordenação) com foco em organizar e sintetizar resultados de forma acessível, assim, nessa perspectiva é discutido a adaptação de revisões sistematizadas a realidade da pesquisa em educação, em vista os obstáculos encontrados na realização de uma revisão no campo de pesquisa em ensino.



Sessão: IM - Ensino

1586 - Hamilton e os Quatérnions




Autores: LUANA GATTI , RODRIGO WERNECK FRANCO

Orientação: FELIPE ACKER

Resumo: O vídeo "Hamilton e os Quatérnions" traça, em 3 minutos, a trajetória da criação dos quatérnions, como resultado, parcialmente frustrado, da obsessão de Sir William Rowan Hamilton pela criação de um sistema de números (um "corpo", em matematiquês erudito) que estendesse os complexos para o espaço tridimensional. O episódio em que Hamilton abre mão de seus "números tridimensionais", as "trincas", em favor dos tetradimensionais quatérnions, descrito pelo próprio Hamilton em carta a seu filho Archibald, é reconstituído em nosso trabalho com o uso de fantoches.
Este vídeo integra uma linha do Projeto matematica.ufrj, coordenado pelo Professor Felipe Acker, do Instituto de Matemática. Trata-se de vídeos curtos, voltados para a reconstituição de momentos decisivos para o desenvolvimento da Matemática, centrados nas aventuras pessoais de seus protagonistas. A criação das animações, com o uso de técnicas diversas, está a cargo de Luana Gatti Correa, aluna do curso de Pintura da Escola de Belas Artes.



Sessão: IM - Ensino

1606 - O Teorema de Brouwer




Autores: GABRIEL MAYRINK VERDUN , JOÃO PAULO PINTO SIQUEIRA

Orientação: FELIPE ACKER

Resumo: O Teorema de Brouwer é um resultado básico da Topologia. Seu enunciado é fácil de compreender, mas sua demonstração é considerada bastante elaborada, do ponto de vista técnico. No entanto, existe uma demonstração bastante intuitiva, baseada no conceito de índice (que nada mais é que o número de voltas que uma corda com as extremidades emendadas dá em torno de um poste). Este é o foco do presente trabalho.
Para além da apresentação do Teorema, o objetivo deste trabalho é evidenciar o fato, já enunciado pelo orientador há mais de três décadas, de que a entrada em cena do computador, ao permitir a conversão de objetos matemáticos em imagens e animações, altera significativamente a percepção de resultados considerados complicados e de difícil compreensão. O Teorema de Brouwer, aqui apresentado em vídeo, com animações geradas por computação gráfica, é um exemplo eloquente de que a dificuldade pode, em muitos casos, ser inerente às limitações da "pedagogia literário-teatral" dominante há milênios.



Sessão: IM - Estatística

299 - CRIAÇÃO DE UM PACOTE EM R PARA ESTIMADORES LINEARES BAYESIANOS EM AMOSTRAGEM DE POPULAÇÃO FINITA




Autores: PEDRO SOARES FIGUEIREDO

Orientação: KELLY CRISTINA MOTA GONÇALVES

Resumo: No contexto de amostragem, a teoria de superpopulação surgiu como uma alternativa à teoria baseada na aleatorização do desenho, que se mostrou ineficiente em algumas situações específicas. Conciliando estas duas abordagens, a estimação linear de Bayes pode ser utilizada para obter estimadores para diversas situações. O objetivo principal deste trabalho é criar um pacote em R para viabilizar a aplicação desta abordagem e publicá-lo na rede do CRAN.
A amostragem clássica supõe uma população fixa e posiciona a aleatoriedade nas possíveis amostras existentes, e obtém os estimadores com base nesta ideia; enquanto modelos de superpopulação consideram a própria população como fonte de incerteza, e os valores das características de interesse dos indivíduos são vistos como realizações de variáveis aleatórias, cujos parâmetros são o foco da estimação. Neste contexto, Gonçalves et al. (2014) propuseram o uso de uma abordagem livre de distribuição e mais flexível, baseada em estimadores lineares Bayesianos. A metodologia é vista como uma alternativa aos métodos de aleatorização e apresenta-se como um meio caminho entre as duas ideias anteriormente mencionadas. Nesta abordagem o desenho amostral é caracterizado apenas por hipóteses de permutabilidade acerca dos primeiro e segundo momentos, e descrevem os conhecimentos a priori sobre estruturas presentes na população. Os estimadores são obtidos a partir de um modelo de regressão geral especificado apenas por média e variância.
O software R, apesar de muito usado para análises estatísticas (incluindo amostragem de populações finitas), não possui um pacote que implemente esse tipo de teoria. O objetivo desse trabalho é, por fim, permitir que esta abordagem seja aplicada nas mais diversas áreas, com facilidade aumentada pela criação de manuais explicativos sobre o pacote, suas funções, conjuntos de dados e a sua utilização em si.



Sessão: IM - Estatística

420 - MODELOS DINÂMICOS QUANTÍLICOS BAYESIANOS APLICADOS A SÉRIES MACROECONÔMICAS




Autores: UGO ALMANÇA FLORES

Orientação: KELLY CRISTINA MOTA GONÇALVES

Resumo: Os modelos de regressão sobre a média, fundamentados sobre a tradicional minimização da função de perda quadrática, são ferramentas amplamente utilizadas na estatística. No entanto, eles possuem particularidades que os tornam inapropriados a certas aplicações – sobretudo em estudos com bases de dados heterocedásticos e que possuam abundância de outliers. Ademais, em determinados contextos, o interesse do analista pode estar voltado à inferência sobre a forma da distribuição da variável resposta, e não apenas sobre o seu valor esperado.
Em contrapartida à regressão na média, a regressão quantílica baseia-se numa função de perda robusta que proporciona a possibilidade de se estudar os efeitos de variáveis auxiliares sobre os quantis da variável resposta. O seu uso sob o enfoque Bayesiano também possibilita a sua aplicação independente da real distribuição dos dados – ao contrário da regressão na média, que supõe normalidade nos resíduos.
Por outro lado, também sob a ótica Bayesiana, os modelos dinâmicos são ferramentas comumente utilizadas em conjunto com a regressão na média para modelar a evolução das relações entre as variáveis no tempo. Neste cenário, tais modelos sofrem das mesmas limitações supracitadas; entretanto, os modelos dinâmicos quantílicos são capazes de proporcionar uma ferramenta flexível que modela não só a influência das variáveis independentes sobre os quantis da variável dependente como também sua evolução ao longo do tempo.
Desta maneira, este projeto tem como finalidade aplicar esta nova classe de modelos a séries temporais econométricas, onde é de interesse modelar a evolução não em termos do valor esperado, mas sim em termos dos quantis, proporcionando maior compreensão sobre como as variáveis auxiliares impactam os quantis da variável resposta e sobre a evolução da sua distribuição em diversos instantes de tempo.
inferência Bayesiana regressão quantílica modelos dinâmicos distribuição Laplace Assimétrica Monte Carlo via Cadeias de Markov



Sessão: IM - Estatística

616 - Modelo de Teoria de Resposta ao item aplicado ao rendimento dos alunos na disciplina de Álgebra Linear II




Autores: MARIANA RUMA MARTINS

Orientação: MARINA SILVA PAEZ , KELLY CRISTINA MOTA GONÇALVES

Resumo: Métodos de avaliações educacionais vem sendo propostos no decorrer dos anos, a fim de melhor avaliar o desempenho dos alunos. A Teoria de Resposta ao Item (TRI) é um destes métodos de avaliação educacional que utiliza escalas de habilidades para fazer um acompanhamento do progresso do conhecimento adquirido pelos alunos ao longo do tempo. Dentre as diversas avaliações educacionais nas quais a TRI vem sendo aplicada no Brasil, destaca-se o ENEM, uma das principais avaliações utilizadas para o ingresso de alunos nas universidades. Detalhes sobre esses modelos podem ser vistos em Andrade et al (2000). Este trabalho tem como objetivo analisar o desempenho dos alunos da Universidade Federal do Rio de Janeiro (UFRJ) que cursaram a disciplina Álgebra Linear II no segundo semestre do ano de 2018, usando o Modelo Logístico de três parâmetros, usual em TRI. Primeiramente, uma análise exploratória de dados será feita de forma a caracterizar o perfil dos estudantes de uma forma geral. Modelos de regressão serão utilizados para avaliar se existe alguma relação entre a nota do aluno e variáveis auxiliares, como por exemplo, o coeficiente de rendimento acumulado e se o mesmo está cursando a disciplina pela primeira vez ou não. Adicionalmente, o Modelo Logístico de três parâmetros da TRI será ajustado aos dados, afim de obter uma melhor avaliação do desempenho destes alunos. Dessa forma, estaremos levando em consideração não apenas o cálculo simples de questões certas e erradas, mas implementando a sofisticação de um modelo para avaliar os traços latentes, ou seja, características dos alunos que não podem ser medidas diretamente e que estão associadas a características intrínsecas relacionadas aos itens das provas.



Sessão: IM - Estatística

720 - MODELOS FATORIAIS BAYESIANOS PARA VARIÁVEIS CATEGÓRICAS MULTIVARIADAS OBTIDAS A PARTIR DE QUESTIONÁRIOS




Autores: VITOR GABRIEL CAPDEVILLE DA SILVA

Orientação: KELLY CRISTINA MOTA GONÇALVES , JOÃO BATISTA DE MORAIS PEREIRA

Resumo: Análise fatorial é uma técnica flexível para avaliação de dependência e codependência multivariada.
Além de ser uma ferramenta exploratória usada para reduzir dimensionalidade em dados multivariados, permite a estimação de fatores comuns que frequentemente tem interessantes interpretações teóricas em problemas reais.
Porém, análise fatorial padrão é aplicável apenas quando as variáveis são contínuas, o que é frequentemente inapropriado, por exemplo, em dados obtidos de questionários no campo da psicologia, onde as variáveis são frequentemente categóricas. Neste trabalho, propomos um modelo fatorial para analisar dados multivariados categóricos ordenados e não-ordenados. O procedimento de inferência é feito sob o paradigma Bayesiano, por meio de métodos de Monte Carlo via Cadeias de Markov (MCMC). Um estudo de Monte-Carlo é apresentado para investigar a performance dessa abordagem em termos de vício e precisão da estimação. Além disso, um estudo preliminar com respeito ao número de fatores foi realizado com dados artificiais. Aplicamos também o método proposto para analisar a resposta de participantes ao conhecido Questionário de Estado Motivacional (do inglês, Motivational State Questionnaire), desenvolvido para estudar emoções em configurações de campo e laboratório.



Sessão: IM - Estatística

2624 - MÉTODOS DE MÁXIMA ENTROPIA EM PROCESSOS ESTOCÁSTICOS: O TEOREMA DE BURG




Autores: THIAGO ELBERT GUIMARãES

Orientação: HUGO CARVALHO

Resumo: No contexto de variáveis aleatórias, o princípio de máxima entropia (PME) afirma que, tendo uma estatística sobre um conjunto de dados, a distribuição que melhor se adequa à informação obtida é a distribuição de máxima entropia, condicionada em tal estatística. É possível justificar essa afirmação se entendermos a entropia de Shannon como uma medida da aleatoriedade da distribuição de probabilidade, portanto, a distribuição de máxima entropia é a mais vaga possível atendendo às condições impostas pelos dados.
É possível fazer uma extensão natural deste princípio para processos estocásticos, uma vez definido o análogo da entropia nesse caso. Em problemas práticos, podemos usar o PME para analisar o comportamento de processos estocásticos em tempos maiores do que podemos observar. Se por exemplo, conseguimos estimar a estrutura de correlação em uma sequência de tamanho p de um processo estocástico a partir da observação da mesma, ainda assim não temos informação alguma sobre a correlação para períodos maiores que p. Portanto, de acordo com o PME, o processo que melhor representa a quantidade de informação que possuímos é o que maximiza a entropia. O processo em questão é o processo de Gauss-Markov. Mais especificamente, o teorema de Burg (J. P. Burg, 1975) afirma que dada a função de autocorrelação em um segmento de tamanho p de um processo, o processo que maximiza a taxa de entropia é o processo de Gauss-Markov de ordem p com os parâmetros adequados.
O objetivo do seguinte trabalho é fazer uma discussão do PME a partir dos princípios da teoria da informação, desde a definição da entropia de Shannon até a demonstração do teorema de Burg. Assim como estudar possíveis aplicações do PME em fenômenos físicos.



Sessão: IM - Estatística

3300 - Análise e aplicação de processos de decisão markovianos




Autores: LUCAS FERREIRA CABRAL

Orientação: GLAUCO VALLE

Resumo: Processos de Decisão Markovianos (PDM) são cadeias de Markov que modelam a evolução de variáveis cujas distribuições futuras dependem de uma ação tomada por um agente no presente. Nesse sentido, tomar uma decisão significa determinar a melhor ação dentro de um conjunto possível, isto é, escolher aquela ação que maximiza uma função de ganho sobre a evolução das variáveis modeladas.
Em finanças, por exemplo, surgem modelos simples onde o agente é o portador de uma carteira de ativos que, a cada instante de tempo, pode optar por redistribuir a alocação de valores entre os diversos ativos de sua carteira. Neste caso o valor futuro da carteira é aleatório, porém dependente da redistribuição (ação) realizada no presente, que tem como objetivo maximizar o valor futuro da carteira.
Apresentaremos resultados e aplicações de PDM, que é uma área fundamental na interseção entre a Teoria de Processos de Markov e a Teoria de Otimização. Estes processos possuem aplicações em diversas áreas do conhecimento, como finanças e algoritmos de Aprendizagem Profunda e/ou Reforçada, quê são cada dia mais úteis como ferramentas associadas à ciência de dados.



Sessão: IM - Grafos, Lógica e Análise Numérica

1211 - Axiomas Aritméticos para Conjuntos Hereditariamente Finitos




Autores: VITOR MAZAL KRAUSS

Orientação: MARCIA ROSANA CERIOLI , JORGE PETRUCIO VIANA

Resumo: No desenvolvimento axiomático de uma teoria matemática, os axiomas são as proposições que são assumidas sem prova, a partir das quais as outras proposições da teoria são provadas por meio de deduções lógicas. Por exemplo, a aritmética dos números naturais pode ser axiomatizada pelos bem conhecidos Axiomas de Peano. Esta axiomática assume a existência de um número natural 0, chamado zero, e de uma função unária s, chamada operação de sucessão, que associa, a cada número natural n, o número natural s(n) = n+1. Nesse contexto, os números naturais são obtidos a partir do 0 por um número finito de aplicações da operação s e as proposições verdadeiras da aritmética são consequências dos Axiomas de Peano.
Alternativamente, a aritmética dos números naturais pode ser desenvolvida a partir de outros sistemas de axiomas. Uma dessas construções utiliza os Axiomas da Teoria dos Conjuntos, ZF, de Zermelo- Fraenkel. Em ZF, o número zero é definido como sendo o conjunto vazio, ∅, e a operação de sucessão como a função unária S, que a cada conjunto C associa o conjunto S(C) = C U {C}. Nesse contexto, os números naturais são conjuntos de um certo tipo e as proposições verdadeiras da aritmética são consequências dos axiomas de Zermelo-Fraenkel.
A construção dos naturais em ZF tem uma generalização natural, se substituímos a operação de sucessão, unária, por uma operação binária. Tomando ∅ como objeto inicial e considerando a operação S que a cada par de conjuntos (C, D) associa o conjunto S(C,D) = C U {D}, podemos considerar os objetos que são obtidos a partir do ∅ por um número finito de aplicações da operação S. Esses são os chamados conjuntos hereditariamente finitos, definidos e axiomatizados originalmente por Ackemann [1] e possuem diversas aplicações. Recentemente, Kirby [2] e Smolka e Stark [3] propuseram e investigaram uma nova axiomatização dos conjuntos hereditariamente finitos.
Em nosso trabalho, propomos um novo sistema de axiomas para os conjuntos hereditariamente finitos e mostramos que os nossos axiomas são: uma generalização natural dos Axiomas de Peano; equivalentes aos axiomas de Kirby-Smolka-Stark; suficientes para garantir uma definição recursiva do conceito de cardinalidade de um conjunto hereditariamente finito; e categóricos, isto é, suficientes para caracterizar os conjunto hereditariamente finitos a menos de isomorfismo. Nosso trabalho também objetiva desenvolver a Teoria dos Conjuntos Hereditariamente Finitos tratando no âmbito da nossa axiomatização os conceitos de interseção, união, complementação, par não ordenado, par ordenado, relações, funções, etc., fazendo um paralelo com a Teoria ZF. Por fim, objetivamos aplicar a nossa axiomatização na teoria formal da combinatória básica de contagem, investigando, nesse contexto, a independência dos princípios básicos de contagem, tais como, o Princípio da Multiplicação, da Adição e da Inclusão-Exclusão.



Sessão: IM - Grafos, Lógica e Análise Numérica

1297 - Princípios de Indução Matemática: equivalência e adequabilidade




Autores: RODRIGO FERNANDES SOUTO

Orientação: MARCIA ROSANA CERIOLI , JORGE PETRUCIO VIANA

Resumo: O Princípio de Indução Matemática (em suas duas formas, PIM1 e PIM2) e o Princípio da Boa Ordem (PBO), dão origem a três métodos de prova que são utilizados na justificativa de resultados importantes em diversas áreas da matemática; em particular, na Teoria dos Grafos [1]. Um dos aspectos enfocados, quando esses princípios são estudados nas disciplinas de graduação, é a sua equivalência como enunciados. Em nosso trabalho, estudamos três aspectos relacionados a equivalência desses princípios.
Consideramos dois tipos de equivalência entre enunciados: a lógica e a matemática. Numa etapa anterior do trabalho foi mostrado que embora os princípios sejam matematicamente equivalentes, eles não são logicamente equivalentes. Também foi iniciado o estudo do quão longe de serem logicamente equivalentes esses princípios estão. Para isso, foi apresentado, para cada par de princípios, uma prova da equivalência matemática entre eles que usa um conjunto mínimo de propriedades aritméticas.
Baseados nesses conjuntos mínimos, apresentamos, agora, contra exemplos simples que mostram que os princípios não são logicamente equivalentes.
Além disso, estudamos a equivalência dos métodos de prova originados a partir dos princípios. Cada prova feita por intermédio de PIM1, PIM2 ou PBO está associada a uma propriedade a qual o princípio é aplicado. Toda prova que usa o PIM1 pode ser transformada em uma prova que usa o PMI2 aplicado à mesma propriedade sobre a qual o PIM1 foi aplicado. Reciprocamente, toda prova que usa o PIM2 pode ser transformada em uma prova que usa o PIM1, mas para isso, aparentemente, teríamos que mudar a propriedade sobre a qual o PIM2 foi aplicado. Em nosso trabalho, buscamos caracterizar as provas que usam o PIM2 e podem ser transformadas em provas que usam o PIM1 aplicado à mesma propriedade a qual o PIM2 foi aplicado. Fazemos isso, baseados em [2], apresentando exemplos de estruturas nas quais as provas que usam esses princípios coincidem. Nosso trabalho também objetiva caracterizar as estruturas com essa propriedade.
Em nosso trabalho, também estudamos a adequabilidade do PIM1 e do PIM2, no seguinte sentido.
Dado um enunciado cuja prova poder feita por intermédio de um dos princípios, às vezes, é mais natural aplicarmos o outro. Por exemplo, o PIM2 é muito mais adequado para a prova do Teorema Fundamental da Aritmética do que o PIM1. Além disso, como exemplificado em [3], na prova de resultados em Teoria dos Grafos, há casos em que uma forma intermediária do Princípio de Indução parece ser ainda mais adequada do que o PIM1 ou o PIM2. Assim, em nosso trabalho, fazemos o mesmo tipo de análise elaborada acima para o tipo intermediário de indução, PIM1/2. Isto é, investigamos a equivalência desse princípio com o PIM1, o PIM2 e o PBO. E, também, para que tipos de estruturas as provas usando o PIM1, o PIM1/2 e o PIM2 coincidem. Nosso trabalho também objetiva caracterizar as estruturas com essa propriedade.



Sessão: IM - Grafos, Lógica e Análise Numérica

2331 - ESTUDO SOBRE CONVEXIDADE EM GRAFOS




Autores: TOMAS BIZET DE BARROS

Orientação: MITRE COSTA DOURADO

Resumo: Um grafo G é um par ordenado (V(G), E(G)) onde V(G) é um conjunto finito não vazio de vértices e E(G) é um conjunto finito de arestas, ou seja, pares de vértices distintos. Uma convexidade sobre um conjunto não vazio X é uma famı́lia C de subconjuntos de X, chamados conjuntos convexos, tais que ∅, X ∈ C e C é fechado sob interseções e uniões aninhadas. Em grafos, as convexidades mais estudadas utilizam um tipo especial de caminho para definir os conjuntos convexos. Por exemplo, dado um conjunto de caminhos P em um grafo G, um conjunto S ⊆ V (G) é P-convexo se, para qualquer par de vértices u, v ∈ S, todo caminho em P, começando em u e terminando em v, contém somente vértices de S. Considere um conjunto de vértices S ⊆ V(G). A envoltória convexa de S ⊆ V (G) é o menor conjunto convexo de C que contém S, denotado por H(S). O intervalo fechado de S é o conjunto formado por todos os vértices que pertencem a algum caminho de P entre dois vértices de S, denotado por I(S). Na convexidade geodética, P constitui-se de todas as geodésicas do grafo, ou seja, de todos os caminhos mı́nimos do grafo. Neste contexto, denotamos intervalo fechado e envoltória convexa de S por I[S], Ih[S], respectivamente. Desse modo, I[S] corresponde a todos os vértices que pertencem a algum caminho mı́nimo entre dois vértices de S. Na convexidade monofônica, onde P é composto por todos os caminhos induzidos, ou seja, todos os caminhos minimais do grafo. Nessa convexidade, denotamos intervalo fechado e envoltória convexa de S por J[S], Jh[S], respectivamente. Assim, J[S] é o conjunto formado pelos vértices que pertencem a algum caminho induzido entre dois vértices de S. Se o intervalo fechado de S é o conjunto V(G), então S é um conjunto de intervalo de G, e se a sua envoltória convexa for igual a V(G), então S é um conjunto envoltória de G. O número de convexidade de um grafo G corresponde à cardinalidade de um conjunto convexo máximo de G diferente de V (G). O objetivo principal desse projeto de iniciação científica consiste em desenvolver um estudo aprofundado nos aspectos estruturais e computacionais de convexidade em grafos. Primeiramente, com a leitura de livros, foram abordadas as noções básicas de convexidade [1] e a aplicação desse conceito da matemática contínua na matemática discreta através da teoria dos grafos [2]. Em seguida foi realizado um aprofundamento para o esboço do status quo da area de pesquisa, analisando e discutindo artigos recentes através de reuniões semanais. Por fim, foram levantados problemas em aberto, com foco na relação entre os conjuntos de fronteira de grafos e convexidade, com a intenção de elaborar uma solução estrutural ou computacional. Consideramos, por exemplo, as questões de encontrar classes de grafos para as quais o intervalo monofônico ou para as quais o numero de convexidade possam ser computados em tempo polinomial. Estes dois problemas sendo NP-difícil para grafos gerais.



Sessão: IM - Grafos, Lógica e Análise Numérica

2385 - L(2,1)-coloração de grafos: propriedades estruturais




Autores: GUSTAVO DOS SANTOS I. BORGES

Orientação: MARCIA ROSANA CERIOLI

Resumo: Uma k-L(2,1)-coloração de um grafo G = (V,E) é uma função f: V → {0,1,...,k}, tal que, dados dois vértices adjacentes u e v temos que a diferença absoluta entre f(u) e f(v) é maior que 1 e dados dois vértices a e b de distância 2, temos que f(a) e f(b) são diferentes [2]. O conceito de L(2,1)-coloração surgiu como modelagem matemática para solução de problemas de atribuição eficiente de frequências de rádio, de modo que locais próximos recebam frequências diferentes e, locais muito próximos tenham frequências com pelo menos duas unidades de diferença; isto para que os sinais não sofram interferência e sua origem seja facilmente detectada. Denotamos por λ(G) o menor número k tal que G=(V,E) possua uma k-L(2,1)-coloração. Na modelagem, λ(G) determina a extensão da faixa de frequência mínima que propicia uma transmissão sem interferências.
Griggs e Yeh, em [2], além de proporem o problema, também exibiram várias classes de grafos para as quais o valor de λ(G) está determinado, entre eles caminhos e ciclos. Também conjecturaram que, (i) para todo grafo G de grau máximo ∆, o valor de λ(G) é menor ou igual ao quadrado de ∆ e (ii) para toda árvore T, determinar se T tem λ(T) = ∆+1 ou λ(T) = ∆+2 é um problema NP-Completo. A conjectura (i) continua em aberto, mas, (ii) foi refutada por Chang e Kuo [1] que exibiram um algoritmo polinomial que determina o valor de λ(T) de uma árvore T. Em [1] não foram exibidas todas as condições estruturais das árvores que as classificariam em um dos dois tipos. Este problema foi abordado em outros trabalhos, por exemplo [3], mas continua em aberto.
Neste trabalho buscamos, além de revisar o conhecimento já estabelecido sobre as propriedades de classes específicas de grafos, sob o ponto de vista estrutural, com enfoque nas árvores, realçar as características estruturais necessárias e suficientes para classificá-las como do tipo λ(T) = ∆+2. O objetivo é entender mais profundamente a dificuldade do problema, mesmo restrito a uma classe tão simples como a das árvores. Além disso, consideramos subclasses de grafos bipartidos e classes de grafos obtidos por operações em grafos, tais como produto cartesiano e quadrado, para determinar valores exatos ou cotas superiores para λ(G) para grafos G nessas classes.



Sessão: IM - Grafos, Lógica e Análise Numérica

2539 - 3-Coloração de Grafos Planares




Autores: THIAGO PAIXãO VELLOSO

Orientação: MARCIA ROSANA CERIOLI

Resumo: Uma coloração de um grafo consiste em uma atribuição de cores aos seus vértices de forma que nenhum par de vértices adjacentes receba a mesma cor. Dizemos que um grafo é k-colorível se ele admite uma coloração com k cores e o número cromático de um grafo G é o menor k tal que G seja k- colorível. Um grafo é planar se pode ser desenhado no plano sem cruzamento de arestas.
O problema da coloração de grafos planares é famoso e amplamente estudado desde o Século XIX sendo uma modelagem do problema de coloração de mapas, em que regiões que fazem fronteira não podem ter a mesma cor. Se tornou ainda mais interessante após a prova do Teorema das 4 Cores, que estabelece que todo grafo planar é 4-colorível; da prova que o problema de decidir se um grafo planar é 3 ou 4-cromático é NP-completo [3] e da exibição de um contraexemplo para a conjectura de Steinberg, de 1976, que estabelecia que todo grafo planar sem ciclos de tamanho 4 e 5 é 3-colorível [1].
Neste trabalho investigamos condições estruturais suficientes para um grafo planar ser 3-cromático e, a baseados nelas procuramos estudar e criar algoritmos de 3-coloração para grafos planares. As propriedades estruturais mais profícuas neste tema são a inexistência de ciclos de determinados tamanhos e a distância em que dois triângulos se encontram no grafo. Atenção especial é dada ao Teorema de Grötzsch que permitiu a criação de um algoritmo de tempo linear para este problema [2].



Sessão: IM - Grafos, Lógica e Análise Numérica

3225 - Resolução numérica da equação de difusão-transporte com método de volumes finitos




Autores: RODRIGO GUEDES MARTINS FERREIRA

Orientação: PAULO AMORIM

Resumo: O processo de dispersão de partículas tem aplicações em diversas áreas do conhecimento, tais como termodinâmica (calor), geografia (populações), meio ambiente (poluentes), ... De forma geral um processo de dispersão de partículas pode ser modelado por uma equação diferenciail parcial, cuja solução geralmente é difícil de se obter por métodos analíticos. Esta equação descreve o movimento coletivo de uma grande quantidade de partículas individuais, que formam uma população. Na modelagem proposta aplicou-se a condição de contorno de Neumann que impede o fluxo para fora de uma determinada região de tal forma que a população total permanece constante dentro da mesma.
O objetivo deste trabalho é implementar um método numérico para resolver este sistema a partir da programação no Python. Para isso, foi utilizado o método dos volumes finitos para calcular o valor médio da função dentro de pequenas regiões que interagem com as regiões adjacentes. Esse método permite calcular com facilidade a solução dentro de uma rede de qualquer formato e tamanho. Vamos descrever o método dos volumes finitos e sua implementação. A representação gráfica da solução deste sistema numérico permite visualizar a movimentação do conjunto de partículas ao longo do tempo.



Sessão: IM - Grafos, Lógica e Análise Numérica

3245 - Os Teoremas de Incompletude de Gödel e seus impactos




Autores: UDDHAVA BRAGANÇA ALENCAR DE SOUZA

Orientação: PAULO AMORIM

Resumo: Este é um estudo acerca do seminal artigo ‘On Formally Undecidable Propositions of Principia Mathematica and Related Systems’, publicado em 1931 pelo lógico e matemático austríaco Kurt Gödel. Desde a publicação de ‘Os Elementos’ por Euclides na Grécia Antiga que a geometria é apresentada como uma disciplina dedutiva, na qual todas as proposições demonstráveis assim o são partindo de um conjunto básico de premissas cuja validade é apenas assumida, os axiomas. Mas nos últimos dois séculos o método axiomático ultrapassou as fronteiras da geometria, no qual havia sido primeiramente empregado, e veio a ser explorado de forma crescente por todas as áreas da matemática, antigas e novas. A tal ponto ele prevaleceu que no imaginário coletivo matemático parecia que todo setor da matemática poderia ser dotado de um conjunto apropriado de axiomas a partir do qual não apenas a totalidade de suas proposições verdadeiras pudesse ser deduzida como também ficasse garantida sua consistência, ou seja, que não desse origem a contradições. Um bom exemplo dessa mentalidade se encontra no segundo problema proposto por Hilbert no Congresso Internacional de Matemáticos de Paris em 1900, que pergunta por uma prova de que a aritmética seja consistente. Ideias desse tipo tornaram-se, no entanto, insustentáveis a partir da publicação do artigo de Gödel, no qual ele estabeleceu primeiramente que o método axiomático possui certas limitações inerentes que impedem que até mesmo a aritmética comum dos números inteiros possa ser completa. Estabelece ainda que é impossível garantir que uma ampla classe de sistemas dedutivos, nos quais se inclui a aritmética, seja livre de contradições internas. Por fim, vê-se assim que esses resultados tiveram profundo impacto não apenas para a matemática do século passado como também para a lógica moderna e a filosofia da matemática.
Neste trabalho, apresentamos as bases matemáticas necessárias para a compreensão dos teoremas de Gödel, e um esboço de sua demonstração.



Sessão: IM - Grafos, Lógica e Análise Numérica

6218 - Método numérico para modelar o escoamento de fluido incompressível em gasodutos




Autores: NATANAEL LUCIANO DE MATOS

Orientação: HAMID REZA

Resumo: Na indústria petrolífera o transporte de petróleo sempre foi um problema de extrema importância (eficiência produtiva, gastos gerados com transportes etc). Dado tal fato, estudos para melhorar o desempenho dos meios de transportes e até mesmo a invenção de novas técnicas são necessárias.
O método para transporte de petróleo vem se desenvolvendo continuamente, passando por caminhões, trens e finalmente oleodutos. Esse último e os problemas decorrentes desse método de transporte são o foco da presente pesquisa.
O problema mais elementar em respeito a oleodutos é como organizar a tubulação de maneira que o petróleo possa chegar ao local desejado. Para isso é necessário entender o comportamento de fluidos em tubulações e a necessidade da utilização de bombas em locais com elevada queda depressão e/ou fluxo. Dessa forma, o projeto tem como objetivo a elaboração de um software capaz de resolver problemas envolvendo transporte de petróleo e gás em uma rede complexa de tubulação. Em particular, cálculo de pressão na tubulação, fluxo do fluido, necessidade de instalação de bombas e otimização das bombas instaladas Para cumprir as propostas do projeto, a metodologia empregada foi dividida em sete partes: (I) Estudo da mecânica dos fluidos, mais especificamente o transporte de fluidos em tubulações, para compreender o problema estudado; (II) análise das características e funções de uma bomba hidráulica; (III) Utilização de softwares como AFT Fanthom e Pipe Flow para conseguir uma visão mais pratica do problema e facilitar a elaboração do software proposto; (IV) leitura de artigos sobre modelagem de uma rede de tubulações e maneiras de como solucionar o problema do fluxo de fluidos na tubulação; (V) Estudo sobre teoria dos grafos e como a mesma pode ser utilizada na modelagem de um oleoduto; (VI) implementação de bombas nos modelos; (VII) verificação das soluções obtidas com o software criado durante o projeto e outros programas disponíveis no mercado; (VII) otimização do modelo para calibrar as soluções obtidas e torná-las mais precisas e confiáveis.
Dessa forma, como consequência da metodologia empregada, além da implementação de um código computacional para simulação de fluxos de uma ou duas fases pelo orientador, o orientando conseguiu mapear a influência de algumas das possíveis combinações de arranjos de bombas hidráulicas em uma rede de tubulações, além de criar um pseudocódigo para a implementação de bombas nos oleodutos e redes hidráulicas utilizando o código citado anteriormente. Entretanto, para uma maior realização ainda é necessária uma melhor compreensão da utilização da teoria de grafos para mapear a estrutura dos oleodutos. Embora atualmente os participantes do projeto ainda não tenham completado todos os objetivos propostos, o orientador e o orientando conseguiram expandir sua compreensão dos assuntos relacionados à pesquisa, além de obter o material necessário para a continuação da mesma.



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

1029 - O Processo de Percolação de Mandelbrot.




Autores: VINíCIUS GRIJó

Orientação: KATRIN GRIT GELFERT

Resumo: Mandelbrot, no modelo de turbulência, introduziu em 1974 um processo de geração de fractais aleatórios que são obtidos pelo um processo auto-similar gerado por uma família de contrações aleatórias em um cubo [0,1]x[0,1]. Um descrição rápida de uma possível construção é a seguinte: Escolher um número inteiro N>1 e uma probabilidade 0 Dividir todos os cubos obtidos na geração n em N^2 subcubos de tamanho igual.
Entre eles, manter ou retirar alguns de forma aleatória. Tal decisão é um evento aleatório independente e identicamente distribuído. Os cubos mantidos são chamados de cubos da geração n+1. O conjunto dos pontos no cubo inicial que “sobrevivem todo o processo de remoção” é denominado conjunto limite. As suas propriedades fractais dependem da probabilidade p e do número N, ele pode ser ou vazio ou relativamente grande (em termos de dimensão fractal). O nosso objetivo principal é entender algumas delas, uma vez que tais conjuntos aparecem de maneira natural em tópicos de análise probabilística.
O conjunto limite é um conjunto de Cantor aleatoriamente gerado. De forma mais precisa, estudaremos a modelagem feita através de um processo aleatório de ramificação, em particular, um processo de Galton-Watson. Atacamos os seguintes resultados: Existe um primeiro parâmetro critico p1 que limita as probabilidades para os quais o conjunto limite é vazio. Além dele há outro parâmetro crítico p1p2, o conjunto limite contém um conjunto conexo por caminho intersectando dois lados opostos do cubo inicial (acontece uma "percolação"), com probabilidade positiva. Na apresentação encontraremos o parâmetro p1 (e portanto uma primeira cota para p2) e daremos uma estimativa do parâmetro p2. Serão usados argumentos de processos estocásticos e da teoria de dimensões fractais.
processo de ramificação processo Galton-Watson processo de percolação de Mandelbrot conjuntos de Cantor aleató rios fractais



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

1121 - Teoria de grupos e predições no átomo de hidrogênio




Autores: GABRIEL BERNARDO TELLES

Orientação: THIAGO LINHARES DRUMMOND

Resumo: A determinação do comportamento de um elétron dentro de um átomo é um problema complexo devido a sua natureza dual de onda-partícula.No modelo de orbitais, o movimento do elétron é estudado por meio de sua função de onda - uma grandeza matemática que nos dá a probabilidade de encontrar o elétron numa determinada região do espaço. Erwin Schrödinger descobriu uma equação que permite encontrar a função de onda de uma partícula, a partir da energia potencial à qual está submetida. Entretanto, foi Max Born que descobriu a relação entre a função de onda e a probabilidade de se encontrar a partícula numa determinada posição. Ele concluiu que |ψ|² (função de onda da matéria) é a grandeza estatística que representa a densidade de probabilidade. Esta função dá a probabilidade de encontrarmos uma partícula numa determinada região do espaço. A Equação de Schrödinger permite calcular a função de onda Ψ (r,t), associada a uma partícula que se move dentro de um campo de forças descrito por um potencial V(r,t). A resolução da Equação de Schrödinger conduz a um conjunto de funções de onda e a um conjunto de energias correspondentes aos estados do elétron permitidos no átomo. As expressões matemáticas das funções de onda possibilitam determinar a probabilidade de encontrar o elétron na vizinhança de um ponto próximo do núcleo.
As funções de onda, obtidas a partir da equação de Schrödinger, que descrevem os estados quantizados do átomo de hidrogênio, exigem três números quânticos, correspondentes às três dimensões em que o elétron pode se mover. Uma função de onda de um estado quântico do átomo de hidrogênio é identificada com um conjunto (n, l, m) de números quânticos. O número quântico n determina o nível de energia. O número quântico l é uma medida do módulo do momento angular orbital desse estado quântico. O terceiro número quântico m está relacionado à orientação no espaço do vetor momento angular.
No meu projeto, em fase de desenvolvimento, o objetivo é estudar as simetrias esféricas da equação de Schrödinger
para o átomo de hidrogênio para comprovar predições acerca dos números quânticos m e l. A principal ferramenta para isso é a teoria de funções harmônicas esféricas e a teoria de representações do grupo especial ortogonal no espaço tridimensional, o grupo SO(3).



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

1998 - Introdução aos Esquemas de Indução e Medidas de Equilíbrio




Autores: GABRIEL LUCAS LACERDA DE ARAUJO

Orientação: SAMUEL SENTI , SERGIO AUGUSTO ROMAÑA IBARRA

Resumo: A função deslocamento num espaço simbólico é um importante objeto de estudo na área de sistemas dinâmicos por ser muito geral.
Nesta apresentação, primeiro, iremos discutir a importância destes objetos para o estudo de outros sistemas dinâmicos, através de conjugações, isto é, "equivalências", destes espaços com os sistemas dinâmicos hiperbólicos, como na ferradura de Smale, e os não-uniformamente hiperbólicos. Trataremos sobre espaços de finitos símbolos e suas relações com os conjuntos de Cantor, partições de Markov e tempo de primeiro retorno; assim como espaços simbólicos de infinitos símbolos e suas relações com esquemas de indução, que tem suas origens no Teorema do Folclore e é utilizado para o estudo de medidas invariantes em teoria ergódica.
Esquemas de indução terão um papel central nesta apresentação pois fornecem uma ferramenta rica na compreensão de sistemas dinâmicos, atravês das suas similaridades com as partições de Markov. Nossa abordagem enfatizará o ponto de vista da dinâmica unidimensional.
Por fim, falaremos sobre exemplos interessantes e aplicações para tais equivalências e relações.
Bibliografia:
P. Góra, A. Boyarski - Laws of Chaos V. Baladi - Positive Transfer Operators and Decay of Correlations L. Young - Statistical Properties of Dynamical Systems with Some Hyperbolicity (Annals of Mathematics) S. Senti, Y. Pesin - Equilibrium measures for maps with inducing schemes (Journal of Modern Dynamics) C. Moreira, M. Pacifico, S. Ibarra - Hausdorff Dimension, Lagrange and Markov Dynamical Spectra for Geometric Lorenz Attractors (Bulletin of the American Mathematical Society)



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

2428 - GEOMETRIA E OTIMIZAÇÃO EM DINÂMICA DE CORPOS DEFORMÁVEIS




Autores: ALEXANDRE DE ALENCAR MOREIRA PIERRE , IAGO LEAL DE FREITAS

Orientação: ALEJANDRO CABRERA

Resumo: A pergunta: "como um gato sempre cai de pé?" Intriga físicos, matemáticos e cientistas de outras áreas desde, pelo menos, o século XIX. Entre eles há alguns nomes proeminentes como Maxwell e Stokes. Em textos biográficos, há relatos sobre os experimentos de Maxwell no tema e sua visão quanto aos avanços obtidos.
Nos séculos XIX e XX houve diversas tentativas de responder à pergunta inicial e vários outros deram suas contribuições: Marey, com suas fotografias sequenciais mostrando as etapas da queda de um gato em 1894; no mesmo ano, Lecornu propôs que o gato deveria ser um corpo deformável e que o giro se dava por forças puramente internas; posteriormente, Rademaker e ter Braak propuseram um modelo matemático em 1935 explicando o movimento de dobrar e girar o meio do corpo; em 1969, esta modelagem foi modificada e estendida por Kane e Scher, modelando o movimento através de uma junta que não poderia torcer o corpo nem girar uma parte do corpo sem girar a outra; em 1993, um modelo mais completo e rigoroso foi proposto por Montgomery.
As contribuições citadas acima e outros trabalhos mais recentes ajudam a entender outras situações que podem ser modeladas como problemas de Dinâmica de Corpos Deformáveis: como movimento de satélites em órbita, atletas de saltos ornamentais e até as diferentes velocidades com que giramos numa cadeira de escritório se esticarmos ou encolhermos os braços.
O objetivo do meu trabalho é elaborar modelos parametrizados de movimento de alguns tipos de corpos deformáveis. Posteriormente à escolha de um modelo, mostrar que há problemas de otimização interessantes para formular, simular e resolver: como o gasto mínimo de energia para que um gato solto com as patas viradas para cima caia de pé. No meu trabalho utilizo ideias ideias de Geometria Diferencial, Sistemas Dinâmicos e Teoria de Calibre para formular as equações do movimento. Também são usadas ideias de Otimização Linear e Não- Linear para formular os problemas de otimização associados e dar uma solução analítica quando for conhecida. Uso também ferramentas computacionais, como a linguagem de programação Julia e as bibliotecas adequadas para simular e resolver numericamente os problemas de otimização obtidos, e para simular o movimento do corpo deformável.



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

3454 - Escoamento Bi-dimensional de Fluido Newtoniano Viscoso




Autores: BRUNO LIMA NETTO

Orientação: RICARDO ROSA

Resumo: Na Fluidodinâmica computacional, o fenômeno do escoamento viscoso incompressível pode ser estudado analisando as equações de Navier-Stokes através de diferentes métodos numéricos, como, por exemplo elementos finitos e métodos espectrais. Tal análise possui incontáveis aplicações, seja em áreas como na Industria Petrolífera (no escoamento de petróleo e gás e outros resíduos em suas tubulações), ou em áreas biomédicas (no estudo do fluxo sanguíneo em zonas como cérebro ou veias e artérias).
Iniciando com modelos simples de canais, como um canal horizontal liso e periódico, podemos investigar diversas propriedades do escoamento em função da densidade, viscosidade e alguma força imposta ao fluido.
Entretanto, pode-se imaginar que são raros os casos em que encontramos um canal perfeito. Existem diversas impurezas nos dutos de petróleo e gás, além de diversas partículas que se adjuntam a parede dos vasos sanguíneos que fazem com que se origine rugosidades fixas ou móveis nas bordas do canal. Alterando, assim, as condições de contorno do problema.
A partir do modelo simplificado bi-dimensional, havendo tempo, vamos inserindo modificações nas condições de bordo e analisando o tipo do escoamento, em relação, por exemplo, à perda de carga. Por meio dessas comparações, acreditamos que seja possível determinar a existência de alguma rugosidade em um canal e até mesmo restringir possíveis localizações dessas irregularidades.



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

4846 - MÉTODOS DOS CONES DE BIRKHOFF E SUAS APLICAÇÕES A SISTEMAS DINÂMICOS




Autores: PAULO BESSA DO REGO MONTEIRO

Orientação: MANUEL STADLBAUER

Resumo: Neste trabalho será descrita uma técnica criada por Garret Birkhoff em 1940 que permite, utilizando o método dos cones que levam o seu nome, o estudo direto da ação do operador de Ruelle-Perron- Frobenius em espaços adaptados de funções, e será mostrado que o seu campo de aplicação a sistemas dinâmicos é maior que o das partições de Markov, cujas principais limitações se dão por conta da necessidade de ser um sistema uniformemente expansor e da necessidade de usar partições infinitas para sistemas descontínuos. Em essência, é possível construir, sistematicamente, métricas projetivas, que chamaremos de métricas projetivas de Hilbert, com as quais o operador de Ruelle- Perron-Frobenius é uma contração. Tal contração permite que nós obtenhamos a medida invariante (se já não for conhecida) por um teorema de ponto fixo não muito complicado e, automaticamente, obter estimativas para a taxa exponencial de decaimento de correlação e, além disso, compará-las com resultados recentes de Stadlbauer, Varandas e Zhang. Como base, o estudo foi feito em cima do artigo do Carlangelo Liverani, "Decay of correlations".



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

5306 - AS ESFERAS EXÓTICAS DE MILNOR




Autores: GABRIEL DA SILVA ALVES

Orientação: NILSON DA COSTA BERNARDES JUNIOR

Resumo: Em 1956, o célebre matemático norte-americano John W. Milnor publicou um artigo que marcaria a História da Matemática: “On Manifolds Homeomorphic to the 7-Sphere”. Neste artigo, Milnor mostrou que existem estruturas diferenciáveis não equivalentes na 7-esfera. Seu trabalho sobre este tema foi uma das principais razões pelas quais Milnor foi laureado com a Medalha Fields em 1962.
No artigo supracitado, Milnor construiu variedades diferenciáveis homeomorfas à 7-esfera, mas não difeomorfas a mesma. Estas variedades ficaram conhecidas como 7-esferas exóticas. Tal descoberta nos permite concluir que a 7-esfera admite estruturas diferenciáveis não equivalentes à sua estrutura diferenciável canônica. Estas estruturas ficaram conhecidas como estruturas exóticas.
A existência de estruturas exóticas na 7-esfera surpreendeu a comunidade matemática por dois motivos:
(1) Em dimensões baixas, não existem estruturas exóticas; (2) Forneceu um contra-exemplo à Conjectura de Poincaré (no caso suave). Em nossa apresentação, exploraremos o conceito de estrutura exótica e discutiremos os principais passos da construção feita por Milnor em seu memorável artigo de 1956.



Sessão: IM - Matemática Aplicada / Sistemas Dinâmicos / Geometria e Topologia

5311 - Consequências da adição de novas restrições ao longo de problemas de otimização em horizonte infinito




Autores: RICARDO FIGUEIREDO , VITOR LUIZ PINTO DE PINA FERREIRA

Orientação: BERNARDO FREITAS PAULO DA COSTA

Resumo: Em Otimização Matemática, é comum ser necessário resolver vários problemas inter-relacionados.
Como exemplo de um tal caso, podemos imaginar que a cada instante de tempo, suposto discreto, devemos tomar uma decisão que resulta em um ganho (ou gasto) de recursos, que então se tornam disponíveis (ou indisponíveis) no próximo instante de tempo.
Assim, decisões influenciam os possibilidades para o próximo problema, e este daquele que vem depois, e assim sucessivamente em todos os problemas futuros.
Por conseguinte, decisões localmente ótimas podem não ser ótimas a longo prazo.
Modelamos tais situações através de problemas de otimização multi-estágio, ditos "de horizonte infinito" quando consideramos uma infinidade de instantes de tempo.
Como em qualquer outro problema de otimização, descrevemo-los com uma função de custo — denominada função objetivo —, e suas restrições, ambas podendo variar por estágio (de tempo). Dando continuidade ao estudo iniciado por um dos autores anteriormente, visamos analisar o caso periódico do problema de horizonte infinito.
A formulação periódica permite uma descrição finita do problema, e neste caso é interessante observar o impacto de alterações das restrições do problema no custo ou no comportamento das soluções, uma vez que estas agora se repetirão também periodicamente.
Inspirados do problema de gestão de recursos energéticos no sistema hidro- termoelétrico brasileiro, consideraremos um exemplo de problema em horizonte de planejamento infinito.
A construção de uma usina, ou sua manutenção agendada, são situações concretas onde acontecem essas variações nas restrições do problema.
Este exemplo, tanto em escala reduzida como em uma versão mais completa, será usado para ilustrar resultados teóricos e avaliar conjecturas por meio de simulações numéricas.
Havendo tempo, apresentaremos uma análise de problemas de horizonte infinito com incerteza estocástica.



Sessão: IM - Inteligencia Artificial

356 - Uma Análise Quantitativa do Papel da QoS nas Preferências por Vídeos




Autores: FELIPE ASSIS DE SOUZA , MATEUS SCHULZ NOGUEIRA

Orientação: DANIEL SADOC MENASCHE

Resumo: Sistemas de recomendação estão cada vez mais presentes na rotina dos usuários da Internet. Portanto, plataformas como Youtube e Netflix procuram melhorar suas recomendações para fornecer uma melhor experiência aos seus usuários. No entanto, a experiência dos usuários depende de diversos fatores. Em particular, sistemas de cache têm uma grande influência na qualidade de experiência (QoE), visto que eles impactam métricas de qualidade de serviço (QoS), como atraso e vazão, experenciadas pelos usuários.
Nosso objetivo é estudar a viabilidade de um sistema de recomendação sensível a QoS que maximize a QoE. Para tal, nós conduzimos experimentos com usuários reais com perfis distintos. Cada usuário é solicitado a avaliar diferentes vídeos, que variam em termos de conteúdo e de QoS. Dadas nossas descobertas quanto à relação entre QoS e qualidade de recomendação (QoR), investigamos seus impactos no modelo de sistema de recomendação. Um classificador baseado em árvore de decisão alcançou acurácia de 77% usando validação cruzada, e nos permite entender melhor o processo de tomada de decisão do usuário.



Sessão: IM - Inteligencia Artificial

747 - CAIXA CÓSMICA SENSORIAL: Proposta de atividade para inclusão de deficientes visuais na educação.




Autores: ISABEL HORTENCIA GARNICA PEREZ BARROS , MARÍLIA CAMPOS GALVÃO , LORENA PIRES GRIõN

Orientação: CARLO EMMANOEL TOLLA DE OLIVEIRA , CARLA AMOR DIVINO MOREIRA DELGADO

Resumo: A educação é um direito de todos, para ser pleno deve estar de acordo com as necessidades de aprendizagem de cada discente. Para Santos (2007), o uso de tecnologias como ferramentas educativas permite, dentre diversas possibilidades, aplicações que promovem a inclusão. O trabalho proposto é um jogo, baseado na metodologia Montessori, que faz uso de recursos materiais com auxílio da tecnologia para despertar o desenvolvimento da educação sensorial, cognitiva e inclusiva (Lillard, 2017). Os participantes do jogo recorrem ao tato para identificar e descrever objetos dentro da caixa sensorial, em seguida, com auxílio de um celular e de um aplicativo de escaneamento, realizam a leitura de um dos QR Codes (Felcher, 2018) previamente escolhidos que os fornece um áudio. Dispostos do objeto e do áudio são então solicitados a realizar uma narrativa de história que associe ambos os elementos. Durante a narrativa ocorrem intervenções com o objetivo de habilitar, evoluir as funções executivas (capacidade sensório-motora, criatividade, resolução de problemas, abstração, linguagem e percepção) e eliciar estímulos que melhoram a fluência verbal do participante. O experimento realizado nos revela que o jogo aliado à mediação de um docente, ou um profissional especializado, auxilia a criança a tomar consciência daquilo que ela está falando e a se dar conta das relações entre as conjunções e o contexto das frases. O campo de atividades lúdicas que envolvem a narrativa e que beneficiam deficientes visuais é limitado, assim com este jogo, pretende-se diminuir, ou eliminar, a barreira visual na educação. No futuro deseja-se o aprimoramento deste jogo para que seja também uma ferramenta de integração sócio-educativa de turmas, desse modo gerando novos estudos e trabalhos para alcançar esse patamar.



Sessão: IM - Inteligencia Artificial

877 - Origanmi: uma rede adversarial generativa de origamis




Autores: LAWRENCE PINTO SILVA

Orientação: ADRIANA SANTAROSA VIVACQUA , ROBERTO NERY STELLING NETO

Resumo: O objetivo do trabalho é demonstrar, de forma intuitiva e simples, uma aplicação das redes adversariais generativas (GANs) em que transformam-se imagens de tamanho 120x110 pixels em imagens de origamis. Para isso, irá ser introduzido aos espectadores os conceitos necessários de redes neurais artificiais, uma importante área do aprendizado de máquina, e seu treinamento de forma adversarial à partir de duas redes neurais artificiais (uma geradora e uma discriminadora) com o propósito de gerar imagens. Após introduzidos os conceitos necessários para entender a técnica, será apresentada a aplicação em si.
Na primeira parte da apresentação será utilizada uma analogia com uma nação fictícia que acabou de passar por uma reforma monetária. O espectador será colocado nos pés de um coletor de taxas do país, que precisa aprender como identificar as notas do novo sistema monetário. Com isso, será feita a analogia com o computador tentando aprender a identificar imagens das notas utilizando aprendizagem profunda com uma rede neural artificial. Assim será construído conhecimento suficiente em redes neurais artificiais para que se aprenda o método de treinamento adversarial.
Tendo essa base construída, iremos apresentar um novo problema na segunda parte. Voltando à analogia do país fictício, iremos supor que o espectador foi promovido a contador do banco nacional da nação. Sua nova função será contar o dinheiro recolhido dos impostos. Haverá um falsificador que irá enviar notas falsas para o banco. Com isso, iremos introduzir o pensamento de treinamento adversarial, em que um dos lados recebe notas falsas e aprende cada vez mais a reconhecê-las; e o outro falsifica notas cada vez mais realistas à fim de enganar o contador. Analogamente, iremos utilizar a rede identificadora que construímos na primeira parte como contadora do banco (a rede que irá identificar notas falsas) para treinar nossa falsificadora de forma adversarial (a rede que irá aprender a gerar imagens das notas). Assim será construído conhecimento satisfatório no método de treinamento adversarial para gerar imagens.
Tendo todas nossas ferramentas demonstradas, iremos mostrar algumas aplicações reais das redes adversariais generativas para que o espectador veja sua verdadeira utilidade. Por fim, iremos mostrar a aplicação que nós desenvolvemos, que transforma imagens quaisquer de tamanho 120x110 pixels em origamis, para que possamos analisar os resultados e discutir de maneira geral as dificuldades e os incríveis resultados que poderemos um dia chegar com as redes adversariais generativas.



Sessão: IM - Inteligencia Artificial

883 - Gerando Músicas Clássicas com GAN




Autores: RODRIGO PITA

Orientação: ADRIANA SANTAROSA VIVACQUA , ROBERTO NERY STELLING NETO

Resumo: O projeto tem por objetivo testar os limites das GANs, programando um gerador de músicas clássicas, mas para isso, é preciso antes entender o que são Redes Neurais Artificiais (RNAs). Uma introdução sobre as RNAs será dada, abordando a ideia de neurônios, arquitetura Feedforward e o processo de treinamento, para que os espectadores acompanhem como de fato o gerador foi desenvolvido. Após a intuição das RNAs ter sido dada, a apresentação focará em explicar o conceito de Redes Adversariais Generativas (GANs), que são a base de onde o projeto saiu. Para isso, será necessário evidenciar as diferenças entre uma Rede Discriminativa e uma Geradora e seus respectivos objetivos e as etapas do treinamento. Assim que as ideias de RNAs e GANs, com exemplos de aplicações no cotidiano, já tiverem sido apresentadas, a trajetória do projeto poderá ser descrita com mais clareza. Esse projeto foi feito na linguagem de programação Python 3 e conta com o auxílio do Framework TensorFlow, para criar o modelo adversarial de redes neurais, do módulo Music21 junto com o software MuseScore3, para a composição de partituras e manipulação de faixas .mid, entre outras bibliotecas de segundo plano no código. Para a geração de músicas clássicas, ele tentará captar a partir de um banco de dados de músicas de um compositor específico, as características principais que fazem uma música trazer essa ideia e em seguida, reproduzirá a ideia, gerando uma música nova.



Sessão: IM - Inteligencia Artificial

1937 - APLICAÇÃO DE APRENDIZADO DE MÁQUINA PARA EXTRAÇÃO DE EMOÇÕES EVOCADAS POR MÚSICAS




Autores: NATHALIE DEZIDERIO

Orientação: HUGO CARVALHO

Resumo: Reconhecimento de emoções evocadas por músicas é uma sub-área bem estabelecida dentro da grande área de recuperação de informações musicais (tradução livre de "musical information retrieval") [1, 2], porém há bastante campo para melhoria dos resultados presentes na literatura. Além disso, trata-se de um área inter-disciplinar, sendo necessárias técnicas majoritariamente de Estatística, Processamento de Sinais e Psicoacústica para seu estudo. O seguinte projeto propõe-se a estudar referências clássicas na literatura respectiva, onde visa-se inferir as emoções evocadas por sinais de áudio através da análise de certos atributos acústicos representando informações importantes do ponto de vista psicoacústico, bem como aprimorar seus resultados usando ferramentas modernas de Aprendizagem de Máquina, em particular regressão linear com penalização e regressão não-linear aplicadas em dados de treinamento, teste e validação. Dentre as diversas propostas na literatira de quantificar emoções, optou-se por utilizar a escala de valência e excitação [3] por já ser bem conhecida e amplamente utilizada nesse problema, além de ser uma escala de baixa dimensão, fato que contorna naturalmente algumas dificuldades estatísticas. Mais especificamente, dado esse contexto, é natural abordar o problema utilizando técnicas de regressão, de modo a prever o respectivo ponto no plano representando as emoções evocadas por um dado sinal com base nos seus atributos extraídos, através de um algoritmo devidamente treinado em uma base de dados anotada. Espera-se, a curto prazo, implementar a metodologia proposta em [2] e reproduzir os respectivos resultados obtidos, bem como analisar tal algoritmo em outras bases de dados.



Sessão: IM - Inteligencia Artificial

4787 - IMPACTO DAS CONDIÇÕES CLIMÁTICAS NA PRÁTICA DE EXERCÍCIOS AO AR LIVRE




Autores: ALEX SANTOS

Orientação: VALERIA BASTOS , MYRIAN COSTA , CLAUDIA MEDINA COELI , REJANE PINHEIRO

Resumo: Programas de exercícios físicos são hoje recomendados como parte do tratamento de doenças crônicas, sendo as atividades realizadas em praças públicas e unidades de saúde. Entretanto, é importante avaliar se as condições microclimáticas locais são adequadas para a prática de atividades físicas. Para pessoas com problemas respiratórios e cardiológicos, por exemplo, condições climáticas ruins podem ser um grande empecilho para a prática de atividades físicas, principalmente ao ar livre [1,2]. O projeto tem como premissa inicial utilizar dados climáticos diários, coletados nas proximidades do local onde estão as equipes de atendimento e os aparelhos de ginástica, para auxiliar os profissionais de saúde na indicação de exercícios adequados às condições físicas das pessoas que praticam atividades físicas em academias populares. Para isso, serão coletados diariamente dados específicos sobre o clima do entorno da academia, usando-se um conjunto de sensores controlados por um arduíno que armazena temporariamente as informações e envia para um computador central. Sobre as informações obtidas serão aplicados algoritmos de mineração de dados, incluindo também aqueles coletados nos dias anteriores.
Para a coleta de dados, estamos usando um conjunto contendo um arduino modificado e diversos sensores, como luminosidade, som, temperatura, poluição do ar e umidade, baseados em trabalhos anteriores [3]. Os dados serão coletados a cada 10 minutos e enviados para um servidor na UFRJ.
Esses dados serão processados através de algoritmos de mineração de dados para identificar as condições climáticas que podem direcionar os exercícios físicos dos pacientes atendidos em academias A contribuição principal do projeto é utilizar técnicas de mineração de dados para avaliar as condições climáticas do entorno das academias, utilizando dados acumulados provenientes dos sensores, gerando perfis de comportamento sazonal que identifique poluição. Os resultados irão servir de base para a avaliação da equipe de profissionais de saúde, identificando condições favoráveis ou não para a prática dos exercícios físicos recomendados.



Sessão: IM - Noturno

2455 - O Permante de uma Matriz e suas Aplicações




Autores: TIAGO APARECIDO SILVA MENDONçA

Orientação: MARCIA ROSANA CERIOLI

Resumo: O permanente de uma matriz quadrada é definido como o seu determinante sem sinal [1]. Há diversos estudos sobre o Determinante de uma matriz abordando as formas de realizar seu cálculo, suas características, propriedades e algumas aplicações importantes no campo da matemática, além de ser um conteúdo pertencente à BNCC. Assim, seu estudo é apresentado no Ensino Médio, em geral, no segundo ano. Por outro lado, o Permanente, não faz parte de conteúdo estudado nem em cursos de graduação em Matemática.
Apesar de parecer muito semelhante ao cálculo de um determinante, o Permanente de uma matriz contém grandes diferenças quando são estudadas suas características, propriedades e aplicações. O objetivo deste trabalho é justamente apresentar e divulgar um breve estudo sobre o Permanente de uma matriz, realizando uma análise comparativa com as propriedades do Determinante e a dificuldade de seu cálculo, além de apresentar algumas aplicações clássicas do Permanente de uma matriz em Combinatória [2]. Em particular, abordamos a prova de que com o valor do permanente de uma matriz específica é possível determinar o número de pareamentos completos, isto é, em que todo candidato é alocado, quando é fornecido uma lista de vagas de trabalho de uma lista de empresas e a relação de candidatos a cada uma destas vagas, no caso em que o número total de candidatos e o número de vagas é o mesmo.
Um texto, em língua portuguesa contendo este material está sendo produzido.



Sessão: IM - Noturno

4900 - RECONSTRUÇÃO DO CONCEITO DE FUNÇÃO POR MEIO DE NOÇÕES ESSENCIAIS EXPLORADAS COM TECNOLOGIAS DIGITAIS




Autores: VINICIUS DA CUNHA LUZ

Orientação: AGNALDO DA CONCEIÇÃO ESQUINCALHA

Resumo: Esse trabalho é parte integrante de uma pesquisa para a dissertação de Mestrado no Programa de Pós- Graduação em Ensino de Matemática da UFRJ em estágio final. Dentre os objetivos da pesquisa, destacamos: (i) identificar possíveis contribuições e desafios atrelados ao uso das noções essenciais, para (re)construção do conceito de função, (ii) analisar contribuições e obstáculos proporcionados pelo uso do GeoGebra – como plataforma das atividades – no reconhecimento das noções essenciais por parte dos licenciandos e (iii) observar os obstáculos epistemológicos surgidos a partir das falas e respostas dos participantes. Pretendemos apresentar brevemente os pressupostos da pesquisa em andamento, bem como alguns resultados, além de um primeiro desdobramento: o pressuposto está na elaboração e implementação de atividades com o GeoGebra para exploração de algumas ideias essenciais para a construção do conceito de função, a fim de ir além do ensino do conceito de função via teoria dos conjuntos, com ingressantes em um curso de Licenciatura em Matemática. Sobre os resultados da pesquisa, foi observado que a mútua interação entre usuário e mídia dinâmica – como o GeoGebra – possibilitou que os participantes se valessem de conhecimentos não usuais para a identificação das funções. Também foi possível observar que, enquanto em alguns casos as noções essenciais foram ponto fundamental para a reconstrução do conceito, em outros as noções foram completamente ignoradas e – mais que isso – surgem obstáculos de natureza epistemológica em seus discursos. Diante disto, tal pesquisa teve como desdobramento a realização de um minicurso no VII Encontro de Educação Matemática do Rio de Janeiro que objetivava uma discussão e reflexão sobre as potencialidades tecnológicas e pedagógicas do uso das mesmas atividades criadas em Geogebra já citadas em um grupo de licenciandos e professores de Matemática.



Sessão: IM - Noturno

5978 - Rotação por Estações de Aprendizagem: Ensino híbrido e a sala de aula de matemática




Autores: BRUNO GOMES DA SILVA NETO

Orientação: AGNALDO DA CONCEIÇÃO ESQUINCALHA

Resumo: Esta investigação surge da tentativa de modificar o ambiente de aprendizagem dos alunos dos anos finais do ensino fundamental a partir do uso de Tecnologias Digitais de Informação e Comunicação (TDIC). A alteração da sala de aula será realizada através do Ensino Híbrido, uma metodologia ativa na qual um estudante aprende, pelo menos em parte, por meio do ensino on-line. Dentre os diversos modelos de Ensino Híbrido, o que melhor se adequa ao estudo de caso proposto é a Rotação por Estações de Aprendizagem. Nesta modalidade, os alunos são organizados em grupos (estações) e alternam - em uma sequência fixa ou a critério do professor - entre atividades investigativas distintas, dentre elas, ao menos uma será com o uso de tecnologias digitais. O papel do professor passa a ser de orientador da classe, gerenciando os grupos e a cada aluno, e também de curador, selecionando previamente os conteúdos disponíveis na internet. Utilizaremos as atividades virtuais da calculadora gráfica Desmos (https://www.desmos.com/) para realização de duas tarefas. A pesquisa tem como objetivo a aplicação de uma aula introdutória ao conceito de função quadrática para uma turma do 9º ano do ensino fundamental com as seguintes estações: (1) Estação Desmos 1: investigando o gráfico de um função quadrática a partir do lançamento de bolinhas; (2) Estação Desmos 2: investigando o gráfico de uma função quadrática a partir do lançamento de uma bola de basquete; (3) Estação Manual: Problema do barbante: a otimização de área do retângulo; (4) Estação Livro Aberto: investigando o conceito de função quadrática a partir de situações-problema do capítulo Função Quadrática do Livro Aberto, um livro didático de Matemática com licença aberta a partir de um trabalho colaborativo envolvendo matemáticos, professores universitários e professores da Educação Básica.
Esperamos que com os resultados da pesquisa, possamos difundir novas metodologias de ensino que transformem o ambiente escolar a partir do aluno como protagonista da sua aprendizagem.



Sessão: IM - Noturno

3606 - UM NOVO ALGORITMO BASEADO NA TEORIA DE APOSTAS PARA RESOLVER O PROBLEMA DA MOCHILA MULTI-DIMENSIONAL




Autores: MARCOS MAPURUNGA

Orientação: JOSEFINO CABRAL MELO LIMA

Resumo: O problema da mochila multi-dimensional é um problema de otimização combinatória NP-completo que trata sobre o preenchimento de uma mochila com múltiplas dimensões com itens que ocupam determinado espaço em cada uma delas e possuem certo valor, buscam-se soluções que não excedam a capacidade da mochila e maximizam esse valor. Aplicações em problemas reais incluem gerenciamento de recursos, redes de rádios cognitivos, otimização de alocação de energia em eletrodomésticos, entre outras. Atualmente existem diversas soluções como as que utilizam programação dinâmina ou metaheurísticas, como a do algoritmo genético.
Para a solução desse tipo problemas, métodos de solução tradicionais não são muito eficientes, portanto, algoritmos que utilizam computação evolutiva (como metaheurísticas) tornam-se mais atrativos. Com o objetivo de apresentar um novo método para a solução do MKP (Multi-dimensional Knapsack Problem), apresenta-se um algoritmo baseado na Teoria de apostas, uma metaheurística onde jogadores “apostam” em possíveis soluções e são selecionados de acordo com sua performance, e então são utilizados para gerar novas soluções.



Sessão: IM - Sistemas / Algoritmos

665 - QuerLibras - Traduzindo português para Libras




Autores: LEONARDO ALEXANDRE SANTOS DA SILVEIRA GONÇALVES

Orientação: VALERIA BASTOS , VANESSA QUADROS GONDIM LEITE

Resumo: A Declaração Universal dos Direitos Humanos, artigo 26, diz que “Todo ser humano tem direito à educação. A educação será gratuita, pelo menos nos graus elementares e fundamentais. A educação elementar será obrigatória.”. Também de acordo com o artigo 27, capítulo 4 da Lei Brasileira de Inclusão da Pessoa com Deficiência “A educação constitui direito da pessoa com deficiência, assegurados sistema educacional inclusivo em todos os níveis”. Segundo o censo de 2010 do IBGE, 5,1% da população brasileira possui algum nível de deficiência auditiva. Entretanto, mesmo com todas essas garantias, grande parte das instituições de ensino não estão preparadas para receber estudantes com deficiência (auditiva, visual, motora, etc.) seja pela falta de intérpretes em sala de aula, falta de estrutura física, material didático ou a comunicação entre aluno portador de deficiência e o professor.
Línguas baseadas em sinais não são unificadas, possuindo variações de acordo com a região geográfica onde se encontra (Libras, 2016). Podemos citar como exemplo a Libras (Língua Brasileira de Sinais), a ASL (American Signal Language - Linguagem Americana de Sinais) e a LSF (Langue des Signes Française - Língua Francesa de Sinais), e dentro dessas diferentes línguas é possível observar uma variação de um mesmo sinal entre diferentes grupos. Tendo em vista esse cenário, neste trabalho estamos realizando o desenvolvimento de uma aplicação que sirva como um dicionário digital de termos da língua portuguesa para Libras.
Neste estudo, fazemos uso do termo queremas (Martins, 2019), que são unidades mínimas que compõem a estrutura de um sinal. Cada querema é composto por: configuração de mão, movimento da mão, localização, orientação da palma da mão e expressão facial. Sinais podem ser construídos a partir de um único querema ou vários. Para a criação e classificação desses queremas, estamos utilizando uma aplicação web, que permite a criação de sinais baseados em imagens previamente cadastradas que caracterizam elementos de um querema, que serão utilizada na geração do dicionário digital.



Sessão: IM - Sistemas / Algoritmos

1429 - Análise temporal de risco de sistemas computacionais via modelagem de séries de eventos associados a vulnerabilidades




Autores: MIGUEL ANGELO SANTOS BICUDO , MATHEUS MARTINS

Orientação: DANIEL SADOC MENASCHE , FABRICIO FIRMINO DE FARIA

Resumo: Em segurança da informação, vulnerabilidades de software e hardware são cada vez mais frequentes às custas dos avanços tecnológicos atuais [1], com ataques que podem ocorrer antes mesmo do reconhecimento das vulnerabilidades [2]. Por isso é importante ter ferramentas para auxiliar na avaliação do risco existente em recursos de software e hardware.
Neste trabalho apresentamos heurísticas para criar séries temporais de risco para o ciclo de vida de vulnerabilidades catalogadas no NVD (National Vulnerability Database), que é gerenciado pelo NIST, órgão do governo dos EUA. Usamos para este fim, eventos de lançamento de exploits, patches e divulgações de boletins de segurança, obtidos a partir do ExploitDB, do NVD e dos fabricantes de softwares.
Para gerar essas series temporais consideramos a data da ocorrência desses eventos, sem considerar o conteúdo dos documentos associados, e também dados categóricos inerentes à vulnerabilidade obtidas do NVD. Cada ponto da série é obtido a partir de um modelo de risco padronizado pela indústria, o CVSS (Commom Vulnerability Scoring System). Esse modelo possui um conjunto de parâmetros categóricos temporais, os quais ajustamos de acordo com o tipo dos eventos nas datas em que ocorrem.
Também apresentamos um modelo de aprendizado de máquina para prever a ocorrência de eventos de lançamento de exploits para uma vulnerabilidade nova, com um modelo de aprendizado de máquina baseado em árvores de decisão, que foi comparado com outros modelos de aprendizado de máquina, confirmando [2]. O processo de treinamento foi feito usando aproximadamente 26.000 amostras de dados de vulnerabilidades e 132 features, resultando num modelo com uma precisão inicial de 60% para prever o primeiro exploit, sendo que com o ajuste fino dos parâmetros do algoritmo usando grid search, foi alcançado um aumento na acurácia para 67%, comparando métricas de erro como erro absoluto médio e erro quadrático médio.
[1] Frei, S., May, M., Fiedler, U., & Plattner, B. (2006, September). Large-scale vulnerability analysis.
In Proceedings of the 2006 SIGCOMM workshop on Large-scale attack defense (pp. 131-138). ACM.
[2] Bilge, L., & Dumitraş, T. (2012, October). Before we knew it: an empirical study of zero-day attacks in the real world.
In Proceedings of the 2012 ACM conference on Computer and communications security (pp. 833-844). ACM.
[3] Bozorgi, M., Saul, L. K., Savage, S., & Voelker, G. M. (2010, July). Beyond heuristics: learning to classify vulnerabilities and predict exploits.
In Proceedings of the 16th ACM SIGKDD international conference on Knowledge discovery and data mining (pp. 105-114). ACM.



Sessão: IM - Sistemas / Algoritmos

1766 - PARALELIZANDO A ORDENAÇÃO DE ELEMENTOS




Autores: ERICSON JOSÉ DA SILVA SOARES

Orientação: GABRIEL PEREIRA DA SILVA

Resumo: Na última década, quando o assunto é a capacidade de processamento dos processadores, pudemos presenciar o enfraquecimento da Lei de Moore. Moore ditou que a cada dezoito meses a capacidade de processamento deveria ser dobrada dentro de um processador. Porém já não conseguimos mais aumentar a velocidade de processamento de um único núcleo dentro do processador. De maneira a contornar esse dilema começamos a adicionar mais núcleos independentes dentro do processador ao invés de simplesmente aumentar a velocidade de processamento de um único núcleo. Entretanto a humanidade já havia desenvolvido décadas de algoritmos sequenciais, algoritmos esses que nos processadores modernos não possuem a capacidade de utilizar todo o potencial da máquina. No trabalho em questão nós abordamos um dos problemas mais básicos na computação, a tarefa de ordenação de elementos dentro de uma lista. Procuramos abordar estratégias de paralelismo que permitam que algoritmos sequenciais possam ser executados de maneira paralela. Dessa forma, o máximo de desempenho dos processadores modernos é utilizado. Elucidando como utilizamos uma conjunção dos algoritmos Dual Pivot Quick Sort e Insertion Sort, bem como os resultados obtidos em relação aos algoritmos de ordenação sequenciais.



Sessão: IM - Sistemas / Algoritmos

1916 - TOR: ANONIMATO NA INTERNET




Autores: JOÃO VICTOR FELISMINO FREIRES

Orientação: LUIS MENASCHE SCHECHTER

Resumo: Nossa pesquisa tem se focado no estudo da aplicação de modelos criptográficos em grandes sistemas distribuídos. Com isso em mente e com a atual preocupação sobre segurança na rede, focamos em responder as seguintes dúvidas: É possível navegar totalmente de forma anônima na internet? É possível transferir uma mensagem de um cliente para outro de forma anônima em uma rede não confiável? Com essas dúvidas analizamos vários modelos de roteamento e o Tor foi a ferramenta que se mostrou mais completa para nos ajudar a obter uma resposta.
O projeto Tor é a maior e mais forte ferramenta para privacidade e liberdade online atualmente. Suas funcionalidades básicas conseguem impedir que um site (ou intermediário) rastreie um usuário e que redes locais bloqueiem acessos a sites específicos.
Sua principal ideia de implementação está baseada em um sistema de roteamento em camadas (conhecido como “onion routing”), que funciona como um circuito em que cada nó faz uma operação criptográfica, dando a ideia de geração de camadas de uma ponta à outra do circuito. A ideia de rotear em camadas começou em meados dos anos 90 e vem sendo aprimorada até hoje e mantida pelo Tor.
Além do anonimato aos usuários, o Tor também proporciona anonimidade para servidores (ou sites). O acesso a esses servidores é feito pela rede Tor e em endereços específicos, que apenas esta rede reconhece.
Nesta apresentação, iremos focar nos aspectos técnicos que compõem as principais funcionalidades do projeto Tor. Estes aspectos, que muitas vezes permanecem ocultos para usuários que apenas usam o navegador, incluem operações criptográficas, arquitetura de sistemas distribuídos e os principais tipos de análises de tráfego para quebra de anonimidade.



Sessão: IM - Sistemas / Algoritmos

5360 - Montadores Paralelos de DNA - Análise e Propostas de Melhoria de Desempenho




Autores: GUIDO PAES VINCENT

Orientação: GABRIEL PEREIRA DA SILVA

Resumo: Dentro do Bioinformática existem variadas abordagens e metodologias para o sequenciamento e montagem de trechos de DNA. Dentre estes, há um elemento comum: o volume de dados sendo analisados ou tratados. Por conta disso, há a crescente necessidade de algoritmos, arquiteturas e implementações que permitam o tratamento destes dados de maneira rápida e eficiente. Para atender a esta demanda existem diversas abordagens possíveis e já implementadas nos setores Industrial e Acadêmico. Dentre elas, está o uso de algoritmos paralelos que se aproveitam do aumento da capacidade de processamento paralelo dos processadores (múltiplos núcleos) e aceleradores modernos (GPUS e etc). Neste trabalho, nos propomos a implementar algumas destas soluções para sua análise comparativa e proposta de otimizações pertinentes. Para tal, utilizamos bibliotecas para o manejo deste paralelismo (openACC, openMP, MPI e etc) e aceleradores para aproveitar seu massivo poder de processamento paralelo e sua arquitetura que se demonstra apropriada para a tal.



Sessão: IM - Sistemas / Algoritmos

5490 - LIBRAS-T.I: UMA T.I INCLUSIVA PARA SURDOS




Autores: RYAN BRAZ , DDINáH MARIA

Orientação: VALERIA BASTOS , VANESSA QUADROS GONDIM LEITE

Resumo: RESUMO
Segundo o Censo de 2010 realizado pelo IBGE, 9,7 milhões de pessoas têm deficiência auditiva.
Desses, 2.147.366 milhões apresentam deficiência auditiva severa, situação em que há uma perda entre 70 e 90 decibéis (dB). Cerca de um milhão são jovens até 19 anos. No ano de 2002, a Lei n° 10.436 (Brasil, 2002), foi reconhecida como a Língua Brasileira de Sinais (Libras), utilizado como meio legal de comunicação e expressão no País entre usuários surdos e intérpretes de Libras.
Outro marco importante é a Lei de nº 13.146 – Lei Brasileira de Inclusão, publicada no dia 6 de julho de 2015. (BRASIL, 2015), que afirma que “a educação é um direito da pessoa com deficiência e que o sistema educacional deve ser inclusivo em todos os níveis”. No âmbito acadêmico, observa-se a falta de recursos necessários para alunos com deficiências. Como surdo e estudante da área de computação, posso dizer que em minha experiência acadêmica enfrento diversos desafios, sendo o principal a falta de recursos que promovam de fato a tão narrada “acessibilidade”. O problema de comunicação é uma das causas de evasão de alunos surdos, que estão inseridos nas academias do saber. Os conteúdos ensinados por professores ouvintes, que não dominam Libras e não têm apoio dos profissionais intérpretes, são desafios diários da realidade de muitos de nós. Uma das estratégias utilizadas neste caso é a transcrição em português, onde o professor e o aluno conseguem estabelecer uma comunicação. Portanto, esse cenário mostra claramente a falta de capacitação social da universidade para saber ofertar a acessibilidade e inclusão de milhares de pessoas portadoras de algum tipo de deficiência, apesar de existirem políticas voltadas para esses grupos em todos os níveis de aprendizado.
Diante dessa realidade, foram analisadas formas de solucionar parte dessas barreiras. Assim, o objetivo deste projeto é ampliar o acesso do deficiente auditivo e surdo na área de tecnologia da informação, criando estratégias que rompam com a barreira de comunicação entre professores ouvintes e alunos surdos. Como cada área de conhecimento tem seu conjunto de vocabulário específico, a linguagem de comunicação para a computação tem sua identidade própria e precisa ser padronizada, através de novos sinais, permitindo o acesso dos surdos a essa área de conhecimento.
Portanto, para que isso ocorra, será padronizado os sinais para alunos e professores da área de computação no estado do Rio de Janeiro. Assim, o projeto se divide em duas fases. Na primeira fase são coletados dados referentes aos sinais regionais na área de computação e na segunda, os novos sinais são avaliados por alunos surdos de computação da UFRJ e de outras universidades para consolidação dos mesmos.



Sessão: IM - Sistemas / Algoritmos

5508 - ANÁLISE DE RISCO DE VULNERABILIDADES EM SOFTWARE




Autores: LEONARDO VENTURA , DANIEL FERNANDO JIMENEZ SEPULVEDA

Orientação: DANIEL SADOC MENASCHE

Resumo: Vulnerabilidades são falhas em programas de computador. Tais falhas, quando em módulos de software, ameaçam a confiabilidade dos sistemas computacionais modernos. Neste trabalho, visamos compreender como evolui o risco associado a vulnerabilidades de software, sendo risco associado um valor determinando ao impacto negativo de 1 a 10 que aquela vulnerabilidade poderá causar. Podemos usar como exemplo o WannaCry (https://docs.microsoft.com/en-us/security-updates/SecurityBulletins/2017/ms17-010), vulnerabilidade associada ao Microsoft Windows com um risco base associado de 9,3/10. O objetivo principal é entender as vulnerabilidades segundo a evolução do risco associado às mesmas, ao longo do tempo.
Partimos de dados coletados do National Vulnerability Database (NVD) e Exploit Database (ExploitDB). Em seguida, buscamos formas de caracterizar os dados de risco temporal. Embora exista um padrão de medição de risco conhecido como Common Vulnerability Scoring System (CVSS) e o respectivo CVSS Temporal (mudança do risco associado à vulnerabilidade com o tempo, devido a acontecimentos e impacto da mesma no mundo real), não há dados públicos estruturados que permitam diretamente parametrizar o CVSS Temporal. Assim, propusemos heurísticas para parametrizar o CVSS Temporal a partir dos dados disponíveis.
A partir dos dados coletados, desenvolvemos um protótipo que, para uma vulnerabilidade escolhida, mostra uma estimativa da evolução de seu risco longo do tempo. Para gerar tal curva, temos a flexibilidade na escolha do modelo de risco subjacente. Tal modelo determina, por exemplo, a predição do tempo até que surja um programa exploit que seja capaz de explorar tal vulnerabilidade. Como resultado, temos um sistema web que ajuda na visualização de como se comporta o ciclo de vida de uma vulnerabilidade, tendo em risco os eventos que afetam o risco associado à mesma. Ilustramos o funcionamento do sistema apresentando a evolução do risco para vulnerabilidades conhecidas, como HeartBleed e WannaCry e indicando, por exemplo, como que tais curvas de risco podem ajudar no processo de tomada de decisão sobre aplicação ou não de patches.



Sessão: IM - Sistemas / Algoritmos

5601 - ANÁLISE DE MERCADOS NEGROS DE VULNERABILIDADES EM SISTEMAS COMPUTACIONAIS




Autores: BRUNO HRYNIEWICZ DOS SANTOS CRUZ , LEONARDO VENTURA

Orientação: DANIEL SADOC MENASCHE

Resumo: Muitas das ameaças aos sistemas computacionais modernos surgem a partir do chamados "mercados negros" (também conhecidos como "dark web"). A Universidade de Cambridge compila, ao longo dos anos, dados sobre mensagens trocadas nos mercados negros no chamado CrimeBB, que consiste num banco de dados de mensagens trocadas, em sua maior parte, por hackers. O objetivo do CrimeBB é prover a pesquisadores uma fonte para pesquisas pluralizando resultados reprodutíveis.
Neste trabalho, visamos usar o CrimeBB para auxiliar na classificação de risco de vulnerabilidades.
Dentre os diversos desafios, destacamos a extração automática dos temas das postagens e a identificação de como um tema influencia a reputação de um usuário, assim como a detecção de se um mesmo usuário faz parte de mais de um dos fóruns. Para lidar com tais desafios, propusemos uma busca heurística por usuários comuns entre diferentes fóruns, e.g., usando seus apelidos para determinar identidades comuns. Em seguida, rastreamos as reputações de tais usuários, para classificar pontes de informação entre fóruns. Buscamos também a relevância que os usuários dão aos temas que são citados para assim gerar uma classificação de risco por tema.
Outra importante pergunta visada pela pesquisa consiste em diferenciar entre o que é um anúncio de um exploit real para uma vulnerabilidade e o que é um golpe anunciando um exploit fictício para uma vulnerabilidade. Para isso, usamos o CrimeBB para extrair evidências de que o site 0day.today é um potencial golpe. O 0day.today tem ampla visibilidade na Internet como um mercado negro de exploits, mas segundo nossas pesquisas esse site não é uma boa fonte de dados para futuras pesquisas sobre ciclo de vida de vulnerabilidades, tendo em vista que a maioria dos exploits lá anunciados consiste de golpes para arrecadar recursos sem oferecer nenhum produto (exploit) ou serviço em troca.
Os Alunos de Graduação em Bacharel em Ciência da Computação, Bruno Hryniewicz e Leonardo Ventura, participam desta pesquisa como um projeto de iniciação cientifica.



Sessão: IM - Análise/Álgebra

776 - CAMPOS DE RETAS INVARIANTES




Autores: LUÍS FERNANDO GARCIA JALES

Orientação: SEVERINO COUTINHO

Resumo: Tradicionalmente, a presença de simetrias sob às quais uma equação diferencial é invariante é de grande ajuda em sua integração simbólica. No caso específico das equações diferenciais definidas por polinômios, as simetrias impõem severas restrições às curvas algébricas que são soluções, porque os grupos de simetrias destas curvas são bastante limitados. Recentemente tem havido bastante interesse no estudo dos subgrupos do grupo linear projetivo que deixam invariantes campos de retas do plano projetivo complexo; ver, por exemplo, [2]. Em minha exposição apresentarei alguns resultados preliminares relativos aos campos de retas do plano projetivo que são invariantes por subgrupos (finitos e infinitos) do grupo linear projetivo. Entre os grupos analisados estão grupos cíclicos infinitos, além de grupos cíclicos finitos e grupos diedrais de pequena ordem. Estes resultados foram obtidos experimentalmente, com a ajuda de alguns programas de computador implementados na linguagem do sistema de computação algébrica Axiom.



Sessão: IM - Análise/Álgebra

1602 - UMA SOLUÇÃO APROXIMADA PARA O PROBLEMA DA CATENÁRIA COM OBSTÁCULO




Autores: JOÃO PEDRO LOEWE

Orientação: ROLCI DE ALMEIDA CIPOLATTI

Resumo: O problema de descrever matematicamente a forma que adquire um fio flexível suspenso entre dois pontos e sob a ação exclusiva da gravidade foi proposto por Galileu Galilei, tendo ele conjecturado que a curva seria uma parábola. A questão foi resolvida em 1691 independentemente por Leibniz, Huygens e Bernoulli, tendo eles mostrado que, contrariamente à conjectura de Galileu, a curva que o fio assume é uma catenária. Nosso objetivo neste trabalho é, inicialmente, apresentar duas soluções clássicas para esse problema: a primeira obtida a partir da resolução de Equações Diferenciais Ordinárias e, a segunda, abordando os métodos clássicos de Cálculo das Variações. A parte principal do trabalho consiste no estudo do problema no caso em que há um obstáculo sobre o qual o fio suspenso se apoia.
Trata-se de um problema de fronteira livre, uma vez que a parte do fio em contato com o obstáculo não é conhecida a priori. Abordaremos este problema inicialmente no contexto da Análise Funcional para mostrar a existência de solução e depois, através de métodos numéricos, obter soluções aproximadas.



Sessão: IM - Análise/Álgebra

1611 - REPRESENTAÇÕES DO GRUPO SIMÉTRICO




Autores: CAIO CORREA MELO

Orientação: LUCA SCALA

Resumo: A teoria de representações estuda como um grupo opera sobre um espaço vetorial por transformações lineares. No caso em que o grupo é finito, o assunto é bem estudado. Para cada grupo, existem um número finito de representações irredutíveis que é igual ao número de classes de conjugação do grupo.
Além disso, cada representação é determinada por uma função de classe (constante nas classes de conjugação) que chamamos de caráter da representação. O espaço das funções de classe admite um produto hermitiano de tal forma que os caráteres das representações irredutíveis formam uma base ortonormal. Por outro lado, não existe , em geral, uma bijeção explícita entre classes de conjugação e representações irredutíveis.
O projeto em questão foca no caso das representações do grupo simétrico sobre n elementos. Neste caso, há uma bijeção canônica entre classes de conjugação e as partições de n. A partir disso, podemos associar cada partição com um diagrama, chamado diagrama de Young da partição. O diagrama de Young permite a construção explícita de uma representação irredutível do grupo simétrico e então essa construção fornece uma bijeção explícita entre classes de conjugação e representações irredutíveis do grupo simétrico. Além disso, vários invariantes da representação, como a sua dimensão e seu caráter, podem ser exprimidos somente em termos do diagrama de Young.



Sessão: IM - Análise/Álgebra

2247 - CÓDIGOS CORRETORES DE ERROS




Autores: JOÃO VITOR PISNO ABRAHÃO DA SILVA

Orientação: LUCIANE QUOOS CONTE

Resumo: A teoria de Códigos Corretores de Erros possuiu grande importância na transmissão de dados em geral, por exemplo para enviar fotos tiradas por satélites no espaço para a terra. Os códigos corretores de erros ainda fazem parte do nosso cotidiano de inúmeras formas, por exemplo, quando fazemos uso de informações digitalizadas, tais como ouvir música, mandar uma mensagem ou até mesmo salvar um arquivo no nosso computador.
Sendo um dos precursores da teoria de Códigos Corretores de Erros, o matemático C. E. Shannonnum, em um trabalho publicado em 1948, utilizou essa teoria para descrever qual a melhor forma para codificar uma informção que desejamos transmitir. Sendo assim, um código corretor de erros pode ser descrito, de maneira informal, com uma maneira organizada de adicionar alguns dados a mais em uma informação que desejamos transmitir ou armazenar, de modo que caso ocorra um erro em parte da informação seja mais fácil de corrigi-la.
Durante a iniciação científica focamos em códigos lineares, a fim de determinar seus parâmetros e algoritmos gerais de correção de erros. Por fim estudamos códigos específicos como códigos cíclicos, códigos BCH, os clássicos códigos Goppa sobre o corpo de funções racionais.



Sessão: IM - Análise/Álgebra

2475 - A equação de Schrödinger não linear: um estudo qualitativo




Autores: LUCAS BARBOSA PEREIRA E SILVA

Orientação: ADÁN JOSÉ CORCHO FERNÁNDEZ

Resumo: Neste projeto estudaremos algumas propriedades qualitativas referentes ao comportamento das soluções do problema de valor inicial (PVI) associado à equação de Schrödinger não linear em uma dimensão espacial. Este modelo possui diversas aplicações na física quântica; por exemplo, aparece na modelagem de pulsos eletromagnéticos em redes de fibra óptica.
Numa primeira etapa do projeto é estudada a existência de soluções especiais e de interesse físico do tipo periódicas e solitônicas. Para a obtenção desse tipo de pulsos periódicos foram usados resultados teóricos importantes sobre a série de Fourier, em particular a famosa Fórmula do Somatorio de Poisson.
Na segunda etapa do projeto será desenvolvido um estudo qualitativo para o caso linear do modelo, sendo este o ponto de partida para o desenvolvimento de uma teoria qualitativa para o modelo não linear. O estudo para o caso linear será realizado considerando os dados iniciais num espaço de funções fisicamente apropriado, de acordo com a estrutura hamiltoniana inerente à equação não linear.
Para o entendimento de algumas das propriedades mais importantes da dinâmica linear do modelo, como por exemplo o comportamento em tempos grandes das soluções, será necessário um estudo preliminar com um bom nível de profundidade do operador Transformada de Fourier.
Ressaltamos que a primeira etapa já foi completamente excutada e a sgunda encontra-se em andamento. Todos os resultados parciais foram obtidos e discutidos através de seminários sob a coordenação do orientador do projeto.



Sessão: IM - Análise/Álgebra

2683 - DUALIDADE DE SCHUR-WEYL




Autores: EDUARDO GALVãO

Orientação: LUCA SCALA

Resumo: A potência tensorial dupla de um espaço vetorial se decompõe canonicamente em soma direta da potência simétrica dupla e da potência exterior dupla. Como se decompõe, em geral, uma potência tensorial k-upla de um espaço vetorial? É evidente que potências simétricas e exteriores não são suficientes para construir uma tal decomposição. A teoria das representações de GL(n, ℂ) fornece ferramentas adicionais para tanto e um resultado importante dessa área, a dualidade de Schur-Weyl, numa formulação concreta, é exatamente a resposta para essa questão. As potências simétricas e exteriores de um espaço vetorial complexo(de dimensão n), V, estão entre as representações irredutíveis de GL(n, ℂ). Essencialmente qualquer outra representação irredutível(de GL(n, ℂ)) se encontra usando os simetrizadores de Young, isto é, elementos especiais da algebra grupal do grupo simétrico de k elementos, Sk. Mais em detalhes, os funtores de Schur associados a cada partição λ de k, Sλ(-), se obtêm como imagem da ação do simetrizador de Young sobre a potência tensorial k-upla do espaço vetorial V, isto é, Im(cλ) = Sλ(V), onde cλ é o simetrizador de Young associado a partição λ de k, de forma que, todos os Sλ(V) são representações irredutíveis de GL(n, ℂ). Se aprofundando nessa ligação entre GL(n, ℂ) e grupos simétricos, pode-se mostrar que a potência tensorial k-upla de um espaço vetorial, V, de dimensão n, como representação de Sk x GL(n, ℂ), se quebra em somas diretas de produtos tensoriais de funtores de Schur, Sλ(V), e representações irredutíveis, Vλ, de Sk, isto é, V⊗k = ⊕λ(Sλ(V)⊗Vλ) enquanto representações, resultado que é comumente chamado de dualidade de Schur-Weyl.
Por fim, obtida a dualidade de Schur-Weyl e assumindo resolvidas as representações de grupos simétricos, podemos constatar propriedades interessantes sobre os funtores de Schur: analogamente às representações de Sk, vário invariantes dos funtores de Schur(dimensão, caráter, etc) podem ser descritos apenas por uma partição, λ, e seu diagrama de Young; além disso, os caráteres dos funtores de Schur se exprimem em termos dos polinômios de Schur, sλ(que constituem uma importante base dos espaço dos polinômios simétricos), de forma que, em geral, qualquer fórmula envolvendo funtores de Schur, tem uma fórmula correspondente (formalmente idêntica) envolvendo polinômios de Schur.
dualidade de Schur-Weyl representações de grupo funtores de Schur decomposição de potências tensoriais grupos simétricos grupo



Sessão: IM - Análise/Álgebra

3642 - O Teorema de Sturm-Hurwitz: duas abordagens




Autores: FLÁVIO MOREIRA

Orientação: ADÁN JOSÉ CORCHO FERNÁNDEZ

Resumo: Serão apresentadas duas demonstrações diferentes, porém relacionadas, do Teorema de Sturm- Hurwitz. A primeira com base em elementos de análise na reta e a segunda a partir da equação do calor numa barra finita.
O resultado principal afirma que um polinômio trigonométrico real tem um número mínimo de raízes num intervalo de comprimento dado. Dito de outra forma, o número mínimo de raízes de um polinômio trigonométrico é sempre maior ou igual ao número de raízes do seu primeiro harmônico neste mesmo intervalo.
Utilizaremos, na primeira demonstração, o teorema de Rolle e suas consequências como ponto chave da demonstração. A partir dele, estabelecemos uma relação entre o número de raízes de uma função e sua derivada. Utilizando um operador integral, construimos uma sequência de funções que aproxima o primeiro harmônico e assim chegamos à afirmação do teorema. Esta fase da prova já foi concluída.
A segunda demonstração exigirá conhecimentos básicos sobre a Equação do Calor em uma barra finita. Dentre os resultados utilizados está o Princípio de Máximo para a Equação do Calor e a própria resolução em si do problema desse modelo. Esta fase do projeto encontra-se em andamento e os avanços parciais estão sendo discutidos através de um Seminário em nível de Iniciação Científica.
Ao final, relacionaremos as duas demonstrações, analisando aspectos semelhantes como também diferentes entre as duas.



Sessão: IM - Análise/Álgebra

4135 - Análise de Fourier e algumas aplicações




Autores: LESLY DAIANA BARBOSA SOBRADO

Orientação: ADEMIR FERNANDO PAZOTO , ADÁN JOSÉ CORCHO FERNÁNDEZ

Resumo: Apresentaremos algumas aplicações da Análise de Fourier em Geometria e Teoria dos Números. Na primeira parte do projeto será estudado a teoria básica da série e da Transformada de Fourier, conhecimento que será usado como base teórica para as aplicações pretendidas. Esta primeira parte do projeto já foi executada através de seminários em nível de Iniciação Científica, sob a coordenação dos orientadores do projeto.
Estamos agora desenvolvendo a segunda etapa do projeto, onde estamos apresentando aplicações em Geometria e Teoria dos Números. De forma mais precisa, estamos provando alguns resultados clássicos sobre curvas fechadas, entre eles problemas do tipo isoperimétrico. Além disso, faremos uma prova para o Teorema de Weyl, que fala ao respeito de sequências de números uniformemente distribuídos num intervalo unitário. Finalmente, dependendo do tempo disponível, abordaremos o Teorema de Shannon, que encontra importantes aplicações na tecnologia usada para a gravação de áudios.
As aplicações estão sendo discutidas gradualmente em seminários em conjunto com outros alunos de iniciação científica que participam de projetos similares, que tomam como base conhecimentos de Análise Harmônica.



Sessão: IM - Posters

1757 - Curvas e Superfícies em R^3




Autores: KAROLAYNE PEREIRA DESSABATO

Orientação: CARLOS DIOSDADO ESPINOZA PENAFIEL

Resumo: Na teoria clássica de superfícies, existem teoremas essenciais para entender a geometria do espaço euclidiano de dimensão três. Por exemplo o teorema de Hopf garante que uma superfície compacta com curvatura média constante tem que ser uma esfera redonda. Outro teorema nesta direção de classificação afirma que se tal superfície tem curvatura gaussiana constante positiva, então ela tem que ser uma esfera redonda. Além destes teoremas, outros modelos de superfícies que dão bons exemplos quando se estuda a geometria euclidiana são as superfícies invariante por isometrias positivas tendo curvatura média constante assim como a classificação das superfícies totalmente umbilicais. Neste projeto de iniciação científica iremos abordar o estudo de alguns modelos geométricos do espaço euclidiano de dimensão três, isto é, estudaremos a geometria de algumas superfícies tendo uma propriedade geométrica pré-fixada. Tal estudo visa explorar de forma mais profunda, conceitos que ajudem a entender melhor a riqueza da geometria euclidiana, com o fim de levar tais conceitos a espaços de dimensão três que sejam mais gerais tais como o espaço produto HxR onde H denota o espaço hiperbólico de dimensão dois e R denota a reta real.



Sessão: IM - Posters

1777 - Simetrias do Plano Hiperbólico




Autores: VICTOR PESSANHA MENDES DE OLIVEIRA

Orientação: CARLOS DIOSDADO ESPINOZA PENAFIEL

Resumo: Nesta apresentação iremos abordar as simetrias existentes no plano hiperbólico de dimensão dois através do estudo de modelo do semiplano de Poincaré e do disco de Poincaré. O espaço hiperbólico de dimensão dois é um dos modelos geométricos da geometria clássica. Este espaço tem curvatura constante negativa e o estudo da sua geometria foi desenvolvido uma vez que os matemáticos tentaram mostrar que o quinto postulado de Euclides dependia dos quatro anteriores. Esta geometria é tão rica como a euclidiana. O que pretendemos fazer neste projeto de iniciação científica é dar um estudo direcionado sobre o grupo de isometria do espaço. Mostraremos como tais isometrias agem nas curvas especiais da geometria hiperbólica. Mais precisamente, qual é comportamento geométrico de tais isometrias nas geodésicas, horociclos e curvas de curvatura constante. A motivação deste trabalho vem do fato de ter novos modelos geométricos que tenham a riqueza que o modelo euclidiano tem, assim como introduzir conceitos que possam dar uma base para futuros trabalhos de pesquisa.



Sessão: IM - Posters

5678 - A geometria dos dados em dimensão alta




Autores: IAN MATEUS BRITO PEREIRA

Orientação: RICARDO ROSA

Resumo: Variedades são objetos geométricos largamente utilizados na matemática. Analisamos a estrutura e funcionamento de algoritmos que utilizam variedades para entender dados em dimensões altas, nas quais a visualização é mais difícil.
Começamos com a base teórica do Isomap, do Locally linear embedding (LLE) e de métodos necessários em suas implementações, como o Principal component analysis (PCA) e o Multidimensional scaling (MDS). Em seguida, utilizamos o scikit-learn para produzir exemplos da aplicação dos algoritmos. Também estudamos os chamados automapas Laplacianos e demonstramos um pouco do seu uso prático para encontrar padrões escondidos.
Esses algoritmos fazem a chamada redução não linear de dimensionalidade (NLDR), ou seja, produzem variedades de dimensões mais baixas que aproximam adequadamente o conjunto de dados de maneira eficiente. Assim, se um conjunto de alguns pontos em dimensão 7 secretamente se parece com a familiar esfera de dimensão 2, saberemos disso.
Notamos que mesmo em problemas onde a estrutura de variedade não se evidencie de maneira direta, como nos de reconhecimento facial, a utilização desses algoritmos pode trazer informações novas e interessantes.



Sessão: IM - Posters

6467 - Resolvendo Equações Diferencias Estocásticas via Reconstrução de Momentos




Autores: ADEMIR DOS SANTOS CASTRO

Orientação: MARCO AURELIO PALUMBO CABRAL

Resumo: Neste trabalho vamos apresentar um novo método de resolução de equações diferenciais estocásticas através da transformação da equação num sistema de EDO's dos momentos e posterior recosntrução da solução através dos momentos.
Inicialmente será feito um estudo da teoria da integral e fórmula de Itô, para se compreender o significado de solução de uma equação diferencial estocástica.
A segunda fase será o estudo e implementação de esquemas numéricos básicos para resolução de equação diferencial estocástica, o método de Euler-Maruyama e o método de Milstein. Na continuaçlão vamos ver a série de Itô-Taylor e métodos de ordem superior, do tipo Runge-Kutta.
Na terceira fase, vamos estudar e implementar a reconstrução da distribuição de uma variável aleatória à partir de alguns momentos e que maximiza a entropia.
Finalmente, vamos determinar utrilizando a fórmula de Itô, equações diferenciais para os momentos que serão resolvidas numericamente pelo método clássico de Runge-Kutta e reconstruir sua distribuição pelo método da fase anterior.
Havendo tempo, apresentaremos aplicações em FInanças.