Pesquisa

Uso de ferramentas de gestão do conhecimento para apoio a modelagem de requisitos de software.

  • Descrição: A finalidade de todo software comercial é atender a um conjunto de requisitos correspondentes às necessidades do negócio do cliente. No entanto, uma das principais causas da falta de qualidade de software está nas especificações de requisitos incompletas, que pode ocasionar viés de interpretação, perda de informações, atrasos no projeto, além de custos crescentes. Nesse contexto, o objetivo deste projeto é a utilização de um processo de aquisição de conhecimento, baseado em semântica verbal, como um complemento para a modelagem de requisitos. A modelagem de requisitos define uma coleção de modelos utilizada na fase de análise de requisitos. Os resultados permitirão verificar a eficácia do processo com relação a sua capacidade de obter uma lista contendo os requisitos definidos pelo cliente, os intervenientes, e como eles interagem uns com os outros, assim como verificar quanto ele é sistemático, pudendo auxiliar, desse modo, na eliminação de erros subjetivos de interpretação e tornando a análise de requisitos mais simples, ágil e eficiente.
  • Coordenador: Franciene Duarte Gomes.
  • Membro participante do laboratório: Franciene Duarte Gomes
  • Financiamento: N/A.
  • Duração: 2020-2021.

Representações semanticamente enriquecidas para mineração de textos em português: Modelos e Aplicações.

  • Descrição: Com a crescente geração e disponibilização de textos, seja internamente nas organizações ou na Web, técnicas de Mineração de Textos têm se tornado essenciais no apoio à análise e extração de conhecimento desses dados. Independentemente da aplicação ou técnica utilizada, o tratamento semântico dos textos é um grande desafio do processo de mineração. Esse desafio é ainda maior quando se considera textos escritos no idioma português, visto as particularidades do idioma e o limitado volume de recursos e pesquisas desenvolvidas. Nesse contexto, este projeto visa avançar as pesquisas da área de Mineração de Textos, com foco no idioma português, e disseminar o conhecimento da área por meio da aplicação em diferentes problemas do mundo real. Assim, serão investigados e propostos modelos de representação de textos semanticamente enriquecidos, abordando tanto representações no modelo espaço-vetorial quanto representações em rede, bem como sua aplicação no aprendizado baseado em uma única classe. Para viabilizar a pesquisa, coleções de textos escritos em português serão coletadas, preparadas e caracterizadas, disponibilizando à comunidade informações consolidadas sobre coleções rotuladas e disponibilizadas para pesquisa. Por fim, as representações semanticamente enriquecidas serão avaliadas e aplicadas em diferentes problemas práticos de Mineração de Textos, como análise de sentimentos, sistemas de recomendação, detecção de notícias falsas, descoberta baseada em literatura e mineração de eventos.
  • Coordenador: Solange Oliveira Rezende.
  • Membro participante do laboratório: Rafael Geraldeli Rossi, Ricardo Marcondes Marcacini. 
  • Financiamento: Fundação de Amparo à Pesquisa do Estado de São Paulo.
  • Duração: 2020-Atual.

Plataforma de Gerenciamento de Provas Virtuais.

  • Descrição: Uma plataforma web completa para gerenciamento de provas virtuais com o diferencial de incorporar provas adaptativas, inteligência artificial para apoiar correção de questões discursivas e detecção de plágio, bem como integração com ferramentas de acessibilidade para deficiência auditiva e visual.
  • Coordenador: Ricardo Marcondes Marcacini.
  • Membro participante do laboratório: Rafael Geraldeli Rossi. 
  • Financiamento: CAPES – Centro Anhanguera de Promoção e Educação Social.
  • Duração: 2019-Atual.

Aprendizado de Websensors para Agronegócios.

  • Descrição: O agronegócio é uma das principais atividades econômicas do Brasil, representando anualmente (desde 2006) uma média de 21% do PIB brasileiro, acumulando um crescimento de 4,4% em 2016, mesmo em período de recessão econômica. Por outro lado, a cadeia produtiva do agronegócio é considerada complexa devido aos muitos fatores envolvidos, como efeitos climáticos, controle de pragas e doenças, controle de insumos (e.g. fertilizantes, sementes, defensivos, vacinas e máquinas), serviços de crédito (e.g. câmbio e taxas de juros), as atividades de produção de agricultura e pecuária propriamente ditas; e as etapas pós-produção, como embalagem, armazenagem, industrialização, transporte e distribuição. Esta diversidade de fatores é responsável pelo conceito de riscos e incertezas da cadeia produtiva do agronegócio, com a principal consequência de que o preço de venda durante a etapa de comercialização foge ao controle do produtor. Assim, uma gestão moderna do agronegócio incorpora instrumentos para gerenciamento de riscos com o objetivo de amenizar tais incertezas e conferir uma estabilidade mínima ao produtor. Nesse contexto, o gerenciamento de riscos com uso de mercado de futuros, como a Bolsa de Mercadorias e Futuros da BOVESPA (BM&F-BOVESPA) tem se tornado cada vez mais popular, atingindo 1.860.877 contratos de derivativos relacionados ao agronegócio em 2016. Neste mercado, o produtor (avesso ao risco) transfere o risco de oscilação do preço para empresas e/ou indivíduos que operam no mercado de futuros e que esperam receber um prêmio para assumir tal risco. Definir boas estratégias de gerenciamento de riscos depende de um conjunto adequado de informações sobre problema para determinar intervalos de variação de preços no futuro. Neste projeto é proposto um produto denominado Websensors Analytics para inovar o gerenciamento de riscos em agronegócios. Websensors é um framework de aprendizado de máquina com o diferencial de coletar e combinar grandes bases de informações disponíveis em diversas fontes sobre agronegócios, como notícias e boletins especializados, e utilizar tais bases de dados em conjunto com indicadores oficiais (como cotações de preços) para melhorar tarefas de análise preditiva de preços. Esta proposta de inovação tecnológica é baseada em 4 anos de pesquisa na área, com resultados promissores para apoiar o desenvolvimento deste produto. Além da ausência de produtos nacionais similares nesta área específica, o agronegócios está em acentuada expensão e exigirá cada vez mais de soluções inovadoras para aumentar a eficiência deste setor.
  • Coordenador: Ricardo Marcondes Marcacini.
  • Membro participante do laboratório: Rafael Geraldeli Rossi. 
  • Financiamento: Conselho Nacional de Desenvolvimento Científico e Tecnológico.
  • Duração: 2019-Atual.

Product2Vec: Representação Semântica de Produtos de Lojas Virtuais utilizando Aprendizado de Máquina.

  • Descrição: Consumidores têm realizado pesquisas exploratórias cada vez mais longas considerando um número cada vez maior de diferentes fontes e tipos de informações. Lojas virtuais, canais de youtube, agregadores de ofertas, notícias, fóruns de discussão, sites de fabricantes e redes sociais são exemplos das diversas fontes de informação que consumidores podem utilizar para decidir sua compra. Essas fontes apresentam informação de vários tipos, tais como descrições de produtos, especificações, avaliações de consumidores, revisões de especialistas, vídeos de demonstração, imagens dos produtos, perguntas e respostas, entre outros tipos de dados. Essa grande quantidade de informações pulverizadas em diversos locais têm tornada a jornada de pesquisa e de decisão de compra tem sido cada vez mais longa e gerado cada vez mais insegurança aos consumidores. Nesse sentido, avanços recentes em representações multivisão (multi-modal) na área de Aprendizado de Máquina e Deep Learning podem suportar novas aplicações para facilitar a personalização e exploração dessa informações. Considerar esses avanços no domínio de produtos (e seus conteúdos relacionados) de e-commerce representa um desafio técnico-científico e é o objetivo principal deste projeto de pesquisa. Esforços técnicos e de pesquisa científica já têm sido empregados pela Birdie para coletar e estruturar dados desse domínio desenvolver tecnologias que habilitem aplicações para auxiliar consumidores, como buscas mais semânticas e agregação e personalização de diferentes tipos de informações. A empresa já conta com uma base de dados com mais de de 50 milhões de registros entre ofertas, avaliações/reviews, imagens, perguntas e respostas de 420 diferentes fontes, além mais de 5 milhões de preços são monitorados e armazenados diariamente. Esses dados estão sendo utilizados para criar aplicações, aplicar e avaliar tarefas de Aprendizado de Máquina tradicionais como a classificação desses registros em categorias, análise de sentimentos de avaliações, estruturação de descrições de produtos, entre outras. Esses esforços resultaram em alguns produtos, tais como o módulo de matching (de-duplicação) automático de diferentes ofertas de um mesmo produto e a consolidação e agregação de diferentes informações sobre produtos. A demonstração de ambas como produto final ao consumidor pode ser encontrada em http://find.birdie.ai/. No entanto, foram utilizados métodos tradicionais de aprendizado de máquina que dependem muito de validação humana, como rotulação de amostras, criação de dicionários e construção de listas de referências (marcas, categorias e modelos). Tais limitações reduzem a escala da solução e dificultam sua expansão para diversas categorias de produtos. Por outro lado, avanços recentes na área de aprendizado de máquina que utilizam conceitos de Deep Learning, regularização de similaridades e modelagem por redes heterogêneas demandam um grande volume de dados para funcionar mas precisam de poucos exemplos rotulados (aprendizado semissupervisionado), possibilitando menor intervenção humana no processo de aprendizado e maior generalidade e escala dos modelos criados. Nesse sentido, este projeto de pesquisa tem como principal intuito adaptar e incorporar métodos recentes de aprendizado de máquina que lidam com dados heterogêneos para estruturar a grande quantidade de informações contidas no domínio de e-commerce. O resultado final da estruturação dessas informações é chamado nesta proposta de Product2Vec, em que é obtida uma nova representação sobre os produtos de comércio eletrônico, integrando fichas técnicas, reviews, comentários, e diversos outros metadados. Essa nova representação permitirá correlacionar diretamente diferentes tipos de informações do modelo e fornecerá maior flexibilidade e poder de escala para criar aplicações relacionadas ao domínio da empresa.
  • Coordenador: Everton Alvares Cherman.
  • Membro participante do laboratório: Rafael Geraldeli Rossi, Ricardo Marcondes Marcacini.
  • Financiamento: N/A.
  • Duração: 2019-2020.

Inteligência Analítica para Agronegócios: Um Framework de Aprendizado de Máquina Multivisão baseado em Regularização de Similaridades.

  • Descrição: Inteligência Analítica pode ser definida como a exploração de técnicas computacionais para análises descriticas e preditivas baseadas em grandes bases de dados, com o objetivo de oferecer maior probabilidade de acerto em processos de tomada de decisão. Para apoiar o processo de Inteligência Analítica são utilizadas as cotações históricas de preço (para considerar sazonalidade dos preços); previsões climáticas que podem afetar a produção; informações sobre oferta e demanda que atuam diretamente nos preços; planos de incentivo ou subsídio governamental; taxa de juros e câmbio que afetam serviços de crédito e custo dos insumos; e notícias específicas sobre o produto em questão, como ocorrência de pragas e doenças, queimadas, novas variedades, supersafras ou quebra de safras em outras regiões, etc. Além da dificuldade de reunir todas as informações relevantes, há o grande desafio de extrair e combinar tais informações para a análise propriamente dita, já que a grande maioria dessa informação está em formato textual por meio de relatórios, notícias e boletins. Em vista desses desafios e dificuldades, recentemente soluções computacionais baseadas em aprendizado de máquina têm sido propostas para apoiar o desenvolvimento de soluções de Inteligência Analítica. A ideia básica dos algoritmos de aprendizado de máquina é explorar um conjunto de dados que reprenta a informação histórica (experiência) existente sobre o problema para aprender um modelo (que generaliza a experiência) capaz de realizar predições a partir de novas informações. Atualmente, é reconhecido na literatura que as abordagens existentes são limitadas, pois oferecem soluções genéricas para Inteligência Analítica. É consenso que uma solução eficaz de Inteligência Analítica deve ser (i) orientado ao domínio do problema e (ii) possível de agregar de múltiplas visões dos dados provenientes de diferentes fontes e tipos de conhecimento. Neste projeto é investigado soluções para um problema comum às abordagens tradicionais de aprendizado de máquina, em que aplicações para inteligência analítica utilizam uma representação ‘monovisão’ dos dados, ou seja, as características (ou atributos) do problema, são compostas apenas por termos (palavras-chaves ou expressões) extraídos das notícias e relatórios; ou apenas por indicadores econômicos. No entanto, tal problema pode ser melhor representado por uma abordagem ‘multivisão’, o que permite diferenciar determinados termos conforme sua função no texto, como informação temporal, informação geográfica, nomes próprios e nomes de organizações. Em aplicações envolvendo Inteligência Analítica, na qual se deseja mapear e sensoriar fenômenos do mundo virtual para o mundo físico, considerar essas informações adicionais naturalmente proporciona resultados mais robustos. Considerando que cada visão dos dados possui uma medida própria de similaridade (ou correlação) entre suas instâncias, uma forma de lidar com aprendizado de máquina multivisão é via regularização de similaridades. Na prática, o objetivo é aprender uma nova similaridade entre os dados, ou seja, um novo espaço dimensional em que as instâncias provenientes de diferentes espaços possam ser comparadas. A definição de uma boa medida de similaridade é crucial para a eficácia de muitos algoritmos de aprendizado de máquina. A regularização de similaridades visa obter uma nova medida de similaridade, em um novo espaço dimensional, de acordo com as propriedades específicas de cada conjunto de dados por meio de um processo de consenso; resultando em uma solução única e potencialmente mais robusta.
  • Coordenador: Ricardo Marcondes Marcacini.
  • Membro participante do laboratório: Rafael Geraldeli Rossi.
  • Financiamento: N/A.
  • Duração: 2018-Atual.

Uma Abordagem Multimodal para Recuperação Baseada em Conteúdo de Imagens Médicas Similares em Banco de Dados Relacionais.

  • Coordenador: Maxwell Sampaio dos Santos.
  • Membro participante do laboratório: Maxwell Sampaio dos Santos.
  • Financiamento: N/A.
  • Duração: 2018-Atual.

Aprendizado de Máquina Baseado em Uma Única Classe: Algoritmos e Aplicações.

  • Descrição: A quantidade de dados disponível em formato digital na rede mundial de computadores aumenta a cada dia. Esses dados estão em diferentes formatos, como (i) textos produzidos dentro das empresas, portais de notícias, blogs e redes sociais; (ii) imagens produzidas por satélites, drones, câmeras digitais e exames médicos; (iii) dados numérios produzidos por resultados por exames ou aparelhos de mensuração que gerem tais dados e (iv) sequencias de genes. É humanamente impossível realizar tarefas como a organização, gerenciamento, e uma das principais, a extração de conhecimento de grandes volumes de dados, os quais são úteis tanto na área acadêmica quanto comercial. Uma das técnicas para se realizar tais tarefas automaticamente é a classificação automática. Para que se possa relizar a classificação automática, é preciso construir um modelo de classificação. Esse modelo é normalmente construído por técnicas de aprendizado de máquina, as quais visam extrair padrões de exemplos e respectivos rótulos (identificadores de classe). A maioria das pesquisas e aplicações práticas ainda fazem uso do aprendizado supervisionado multi-classe. Neste cenário, o usuário ou especialista de domínio responsável pela rotulação deve definir todas as classes nas quais os documentos poderão ser atribuídos, bem como uma grande quantidade de exemplos de documentos pertencentes a cada uma dessas classes (documentos rotulados). Isso pode ser oneroso ao rotulador e demandar conhecimento absoluto sobre o problema a ser tratado. Uma situação mais prática seria o usuário fornecer apenas exemplos de seu conhecimento ou se seu interesse. Além disso, neste mesmo cenário, será atribuído à um exemplo não rotulado sempre uma das categorias que foram informadas durante a construção do modelo de classificação, mesmo que a classe real desse exemplo não seja uma das classes previamente informada. Para sanar essas dificuldades do aprendizado supervisionado multi-classe tradicionalmente utilizado, e para deixar mais prática a aplicação da classificação automática em situações em que o usuário esteja interessado em uma única classe (também denominada classe alvo ou classe de interesse), têm ganhado interesse nos últimos anos a área de aprendizado baseado em uma única classe. Neste tipo de aprendizado, são informados apenas exemplos da classe de interesse para construir o modelo de classificação, e portanto, diminuindo o esforço do usuário de rotulação e conhecimento do domínio por parte do usuário. Nesta abordagem, o classificador irá classificar um exemplo como sendo da classe de interesse ou não sendo da classe de interesse (também denominado outlier).
  • Coordenador: Rafael Geraldeli Rossi.
  • Membro participante do laboratório:  Ricardo Marcondes Marcacini.
  • Financiamento: Conselho Nacional de Desenvolvimento Científico e Tecnológico.
  • Duração: 2018-Atual.

Aprendizado de Websensors para Agronegócios.

  • Descrição: Motivada pela diversidade de aplicações que podem ser derivadas por meio de algoritmos para extração de conhecimento da web, uma nova direção de pesquisa denominada Websensors tem como objetivo converter padrões extraídos de várias fontes da web em um conjunto de sinais, representado por meio de séries temporais, que permitem observar, estudar e monitorar o comportamento de um fenômeno de interesse. Devido ao grande volume de dados, variedade de fontes de informação e requisitos de velocidade para análise desses dados, os websensors são modelos computacionais com grande potencial para lidar com os desafios atuais relacionados à temática de Big Data; que recentemente tem recebido muita atenção na literatura e indústria pelos resultados promissores obtidos na resolução de tarefas complexas e para apoiar processos de tomada de decisão. A proposta geral deste projeto é utilizar conhecimento implícito em uma base histórica de milhões notícias sobre agronegócios no Brasil para aprender padrões por meio de Websensors que, ao longo do tempo, possam ser explorados para explicar o comportamento passado e predizer comportamento futuro no domínio de agronegócios, com apoio de algoritmos de aprendizado não supervisionado de máquina. Atividades prévias, como a coleta e organização de uma base de 18 anos de notícias (composta por milhões de registros) e resultados preliminares tem demonstrado que este é um caminho promissor.
  • Coordenador: Ricardo Marcondes Marcacini. 
  • Membro participante do laboratório:  Rafael Geraldeli Rossi.
  • Financiamento: Conselho Nacional de Desenvolvimento Científico e Tecnológico.
  • Duração: 2018-Atual.

Plataforma de Gerenciamento de Provas Virtuais para a Web 3.0.

  • Descrição: Uma plataforma web completa para gerenciamento de provas virtuais com o diferencial de incorporar provas adaptativas, inteligência artificial para apoiar correção de questões discursivas e detecção de plágio, bem como integração com ferramentas de acessibilidade para deficiência auditiva e visual.
  • Coordenador: Ricardo Marcondes Marcacini. 
  • Membro participante do laboratório:  Rafael Geraldeli Rossi, Vitor Mesaque Alves de Lima.
  • Financiamento: Coordenação de Aperfeiçoamento de Pessoal de Nível Superior.
  • Duração: 2018-2020.

Classificação automática de textos por meio e aprendizado de máquina baseado em redes.

  • Descrição: Atualmente há uma quantidade massiva de textos sendo produzida (e-mails, relatórios, artigos, postagens em redes sociais, e notícias). Devido a essa grande quantidade de textos, torna-se humanamente impossível organizar, analisar, e extrair conhecimento dos textos. Consequentemente, técnicas para realizar tais tarefas diminuindo a intervenção humana, como a classificação (rotulação) automática de textos, têm ganhado importância. Normalmente empregam-se algoritmos de aprendizado de máquina (AM) para “aprender” as classes com base no conteúdo e rótulos de textos, e então realizar a classificação. Entretanto, é necessário representar os textos em um formato estruturado para utilizar esses algoritmos. Recentemente, vêm-se destacando representações em redes, que permitem representar diferente tipos de entidades, como documentos, termos e outros tipos dependendo do domínio, e relaçõe de maneira efetiva, além de prover resultados superiores em relação à outras representações. Porém, ainda há necessidade de pesquisas em áreas relevantes utilizando representações em redes, as quais serão exploradas nesse projeto. As linhas de pesquisa são: (i) quais tipo de entidades e relações podem prover melhores performances de classificação para domínios de aplicações específicos (ex: notícias e análise de sentimento em redes sociais); (ii) analisar o uso representações em redes na classificação multi-rótulo; (iii) quais as maneiras mais eficazes de realizar o aprendizado em fluxo de documentos utilizando as modelagem em redes; (iv) quais as maneiras mais efetivas de se classificadores para monitorar fenômenos de interesse dos usuários na web (websensors), e (v) se as abordagens desenvolvidas nos itens anteriores podem ser aplicadas sem que hajam textos rotulados.
  • Coordenador: Rafael Geraldeli Rossi.
  • Membro participante do laboratório: Ricardo Marcondes Marcacini, Vitor Mesaque Alves de Lima.
  • Financiamento: N/A.
  • Duração: 2017-Atual.

Mineração de Dados para Predição de Evasão em Ambientes de Ensino a Distância.

  • Descrição: Estratégias de combate à evasão no ensino superior têm recebido grande atenção nos últimos anos. As estratégias tradicionais são baseadas na revisão dos projetos pedagógicos dos cursos, além da implantação de políticas de assistência estudantil, como apoio financeiro e psicológico aos alunos. O uso destas estratégias tradicionais é mais desafiador quando o principal meio de interação com os alunos é pelo ambiente computacional EAD. No entanto, esses ambientes armazenam um rico conjunto de dados que refletem o comportamento dos alunos, desde o registro de acesso e tempo utilizado nos recursos didáticos, atividades de avaliação, até a interação do aluno em fóruns de discussão. Métodos para Mineração de Dados são promissores para extrair conhecimento útil desses dados e, assim, apoiar processos de tomada de decisão. Assim, o objetivo deste projeto é desenvolver uma plataforma de Mineração de Dados com foco na predição de evasão para o sistema UAB. Na etapa de extração de conhecimento da plataforma, serão desenvolvidos algoritmos de aprendizado de modelos preditivos, ou seja, que identificam padrões nos dados históricos dos perfis de alunos desistentes; sendo capaz de predizer se um novo perfil entrou no grupo de risco da evasão. Como resultado, a plataforma será distribuída livremente, permitindo integrar com qualquer ambiente EAD.
  • Coordenador: Ricardo Marcondes Marcacini.
  • Membro participante do laboratório: Rafael Geraldeli Rossi, Vitor Mesaque Alves de Lima.
  • Financiamento: Coordenação de Aperfeiçoamento de Pessoal de Nível Superior.
  • Duração: 2017-2018.

Avaliação e monitoramento colaborativo das condições de ruas e estradas por meio de sensores de smartphones.

  • Descrição: No Brasil e no exterior, a malha rodoviária possui um papel fundamental para o transporte de cargas e passageiros. No setor de transporte de cargas, é responsável por 61% das movimentações nacionais e em relação ao transporte de passageiros, predomina com 95% de participação. Embora fundamental para a sociedade e crescimento econômico do país, é constatado que a maior parte da infraestrutura de ruas e estradas do Brasil é inadequada, sendo a qualidade do pavimento um dos maiores problemas. A má qualidade aumenta o tempo das viagens, eleva o custo de manutenção dos veículos, traz mais riscos aos usuários e emissões de poluentes, além de impactar diretamente na composição do preço de bens. Para o melhor planejamento de manutenções e intervenções adequadas nas vias, é essencial o uso de instrumentos de avaliação que permitam o monitoramento constante de suas condições. Com o objetivo de reduzir o esforço manual ou o uso de equipamentos de alto custo atualmente utilizados, como os perfilômetros inerciais a laser, neste projeto de pesquisa é proposto o desenvolvimento de um aplicativo móvel que faz uso de sensores presentes em smartphones, como acelerômetros e GPS, em conjunto com algoritmos de aprendizado de máquina e análise de sinais para a avaliação e monitoramento das condições de ruas e estradas. Assim, é possível que diferentes usuários contribuam para o constante monitoramento de maneira automática e ubíqua ao utilizarem aplicativos de navegação em smartphones fixados em seus veículos durante a condução. O produto a ser desenvolvido neste projeto apresenta vantagens importantes sobre as ferramentas atuais, que além de possuírem um custo elevado e a dependência de um especialista, não permitem uma avaliação altamente abrangente e o monitoramento constante de um ambiente com frequentes mudanças. Com as informações do aplicativo, empresas de transporte rodoviário ou usuários convencionais podem planejar rotas que consideram a qualidade do pavimento, visando a economia de tempo de viagem e combustível e o aumento da segurança. Além do aplicativo, também pretende-se desenvolver um sistema responsável por apresentar relatórios sobre a qualidade do pavimento avaliado ao longo do tempo. Tais relatórios podem ser estratégicos e auxiliar na tomada de decisão de empresas e órgãos públicos. Por exemplo, prefeituras ou empresas responsáveis pela concessão de rodovias podem planejar intervenções de maneira mais adequada, possibilitando também a realização de estimativas com antecedência dos custos orçamentários de tais intervenções. Desse modo, espera-se que o produto deste projeto seja responsável por impactos sociais e econômicos em diversos segmentos da sociedade.
  • Coordenador: Vinícius M. A. Souza.
  • Membro participante do laboratório: Rafael Geraldeli Rossi.
  • Financiamento: Fundação de Amparo à Pesquisa do Estado de São Paulo.
  • Duração: 2017-2017.

Implantação e Desenvolvimento do Sistema de Gestão de Projetos SIGFAPERO.

  • Descrição: O SIGFAP está em constante desenvolvimento e evolução, pois novas funcionalidades surgem com as demandas institucionais. Além disso, é importante destacar que a capacidade de inovar, em particular, na utilização e aplicação das tecnologias de informação e de comunicação, constitui um importante diferencial no planejamento e execução de políticas públicas. A criação de um ambiente propício à inovação, adequado ao novo contexto, exige esforços conjuntos por parte dos governos, das universidades e dos formuladores das políticas públicas. A necessidade de participação e democratização nas organizações públicas demanda a gestão de informações e de conhecimento de maneira transparente, visando tornar efetivo o processo de tomada de decisão, evitando a duplicação de ações e a dispersão de informações. Diante deste fato, este projeto visa implantar o SIGFAP na Fundação Rondônia de Amparo ao Desenvolvimento das Ações Científicas e Tecnológicas e à Pesquisa do Estado de Rondônia (FAPERO) para agilizar e otimizar seus processos internos.
  • Coordenador: Maxwell Sampaio dos Santos.
  • Membro participante do laboratório: Maxwell Sampaio dos Santos, Vitor Mesaque Alves de Lima.
  • Financiamento: Fundação de Apoio e Desenvolvimento do Ensino, Ciência e Tecnologia do MS – Auxílio financeiro.
  • Duração: 2016-2017.

Aplicação de algoritmos de aprendizado de máquina semissupervisionado para a descoberta e gestão de conhecimento em bases de dados.

  • Descrição: Algoritmos de aprendizado de máquina semissupervisionado têm ganhado notoriedade nos últimos anos por sua capacidade de, misturando dados rotulados e não rotulados, conseguir bom desempenho em uma vasta gama de aplicações. Existem, na literatura, diversos algoritmos que visam tanto à classificação semissupervisionada quanto ao agrupamento semissupervisionado de dados. Neste projeto, o objetivo é investigar e explorar algoritmos destas natureza para a obtenção e gestão de conhecimento em bases de dados. Em sua parte teórica, este projeto de pesquisa visa explorar pontos ainda em aberto do aprendizado de máquina semissupervisionado, como a incorporação de mecanismos incrementais em algoritmos de agrupamento semissupervisionado e o desenvolvimento e melhoria de métodos de aprendizado de distâncias em algoritmos de agrupamento e classificação semissupervisionada. Por sua vez, em sua parte de aplicações, este projeto visa à aplicação de algoritmos semissupervisionados em uma vasta gama de aplicações reais para as quais conta-se com bases de dados, como Mineração de Dados Educacionais, análise de dados e notícias da internet e dados oriundos de redes sociais. Nestas aplicações, será dada especial atenção a coleções de dados de instituições de ensino e dados relativos ao setor agropecuário e agroindustrial, de grande demanda no estado do Mato Grosso do Sul, auxiliando especialistas e usuários na gestão do conhecimento destes setores.
  • Coordenador: Bruno Magalhães Nogueira.
  • Membro participante do laboratório: Rafael Geraldeli Rossi, Ricardo Marcondes Marcacini.
  • Financiamento: N/A.
  • Duração: 2016-Atual.

Aprendizado não Supervisionado de Websensors aplicado em Desafios de Big Data para Agronegócios.

  • Descrição: Motivada pela diversidade de aplicações que podem ser derivadas por meio de algoritmos para extração de conhecimento da web, uma nova direção de pesquisa denominada Websensors tem como objetivo converter padrões extraídos de várias fontes da web em um conjunto de sinais, representado por meio de séries temporais, que permitem observar, estudar e monitorar o comportamento de um fenômeno de interesse. Devido ao grande volume de dados, variedade de fontes de informação e requisitos de velocidade para análise desses dados, os websensors são modelos computacionais com grande potencial para lidar com os desafios atuais relacionados à temática de Big Data; que recentemente tem recebido muita atenção na literatura e indústria pelos resultados promissores obtidos na resolução de tarefas complexas de tomadas de decisão. Nesse contexto, entre as atividades recentes desenvolvidas pelos membros do GEPIC (Grupo de Estudo e Pesquisa em Inteligência Computacional – UFMS), há um particular interesse em explorar websensors aplicado em desafios de Big Data para o domínio de agronegócios. Atividades prévias, como a coleta e organização de uma base de 14 anos de notícias (composta por milhões de registros) e resultados preliminares tem demonstrado que este é um caminho promissor. Dessa forma, a proposta geral deste projeto é utilizar conhecimento implícito em uma base histórica de milhões notícias sobre agronegócios no Brasil para aprender padrões, ao longo do tempo, que possam ser explorados para explicar o comportamento passado e predizer comportamento futuro no domínio de agronegócios, com apoio de algoritmos de aprendizado não supervisionado de máquina.
  • Coordenador: Ricardo Marcondes Marcacini.
  • Membro participante do laboratório: Rafael Geraldeli Rossi, Vitor Mesaque Alves de Lima.
  • Financiamento: Fundação de Apoio e Desenvolvimento do Ensino, Ciência e Tecnologia do MS.
  • Duração: 2016-2018.

Implantação e Desenvolvimento do Sistema de Gestão de Projetos SIGFAPDF.

  • Descrição: O objetivo geral do projeto consiste na adaptação do sistema SIGFAP e no desenvolvimento de novos módulos de acordo com as demandas da FAPDF (http://www.fap.df.gov.br) para o gerenciamento da divulgação, submissão, avaliação, e acompanhamento da execução de projetos de CT&I, pedidos de apoio a eventos, e projetos para implementação de bolsas DCR, Mestrado, Doutorado, bolsas institucionais, realização de eventos (entre outras modalidades) da FAPDF.
  • Coordenador: Márcio Aparecido Inacio da Silva. 
  • Membro participante do laboratório: Maxwell Sampaio dos Santos.
  • Financiamento: Fundação de Apoio e Desenvolvimento do Ensino, Ciência e Tecnologia do MS – Auxílio financeiro.
  • Duração: 2014-2017.

Aprendizado de Máquina para WebSensors: Algoritmos e Aplicações.

  • Descrição: A popularização de plataformas web para publicação de conteúdo textual tem motivado o desenvolvimento de métodos para extração automática de conhecimento implícito nos textos. Em particular, uma nova gama de estudos e aplicações tem sido proposta para explorar a web como um grande e poderoso “sensor social”, permitindo identificar e monitorar vários tipos de eventos a partir de textos publicados em portais de notícias e redes sociais, como detecção de epidemias, análise de sentimentos, e a extração de indicadores políticos e econômicos. Atualmente, a construção de um sensor da web (websensor) é uma tarefa complexa, pois depende de especialistas de domínio para definição dos parâmetros do sensor, isto é, expressões para busca, filtros e monitoramentos de conteúdo textual da web. A necessidade de especialistas de domínio geralmente limita as aplicações envolvendo websensors, uma vez que em muitos problemas não há compreensão clara dos fenômenos que se deseja monitorar. Em vista disso, neste projeto de pesquisa são investigados métodos de aprendizado de máquina para apoiar a construção automática de websensors. A ideia básica é utilizar uma amostra de documentos textuais do domínio do problema e, em conjunto com algoritmos de aprendizado de máquina semi/não supervisionados, extrair padrões dos textos e assim apoiar a construção de websensors. Dessa forma, espera-se reduzir a dependência de um especialista para definição dos parâmetros dos sensores. Cada websensor aprendido a partir dos textos representa um determinado fenômeno relacionado ao domínio do problema que, então, pode ser monitorado ao longo do tempo e utilizado para apoiar processos de tomada de decisão.
  • Coordenador: Solange Oliveira Rezende. 
  • Membro participante do laboratório: Ricardo Marcondes Marcacini, Rafael Geraldeli Rossi, Ivone Penque Matsuno Yugoshi, .
  • Financiamento: Fundação de Amparo à Pesquisa do Estado de São Paulo.
  • Duração: 2014-2017.

Agrupamento Hierárquico de Textos para Aprendizado não Supervisionado de Websensors.

  • Descrição: A popularização de plataformas web para publicação de conteúdo textual tem motivado o desenvolvimento de métodos para extração automática de conhecimento implícito nos textos. Em particular, uma nova gama de estudos e aplicações tem sido proposta para explorar a web como um grande e poderoso ‘sensor social”, permitindo monitorar vários tipos de eventos a partir de textos publicados em portais de notícias e redes sociais, como detecção de epidemias, análise de sentimentos, bem como a extração de indicadores políticos e econômicos. Por outro lado, a construção de um sensor da web (websensor) é uma tarefa complexa, pois depende de especialistas de domínio para definição dos parâmetros do sensor, ou seja, expressões para busca, filtro e monitoramento de conteúdo textual da web. A necessidade de especialistas de domínio geralmente limita essas aplicações, pois em muitos problemas não há compreensão clara dos fenômenos que se deseja monitorar. Neste projeto de pesquisa são investigados métodos não supervisionados de aprendizado de máquina, em particular, agrupamento hierárquico de textos para apoiar a construção automática de websensors. A ideia básica é utilizar uma amostra de documentos textuais do domínio do problema e, em conjunto com algoritmos de agrupamento hierárquico para extração de padrões dos textos, apoiar a tarefa de aprendizado não supervisionado de websensors. Dessa forma, espera-se reduzir a dependência de um especialista para definição dos parâmetros dos sensores. Cada websensor representa um determinado fenômeno que pode ser monitorado ao longo do tempo e utilizado para apoiar processos de tomada de decisão.
  • Coordenador: Ricardo Marcondes Marcacini. 
  • Membro participante do laboratório: Ivone Penque Matsuno Yugoshi, Ronaldo Fiorilo dos Santos, Franciene Duarte Gomes, Rodrigo Mitsuo Kishi, Vitor Mesaque Alves de Lima.
  • Financiamento: N/A.
  • Duração: 2013-2016.