Resumo da minha participação no 38º Congresso da Sociedade Brasileira de Computação (CSBC 2018)

1 Comment

De 23 a 26 de julho de 2018 participei do 38º Congresso da Sociedade Brasileira de Computação (CSBC 2018), em Natal, RN. Como de costume, de modo a me forçar a prestar atenção às apresentações e para tentar compartilhar o conhecimento com outros, escrevi breves resumos das apresentações que assisti. O CSBC é composto por vários eventos que ocorrem em paralelo, portanto fui escolhendo aqueles que achei que me seriam mais proveitosos.

 

Segunda-feira:

Fórum de Coordenadores de Programas de Pós-Graduação em Computação (Fórum PG):

Minha participação no CSBC se deu por conta deste evento: o encontro do Fórum de Coordenadores de PPGs em Computação, ligado à Diretoria de Educação da SBC. A reunião começou às 10:00, com breve fala de abertura feita pelo coordenador do fórum, prof. Adenilso Simão (ICMC/USP), relatando que o ano logo após a avaliação quadrienal é tranquilo e ressaltando duas atividades que ele acha que o fórum teria que começar a trabalhar: (a) verificar se todos os PPGs estão com seus coordenadores inscritos na lista do fórum; e (b) trabalhar num estatuto para o fórum.

Precisamos ter um referencial de competências para a formação do pesquisador no Brasil?

Na sequência, tivemos a palestra convidada Precisamos ter um referencial de competências para a formação do pesquisador no Brasil?, proferida pela profª. Dilmeire Vosgerau, da PUC-PR. Os slides usados pela profª. Dilmeire estão disponíveis aqui. Dilmeire relatou sobre sua pesquisa, que busca parâmetros que possam auxiliar mestrandos e doutorandos a olharem para a sua própria aprendizagem como pesquisadores; o orientador a refletir sobre sua aprendizagem ao longo da vida; e os programas a auto-avaliarem os processos de formação oferecidos.

Começou apresentando o contexto social: aumento de instituições credenciadas a oferecerem cursos de mestrado e doutorado; aumento do número de orientados por orientador; aumento das exigências na qualificação da pós; e tendência internacional de harmonização dos programas de 2º ciclo. Quanto ao contexto científico, mencionou a evolução da pesquisa em educação desde o século XVII e as várias metodologias possíveis em Computação (Gelain et al., 2014). Apresentou, então, algumas questões: um recém-doutor está apto a navegar pelas diversas metodologias e orientar seus futuros alunos nelas? Há certas condições que a pesquisa em educação precisa atender no século XXI (Van Der Maren, 2017), qual o grau de maturidade das pesquisas em Computação (Wazlawick, 2009 apud Gelain et al., 2014)? Dadas estas condições e maturidade e dadas as diferentes metodologias/abordagens, qual é a interseção?

Dilmeire falou então de uma pesquisa qualitativa que vem conduzindo, analisando referenciais de competência para pesquisadores, começando por instituições de língua francesa (Canadá, França, Suíça). As competências foram divididas nos eixos saber, saber-agir e saber-ser. Alguns resultados parciais:

  • Níveis: mestrado profissional, MSc, DSc;
  • Conhecimentos (saber): fundamentais (112 citações nos documentos analisados), metodológicos (70), técnicos (128), gestão (22) e pedagógicos (6). Os de maior incidência foram, então, re-categorizados:
    • Fundamentais: epistemologia científica (9), ética (13), epistemologia do campo de pesquisa (18), contexto (35);
    • Metodológicos: técnicas de análise de dados (8), concepção de produto (2), avaliação de produto (2), métodos de pesquisa (33), revisão sistemática (4), análise de produto (2), técnicas de validação (5), revisão da literatura (3), revisão narrativa (7);
    • Técnicos: base de dados de pesquisa – constituição (10), base de dados de pesquisa – acesso (11), ferramentas de edição (textos/imagens) (6), línguas (materna/outras) (33), recursos tecnológicos (20), análise de dados (10), sistematização (23), comunicação (3), avaliação (1), normas (11);
  • Saber-agir: confrontar/permitir confrontação (19), constituição de redes de colaboração (20), discussão dos resultados (4), gerir sua autoformação (13), agente de intervenção (8), análise crítica (15), publicação (1), projeção/aplicabilidade (2). Interessante ter encontrado apenas uma competência em publicação!
  • Saber-ser (do menor pro maior): negociação, flexibilidade, metacognição, autoconhecimento, motivação, tenacidade, rigor, empatia, adaptabilidade, autodisciplina, equilíbrio, escuta, ética, autocrítica, inovação, colaboração, comunicação, autonomia.

Dilmeire então concluiu com a pergunta-título da apresentação: precisamos ter um referencial de competências para a formação do pesquisador no Brasil? O material apresentado ficou de ser compartilhado com o coordenador do fórum via página do grupo de pesquisa: observatoriodepraticas.com.br.

Durante a discussão, foi citado um artigo que parece interessante neste contexto: Train PhD students to be thinkers not just specialists. Ressaltou-se também a importância da instituição ter um núcleo de apoio ao estudante para auxiliá-lo em competências gerais (ex.: metodologia de pesquisa). Sugeriu-se que ao final do curso de pós-graduação, o egresso deveria responder um questionário que o fizesse refletir sobre as suas competências (poderia ser incorporado a sistemas de acompanhamento de egressos em desenvolvimento).

Apresentação pela Diretoria de Educação da SBC

Na sequência houve uma breve fala da profª. Renata Araujo (UNIRIO), representando a Diretoria de Educação da SBC e o Comitê Especial de Educação para Pós-Graduação em Computação da SBC. Renata mencionou que a diretoria/o comitê possui duas pautas principais: currículo da graduação e currículo da pós-graduação. Mencionou também propostas para revisão do sistema de avaliação da pós-graduação nacional, que estão disponíveis online. Os próximos passos planejados são: discussão em fóruns de ensino em computação; proposta de referenciais para pós-graduação no CSBC 2019. Os slides usados pela profª. Renata estão disponíveis aqui.

Apresentação pelos Coordenadores do CA-CC CAPES

Passou-se a palavra para os novos coordenadores de área da Ciência da Computação na CAPES, recentemente eleitos, prof. Paulo Cunha (UFPE, coordenador do CA-CC na CAPES), prof. José Carlos Maldonado (ICMC-USP, coordenador adjunto CA-CC na CAPES para programas acadêmicos), prof. Avelino Zorzo (PUC-RS, coordenador adjunto CA-CC na CAPES para programas profissionais).

Paulo Cunha fez uma apresentação geral sobre o sistema de avaliação da pós-graduação no Brasil. A proposta atual vai até 2020, portanto estamos num momento de fazer melhorias e adequações. Falou das atividades dos representantes de área: APCN (Avaliação de Propostas de Cursos Novos), a avaliação quadrienal, PAEP (Programa de Apoio a Eventos no País), BEX (Bolsas no Exterior), AEX (Auxílio participação em Eventos no Exterior), Concurso de Teses da CAPES, acompanhamento anual, seminário de acompanhamento de meio termo, preparação de documentos, visitas a programas, reuniões com a comunidade, etc.

Em seguida, fez um panorama da área: quantidade de programas por nota, distribuição de notas por região do país, nota do programa pelo ano de criação (bem interessante, vou tentar obter os slides para disponibilizá-los). Mostrou também os consultores da última quadrienal e o percentual de consultores por nota (50% vem de cursos 3 e 4, 25% de cursos 7). Seguiram vários gráficos apresentando análises do resultado da avaliação quadrienal. Alguns destaques:

  • Número de docentes ativos por programa (média por nota) – interessante que esta média é crescente com a nota, contrariando a tese do “cortar na carne” para obter nota melhor na avaliação da CAPES;
  • Total de doutores/mestres formados por programa (média por nota) – também crescente por nota;
  • Doutores/mestres orientados por docente (média por nota) – o número de doutores orientados por docente cresce com a nota, mas o de mestres não tanto;
  • Formação de mestres e doutores anual;
  • Formação de mestres e doutores ao longo dos anos;
  • Número de publicações ao longo dos anos;
  • NxRestrito (sendo x = Periódicos ou Conferência, média por nota) – claramente crescente por nota;
  • NxGeral (idem);
  • Quantidade de publicações em periódicos e conferências por programa (média por nota);
  • Ix (sendo x = Restrito ou Geral, média por nota) – também crescente por nota;
  • Produção técnica dos mestrados profissionais.

Por fim, apresentou um planejamento para 2018-2021. Os desafios são: potencializar a formação; expansão e fortalecimento da área; transformação do conhecimento para a sociedade; valorizar a interdisciplinaridade; fortalecer a internacionalização; avaliar qualitativamente; excelência nacional e internacional; aumentar a transparência. Nos slides, se disponibilizados, há um detalhamento de cada desafio. Resumiu o planejamento em uma frase: “buscar a excelência com relevância”.

Passou então a palavra ao Maldonado para falar sobre o grupo de trabalho sobre avaliação bibliográfica e técnica da área. O GT é coordenado pelo Adenilso Simão (ICMC-USP), que também é coordenador do fórum, e possui alguns princípios básicos: promover visão ampla dos veículos e seus impactos, estabelecer normalização por subárea, valorizar a produção nacional, contribuições interdisciplinares, relação teórica x aplicada e o impacto socioeconômico. Maldonado citou também o possível uso de ferramentas de inteligência corporativa para análise de índices interessantes, como o ScriptLattes (produção), genealogia acadêmica, colaboração endógena e exógena nacional/internacional. Depois foi a vez de Avelino falar sobre mestrado/doutorado profissional (como não temos na UFES, acabei não anotando os detalhes).

Abrindo para discussão, falou-se que o sistema de avaliação atual está exaurido e isso é consenso de várias entidades. No entanto, não devem haver mudanças significativas para o próximo quadriênio, que fecha o período do sistema atual (1998-2020). Como representantes de área, o CA-CC tenta levar a visão da área de Computação, mudar o que for possível agora e influenciar o novo sistema que virá.

Discussão sobre avaliação qualitativa de produção científica e tecnológica

Após o almoço e o painel do SECOMU (descrito a seguir), retornamos para o fórum para uma discussão sobre avaliação qualitativa de produção científica e tecnológica. A discussão contou com a participação de vários coordenadores, que emitiram suas opiniões, algumas no estilo “abaixo o Qualis”, algumas no sentido de tentar implementar pequenas mudanças possíveis agora.

Na minha visão, dois indicativos que transpareceram da reunião:

  1. A avaliação qualitativa da produção científica deverá envolver uma discussão dos veículos relevantes de cada área nas comissões especiais da SBC. Nesse sentido, é muito importante que todos os docentes interessados em contribuir na discussão de quais veículos são mais relevantes para sua área de pesquisa entrem em contato com o coordenador da comissão especial desta área e peça para entrar na lista de discussão desta comissão. Caso não exista ou não seja utilizada, devem sugerir que seja, por conta desta discussão;
  2. Aumento da importância da produção técnica: mostrar inovação e impacto na sociedade tem ganhado cada vez mais importância (como poderá ser visto ao longo do relato das demais atividades do CSBC).

Discussão sobre problemas com sistemas de gestão

Na sequência, Adenilso mencionou que vários coordenadores de PPG possuem esforços individuais na produção de ferramentas e sistemas que facilitem a gestão do programa e que achava que isto deveria ser centralizado, para se unir esforços. Pensou em usar o fórum para promover esta centralização.

No entanto, antes que pudesse fazer tal proposta ao fórum, ficou sabendo que a SBC já possuia um esforço neste sentido, englobando ferramentas de gestão acadêmica e outros artefatos cujo compartilhamento seria interessante e benéfico à comunidade de Computação. Adenilso iria solicitar a criação de uma categoria para sistema de gestão de pós-graduação. Foi marcada uma reunião sobre este assunto durante o CSBC (meu relato sobre ela pode ser visto mais adiante).

Eleição para coordenação do fórum para 2018-2019:

O mandato do coordenador do fórum termina sempre na reunião que ocorre no CSBC, portanto o último ponto de pauta foi a eleição da coordenação. Adenilso já havia se proposto a continuar, sendo reconduzido ao cargo. No entanto, o vice-coordenador, Marcelo Fantinato, encontra-se afastado no exterior para ano sabático e, portanto, pediu para ser substituído. Após breve debate, foi eleito para vice-coordenação o prof. José Augusto Suruagy Monteiro, da UFPE.

Seminário de Computação na Universidade (SECOMU):

No início da tarde, assisti o painel Outras Dimensões para Avaliação da Pesquisa em Computação, com os seguintes painelistas: Antônio Abelém (UFPA), José Roberto Boisson de Marca (PUC-Rio) e Edson Watanabe (UFRJ). O painel foi moderado por Edmundo Souza e Silva (UFRJ).

Por conta de o Fórum PG ter avançado um pouco a hora do almoço, cheguei atrasado e o painel já havia começado. Quando cheguei, Abelém estava falando da posição ruim que o Brasil se encontra no ranking internacional de inovação (por volta do 70º no mundo, 7º na América Latina). A academia tem um papel fundamental na geração de inovação, apesar de não ser nossa obrigação (que é gerar conhecimento). No entanto, a forma de avaliação atual não contribui para isso.

Em sua fala inicial, Boisson opinou que os critérios de avaliação devem incentivar ciência de bom nível (resultados com impacto, que é diferente de popularidade), desenvolvimento tecnológico do país e crescimento da economia. Contagem de artigos não deve ser utilizada de forma alguma. Métricas de avaliação não devem ser facilmente manipuladas por indivíduos ou grupos e não podem incentivar comportamentos antiéticos. Devem usar critérios que sejam corroborados por dados. Critérios de avaliação devem levar em consideração a área de atuação do pesquisador, sua fase na carreira e ter uma visão holística da contribuição profissional dos pesquisadores.

Alguns exemplos de critérios que podem ser usados na avaliação de um pesquisador: seu trabalho teve impacto significativo no seu campo de trabalho e/ou resultou em aplicações de valor? As patentes, inovações e resultados de pesquisa contribuem pra resolver problemas na indústria, criação de empresas ou bem estar social? Dentre outros. Concluiu com uma fala dizendo que a mudança desses critérios por parte das agências só depende de nós. Ao invés de comodamente seguir o que a CAPES diz, temos que ter vontade política para mudar o que a CAPES diz, pois a CAPES somos nós.

Em seguida, passou-se à fala de Watanabe que disse que, como tudo na vida, avaliação é um algoritmo. Todo algoritmo tem um objetivo, então qual é o objetivo da avaliação? Parecemos não saber. Hoje em dia pegamos muitos dados e mapeamos para uma nota de 1 a 7 de uma forma que não é muito objetiva, nem justa. Existem tipos de pesquisa diferentes (teóricas, aplicadas, sociais, etc.), seria possível medir todas pela mesma régua? O que se espera da pós-graduação? Ensino, pesquisa e extensão (apesar da última ser mais esquecida). Onde entra a inovação (produção científica que produz ganho econômico, é aceita pelo mercado)? Talvez na extensão. Atualmente não temos método para avaliação do ensino. Temos um para pesquisa, porém muito criticado. Para inovação, tentamos avaliar sem saber como ou não avaliamos.

Mencionou o Technology Readiness Level da NASA como um critério de avaliação de inovação que vai de 1 a 9. Teses de doutorado geralmente ficam nos níveis 3 e 4. Universidades e Institutos de Pesquisa atuam ali, no máximo até o nível 6. Quem vai atuar nos níveis 5 a 9? Grandes empresas? Concluindo, devemos definir quais são os objetivos da avaliação, depois definir a régua para medi-la. Há uma forte pressão para a pós-graduação trazer retorno para a economia, o que é natural, porém isso exige interdisciplinaridade e o Qualis aniquila isso. Precisamos definir uma linguagem de consenso para a avaliação de modo a aumentar a confiança. Deixou então um desafio: já que a avaliação é um algoritmo, por que não a SBC se debruçar sobre o tema e definir um mais preciso?

Após a apresentação inicial dos painelistas, abriu-se para discussão. O prof. Nivio Ziviani (UFMG) discorda de Abelém com relação à desobrigação da academia em gerar inovação. Disse que somos obrigados sim a produzir conhecimento que gera inovação. Abelém disse apenas que são pontos de vista diferentes, a inovação vem do empreendedor, que usa o conhecimento de qualidade produzido pela academia. Este é o papel fundamental nosso na geração indireta de inovação. Watanabe complementou que precisamos na Academia de um programa de iniciação à inovação em paralelo com a iniciação científica.

No contexto de uma pergunta sobre o Qualis, Watanabe mencionou uma pesquisa de 2008 (The Neurobiology of Trust) que indicava que o nível de confiança uns nos outros no Brasil era de aproximadamente 2%. Ele acha que isso está na base dos problemas, inclusive da avaliação da pós-graduação. Ele acha que devemos trabalhar nisso, inclusive no nível de comunicação em português, pois nós não estamos nos entendendo, usamos muitas entrelinhas (sugeriu que fizéssemos como os portugueses, que são mais literais).

Matheus (aluno do IFRN), de 17 anos, perguntou qual sugestão o painel daria para que os jovens hoje já comecem a se direcionar à inovação e não ao concurso público. Abelém indicou que o primeiro passo é encontrar um problema que as pessoas estejam dispostas a pagar pela solução. Boisson indicou paixão e ousadia como componentes essenciais. Watanabe, de modo irreverente como desde o início, falou que é preciso apostar, perseverar quando as coisas derem errado, ser ousado, criativo e, apesar de não ser religioso, ter fé.

Fábio (IME-USP) questionou se parte do problema não é a forma como se distribui recursos financeiros aos programas de pós-graduação. Não seria o caso de abolir completamente o Qualis, o PROEX e o PROAP e apoiar bons projetos de pesquisa de bons pesquisadores. Abelém concorda em uma redefinição do Qualis, algo que evitasse de um lado ser tendencioso e do outro virar um alvo suscetível a fraudes. Boisson comentou que há mérito na avaliação dos PPGs, porém concorda que o apoio financeiro à pesquisa deveria seguir o modelo de grants. Watanabe mencionou novamente a questão de desconfiança como um problema na definição de um sistema de avaliação.

Marcelo (Fatec-SP) questiona se dividir o sistema de avaliação em “caixinhas” (inclusive uma “caixinha” para programas multidisciplinares) não estaria matando a inovação. Todos do painel concordaram que a interdisciplinaridade é essencial hoje em dia, em especial para inovação.

 

Terça-feira:

Workshop sobre Educação em Computação (WEI):

Na terça de manhã assisti o painel Reclassificação de cursos de educação superior em Computação. A profª. Renata Araujo (UNIRIO), Diretora de Educação da SBC, explicou que o painel visa falar com a comunidade sobre a classificação de cursos que o INEP (Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira) vem fazendo para se alinhar à norma internacional International Standard for Classification of Education (ISCED). Por meio de chamada pública, o INEP firmou parceria com Universidade Federal do Rio Grande do Norte (UFRN), no painel representada pelo prof. Leonardo Bezerra, que é o responsável pela área da Computação no processo de reclassificação.

Passou-se a palavra para o prof. Leonardo, que explicou que o objetivo desta classificação é permitir estatísticas nacionais e internacionais mais precisas e auxiliar no processo de avaliação dos cursos superiores, apresentando alguns casos em que uma má classificação trouxe problemas nas análises feitas. Em seguida, apresentou a classificação internacional ISCED-F 2013 e uma tradução da mesma feita pelo INEP. Apresentou já algumas questões/críticas em relação à classificação:

  • Engenharia de Computação encontra-se na área geral das Engenharias, mas ao menos especifica que a DCN (Diretrizes Curriculares Nacionais) é de Computação, para evitar problemas de avaliação de cursos que cursos de Engenharia de Computação tinham;
  • O nome da área geral é Tecnologias da Informação e Comunicação (TIC), mas as áreas específicas de Tecnologia de Comunicação (Telecom) também se encontram nas Engenharias;
  • A ISCED é usada para outros cursos não-superiores, a proposta do INEP seria só pra cursos superiores então algumas categorias não faziam sentido (ex.: uso do computador);
  • A área detalhada “Ciência da Computação” encontra-se na área específica “Desenvolvimento e análise de software e aplicações”, o que é uma inversão de conceitos;
  • Existência de uma categoria “outros”, com o item “Inteligência Artificial”, que não souberam onde colocar. O ideal seria não ter uma categoria “outros”, pois cria um caminho fácil para encaixar algo que é um pouco mais difícil de categorizar.

Leonardo enviou para a SBC para feedback, já adaptando para tentar resolver as questões acima e seguindo os nomes de cursos do Catálogo Nacional de Cursos Superiores de Tecnologia. Ao enviar à SBC, indicou que o projeto tinha como restrição não modificar nomes de área geral e específica para manter a comparação com o padrão internacional, porém que a SBC ficasse à vontade para enviar a classificação que achasse ideal.

Voltou a palavra então à profª. Renata para relatar como foi o processo da SBC de analisar a classificação entregue pela UFRN/INEP e dar feedback. A SBC resolveu propor a classificação que achava ideal, mesmo sem respeitar as restrições, por posição política, visto que tal posição entraria nos documentos do processo de classificação, ainda que não fossem usados desta forma no final por conta das restrições.

Como críticas, portanto, à classificação da ISCED, a Diretoria de Educação da SBC considerou que a classificação: (1) desconsidera a Computação como ciência; (2) força a abrangência de Tecnologias de Informação e Comunicação como formação; (3) possui área geral e específica com mesmo nome; (4) desconsidera programas interdisciplinares com a Computação; (5) possuía área detalhada “Uso do Computador” sem correspondência no cenário nacional da educação superior; (6) define classificação hierárquica, que cria obstáculos à evolução dos cursos.

Baseada, então, nos Referenciais de Formação para os Cursos de Graduação em Computação, fez a proposta abaixo, que se encontra disponível a partir de link nos slides (se forem disponibilizados, colocarei aqui):

  • Área Geral: Computação:
    • Área Específica: Tecnologias da Computação:
      • Área Detalhada: Ciência da Computação;
      • Área Detalhada: Gestão e Desenvolvimento de Sistemas de Informação;
      • Área Detalhada: Produção de Software, Desenvolvimento de Sistemas de Computação.
    • Área Específica: Tecnologia da Informação e Comunicação (TIC):
      • Área Detalhada: Uso de TIC;
      • Área Detalhada: Infraestrutura e Gestão de TIC.
    • Área Específica: Computação e outras Ciências:
      • Área Detalhada: Desenvolvimento de Soluções Computacionais em Domínios Específicos;
      • Área Detalhada: Programas Interdisciplinares.
    • Área Específica: Ensino de Computação:
      • Área Detalhada: Formação de Professores em Computação.

O prof. Leonardo então prosseguiu, explicando como o processo seguiu após o feedback da SBC, tendo que ajustar a classificação proposta às restrições do projeto. Explicou que “Computação e outras Ciências” e “Ensino de Computação” continuaram contemplados fora da Computação. Os demais foram contemplados dentro da área geral “06 TIC”, área específica “061 TIC” (pois os nomes de áreas gerais e específicas não poderiam ser mudados), conforme a foto abaixo.

Abriu-se então para debate da comunidade de computação presente. Houve muita manifestação com relação às restrições que impedem que Computação seja uma área geral em si e não uma área detalhada dentro de TIC, porém o prof. Leonardo indicou que não conseguiu mudar isso, mesmo com a posição da SBC fortalecendo o argumento. O INEP respondeu que a mudança tem que ocorrer no ISCED, ou seja, pela UNESCO. Renata finalizou o painel fazendo um apelo à toda a comunidade de Computação, que participe, em especial via SBC, da pressão por um sistema de classificação que seja mais fiel à realidade de nossa área.

Seminário de Computação na Universidade (SECOMU):

No início da tarde assisti o painel Tripla Hélice 2.0: Empresas Inovadoras, Capital de Risco e a Academia, composto pelos painelistas Nivio Ziviani (UFMG), André Ferraz (InLoco Midia); Carlo Dapuzzo (Monashees+) e moderado por Edleno Silva de Moura (UFAM).

Edleno começou o painel introduzindo o conceito de tripla hélice, uma proposta que reconhece que o processo de inovação é impulsionado por três atores principais: governo, empresas e academia, e que passou a reconhecer o papel da academia no processo de inovação (no contexto dos EUA). Para o painel, a “Tripla Hélice 2.0” seria composta por capital de risco (no lugar do governo), empresas inovadoras (adjetivo incluído) e academia (que se mantém).

Edleno mencionou, então, algumas experiências da UFAM no fomento de startups e discutiu um pouco do cenário brasileiro: universidades cada vez mais fortes, indústria de capital de risco amadurecendo e docentes interessados neste aspecto. Trouxe para discussão dos painelistas a questão da aversão ao risco e mencionou as questões que estão na chamada do painel (vide aqui). Questionou também se não precisamos de mais atores na hélice: mídia, usuários, governo.

Primeiro painelista a falar, André apresentou a InLoco e seu histórico. A empresa, que começou como um trabalho de graduação na UFPE, tem como objetivo indexar o comércio feito no meio físico. A tecnologia da InLoco permite localização com alta precisão mesmo em ambientes fechados (não é baseada apenas no GPS) e com baixo consumo de bateria. +700 aplicativos usam a tecnologia da InLoco para localização, o que faz com que a InLoco tenha 60 milhões de usuários no Brasil, 80+ milhões no mundo.

A empresa começou com 6 alunos de Computação que abandonaram seus cursos, trabalharam 3 anos sem ganhar um centavo e tendo produzido 3 produtos antes do InLoco que não obtiveram nenhuma tração. Sobre a interação com as universidades, tem contato muito forte com a UFPE (3 professores trabalhando com projetos de pesquisa lá dentro, dezenas de trabalhos de graduação, mestrado e doutorado, incentivos para funcionários que queiram fazer pós-graduação), projeto de pesquisa na área de privacidade diferencial com a UFCG e parceria com FGV+FDC sobre dados para análises de negócios. Disse que estão abertos para novas propostas, mirando principalmente na área de IoT.

Na sequência, Carlo começou lembrando da intervenção do prof. Nivio no painel do dia anterior, tendo ficado muito animado com a perspectiva de as universidades assumirem a responsabilidade de produzirem valor por meio da inovação. Falou do papel importante do venture capitalist (VC) no processo de inovação, de como este processo vem crescendo no Brasil e sobre a inovação em si, tendo dois tipos principais: uma nova tecnologia que é transformada em produto (ex.: Google) e um novo uso para tecnologias já consolidadas (ex.: Uber). O processo passa pela integração entre academia e indústria e sua opinião é que a grande ponte hoje em dia são as startups, para que não fiquemos todos “dependentes das poucas EMBRAERs que temos no Brasil”. Sua visão é que o panorama de estudar para passar em concurso está lentamente mudando. Concluiu com um dado sobre este momento que estamos vivendo no Brasil: quando EUA, China e Índia tiveram a primeira grande saída de capital (por venda ou por IPO), isso representou .05% do PIB destes países. Recentemente houve uma venda de uma startup brasileira para uma empresa Chinesa e que também representou .05% do PIB brasileiro.

Por fim, o prof. Nivio começou trazendo dados da produção científica brasileira, que passou de 1,2% para 2,7% da produção mundial em 20 anos, porém não gera PIB nesta mesma proporção. Para comparação, trouxe dados de P&D entre EUA, Coréia e Brasil, sendo que as duas primeiras têm em sua maior parte P&D em empresas (por volta de 80%), enquanto no Brasil estes 80% estão nas universidades, e o que é desenvolvido em empresas é muito concentrado em poucas empresas. Trouxe números de geração de PIB por startups advindas da academia nos EUA que são impressionantes, só MIT e Stanford geraram trilhões de dólares.

Trazendo para a realidade brasileira, relatou da sua experiência com três grandes ondas:

  • Metabusca: gerou a Miner, nascida de uma dissertação de Mestrado e que foi adquirida pelo Grupo Folha);
  • Busca: gerou a akwan, nascida de pesquisa envolvendo vários professores e a tese de doutorado do Edleno, moderador do painel, sendo adquirida pela Google; e a neemu, nascida do trabalho de Nivio, Edleno e Altigran (UFAM) e mais quatro alunos, vendida pra LINX;
  • Aprendizado de máquina: gerou a kunumi, que visa fazer a ponte entre negócios e aprendizado de máquina, com escopo de atuação em arte, engenharia, finanças, saúde, seguros, dentre outros.

Passando às perguntas que motivaram o painel, por que ter relacionamento com a universidade? Para gerar tecnologia de ponta a partir do estado-da-arte isso é fundamental. A UFMG, após uma longa briga, conseguiu por meio de uma peça jurídica ter o usufruto de 5% das ações, sem direito a voto e sem participar no caso de dívidas. Hoje isso tem mais segurança jurídica por conta do decreto 9.283 07/02/2018 (citou em particular os artigos 6, 11 e 37). Ele é da opinião que as universidades devem transferir 100% da propriedade intelectual para as startups, para que estas possam buscar investimentos.

Iniciando a fase de debate, fiz a primeira pergunta: quais dicas os painelistas dariam para que professores da pós-graduação cheguem às empresas com esta mentalidade de startup (a exemplo de PicPay e Wine.com.br no ES) e estabeleçam parcerias de pesquisa? André acredita que nas startups há pouquíssima burocracia e basta mandar e-mail, inclusive se colocou à disposição para conversar conosco caso haja algum assunto de interesse comum. Edleno também acha que basta correr atrás, mostrando o valor da pesquisa, pois hoje em dia há muitas empresas buscando esta parceria e algumas delas nem conseguem. Nivio defendeu a criação da riqueza dentro da universidade ao invés de correr atrás de empresas para compartilhar o conhecimento. Por fim, Carlo acha importante levar os casos de sucesso em parcerias para motivar as empresas.

Questionou-se sobre o papel de cada ator da hélice, pois há muita confusão sobre o assunto, e qual seria o ambiente mínimo para a inovação. Nívio acha muito importante trabalhar junto ao núcleo de inovação da universidade (geralmente sob a pró-reitoria de pesquisa) para disseminar os conceitos de inovação. André acredita que o ambiente no Brasil melhorou muito e vem se estabelecendo e que as condições mínimas seriam um computador na Internet, vontade de empreender e de assumir riscos.

A questão seguinte mencionou o fato de, em muitos casos, após um breve crescimento as startups são vendidas para empresas estrangeiras, eventualmente caindo nas mãos dos grandes grupos americanos e chineses. Como, então, manter estas grandes empresas no Brasil? Edleno acredita que este processo é natural e vai começar a acontecer, pois já vê isso acontecendo com startups brasileiras querendo crescer para serem compradoras e outras sendo compradas por grandes empresas brasileiras. Carlo também acha que é uma questão de tempo para que os empreendedores brasileiros mudem de paradigma para continuarem donos de seus negócios, mesmo após a abertura de capital.

A última pergunta mencionou a resistência ideológica que muitas universidades ainda possuem em seus quadros administrativos, que consideram que esta geração de riqueza pela universidade é uma forma de privatização. Como lidar com este obstáculo? Nivio acredita que este tipo de pensamento já mudou muito de 20 anos pra cá e que o que foi falado neste painel pode ser usado como base para conversar com a administração das universidades para mudar a realidade, caso a posição ideológica seja o caso. Edleno acredita que a argumentação a se fazer é que o processo de inovação na verdade é o que vai afastar a privatização, pois manter como está é o que vai levar as universidades a serem privatizadas.

Reunião CNPq/CAPES:

No final da tarde, assisti à reunião CNPq/CAPES, que foi moderada pela profª. Renata Araujo (UNIRIO), com participação do prof. Paulo Cunha (UFPE, coordenador do CA-CC na CAPES), prof. José Carlos Maldonado (ICMC-USP, coordenador adjunto CA-CC na CAPES para programas acadêmicos), prof. Avelino Zorzo (PUC-RS, coordenador adjunto CA-CC na CAPES para programas profissionais), prof. Nelson Fonseca (coordenador do CA-CC no CNPq) e o prof. Alexandre Sarmento (coordenador do CA-TICs, que engloba o CA-CC no CNPq).

Paulo Cunha apresentou os mesmos slides que havia apresentado já ao fórum de coordenadores de pós-graduação, na segunda-feira de manhã (já relatado no início). Maldonado complementou dizendo sobre a importância da parceria entre a CAPES e a SBC, em especial por meio de suas Comissões Especiais. Avelino reforçou a questão da produção técnica, que será avaliada não só nos programas profissionais, mas também nos acadêmicos, dada a importância que a transferência de tecnologia vem ganhando (vide este congresso da SBC). A avaliação será feita provavelmente de forma qualitativa e o CA-CC precisará do apoio da comunidade, em especial em termos do relato desta produção nos currículos e propostas de programa. Além disso, ressaltou que a avaliação dos PPGs não se resume apenas à avaliação da produção bibliográfica, há muitos outros fatores e todos são considerados.

Nelson Fonseca falou do financiamento da pesquisa no país, mencionando que não houve muita mudança no financiamento de eventos. Sobre bolsas, mencionou pouca demanda do doutorado sanduíche no Brasil, o que é uma oportunidade para firmar parcerias entre grupos nacionais; mencionou a baixa qualidade de pedidos de doutorado pleno no exterior (comparou-o com uma continuidade do Ciência Sem Fronteiras, se referindo aos casos de alunos despreparados), muitos aplicantes não seriam aprovados nem nos processos seletivos dos cursos de doutorado brasileiros e quase 100% dos pedidos são negados. Sobre o PQ, relatou que com o corte de verbas as bolsas que serão alocadas serão apenas aquelas que forem liberadas por outros pesquisadores. Falou que a avaliação do PQ é muito dinâmica e comparativa, portanto o perfil do pesquisador que é contemplado com cada nível de bolsa PQ muda, pois a ciência brasileira avança. No último julgamento, inclusive, houve vários casos de rebaixamento de PQs nível 1. Por fim, fez um apelo aos pareceristas ad-hoc que melhorem a qualidade dos pareceres.

Por fim, Alexandre Mota começou sua fala avisando que a Plataforma Carlos Chagas está instável e não está funcionando bem. O presidente do CNPq disse que tem esperança que até o final do ano estabilize. Também reforçou a fala sobre os pareceres ad-hoc, muitos dos quais estão com péssima qualidade. Em seguida, trouxe alguns números de 2017: 384 bolsas PQ recomendadas, 132 vagas disponíveis (aprovadas); 92 bolsas DT solicitadas, 34 recomendadas, 27 vagas (aprovadas). Ressaltou falta de entendimento quanto ao propósito do DT, que não é para quem faz pesquisa, mas sim inovação tecnológica (patente, envolvimento com startups, etc.). Bolsas PDI, PDS, PV, SWI E SWP tiveram poucas solicitações, menos recomendações ainda e nenhuma aprovada. PDJ teve 53 recomendações, 34 recomendações e 21 aprovações. ARC: 34 / 27 / 20.

Alexandre então passou para uma série de avisos, com a sinceridade clássica dele, e um atrás do outro e de forma muito rápida (não sei se peguei tudo):

  • A comunidade de Computação deveria brigar mais, pois perde verba por conta de outras áreas serem mais fortes (citou a substituição do coordenador da antiga CPING, atual CPOD, que era técnico e foi substituído por um político);
  • “Sempre falei pra quem quiser ser PQ, mate um PQ. Agora vou dizer pra não matar, pois a gente perde a vaga”;
  • As bolsas de DT subiram no telhado;
  • Os alunos formados na graduação deveriam term mais pé na realidade ao concluírem seus cursos (mais experiência prática);
  • Relatou que conseguiu R$ 10 milhões de empresas para editais CNPq em TIC e não puderam incorporar a verba ao orçamento do CNPq por causa da PEC do teto (que vale por 20 anos, a propósito). Por conta disso, vai doar as empresas às FAPs locais para que estas façam os editais que o CNPq queria fazer;
  • Mencionou que há bolsas DTI disponíveis e sugeriu que se tivermos alunos sem bolsa, devemos pedir;
  • Acha também que não haverá cortes no Universal e que pela nova lei haverá liberdade de 20% do orçamento (só não pode transitar entre capital e custeio), mas com muita fiscalização em cima;
  • Pediu que a comunidade vote na eleição dos novos membros do CA-CC CNPq e que ser mulher é ponto positivo na eleição;
  • Também está previsto um edital para mulheres nas ciências exatas e na Computação;
  • A partir de agora, prorrogação de PDJ não é mais trivial.

Lisandro perguntou se um pesquisador que entrega pareceres ruins pode ser prejudicado em seus pedidos. Alexandre respondeu que não. A única regra que existe é: a cada 3 pareceres não entregues, 1 mensalidade é cortada. Lisandro perguntou também sobre os dados de cada área para comparação, Alexandre sugeriu que ele solicitasse via Lei da Transparência. Aproveitou para sugerir que a comunidade de Computação aumente a demanda de PQ e Universal, pois a demanda de cada área influencia a quantidade de verbas recebida pela área.

Perguntou-se também sobre o que a comunidade de Computação poderia fazer para obter mais verba de fomento. Alexandre mencionou novamente a questão do secretário do CPOD que deveria ser alguém da comunidade. De maneira geral falou-se da importância de se reclamar dos cortes que estão sendo feito em Ciência, Tecnologia e Inovação de maneira geral. Precisamos nos organizar e sermos proativos. Fazer diagnóstico da área, ter planejamento e mostrar a importância da área por meio de casos de sucesso. Ressaltou-se que a comunidade poderia divulgar muita coisa nas mídias sociais.

 

Quarta-feira:

Workshop Brasileiro de Cidades Inteligentes (1º WBCI):

O Workshop começou com a palestra do Prof. Fabio Kon (IME-USP), com o título Projeto InterSCity – Ciência e Computação a serviço das cidades. O interesse do projeto é a construção de uma plataforma para desenvolvimento de cidades inteligentes, completamente open source, com foco em pessoas, populações de baixa renda, países em desenvolvimento e regiões não privilegiadas das cidades. O projeto conta com 8 universidades diferentes, 35 professores de Computação, além de arquitetos, planejadores urbanos, economistas, profissionais da saúde e engenheiros de transporte, bem como secretarias da prefeitura de São Paulo.

O projeto se divide em 3 linhas de pesquisa — Engenharia de Software, Modelagem Matemática/Analítica e Redes/Processamento Distribuído — e três níveis — infraestrutura, middleware e serviços. O projeto começou com uma pesquisa sobre arquiteturas de referência para plataformas de sofware para cidades inteligentes, publicado no ACM Surveys. A plataforma está em desenvolvimento e já possui alguns componentes prontos, descrita em um artigo publicado no SmartGreens 2017 e com código todo disponível no GitLab. Há um foco particular em escalabilidade, tendo sido desenvolvida uma metodologia para verificação e obtenção da escalabilidade nas soluções propostas.

Atualmente estão trabalhando em incluir processamento de Big Data (Machine Learning) na plataforma. Está sendo desenvolvido também um simulador, que atualmente consegue simular 14 milhões de objetos (carros, pedestres, ônibus, metrô, bicicletas) em tempo real, baseado em dados de trânsito da prefeitura e que permite análise de impacto de mudanças na infraestrutura de transporte. Demonstrou também alguns subprojetos em andamento com as secretarias da prefeitura de São Paulo, como o Free Wheels e o Health Dashboard.

O projeto tenta incentivar a criação de startups por meio de hackatons e outras iniciativas, tendo já realizado spin-off de uma empresa chamada Scipopulis, que já desenvolveu um aplicativo para previsão em tempo real da chegada de ônibus e já vendeu licença de 2 anos por R$ 1 milhão para uso de um dashboard para a prefeitura.

Na sessão técnica, assisti apenas a primeira apresentação, feita por Mateus Belizario (UTFPR), do artigo
Arquitetura para Construção de Índices Ambientais Apoiada por Ontologias: um Estudo Exploratório sobre Qualidade do Ar. O objetivo é propor uma arquitetura que visa realizar o tratamento de índices de forma semântica para homogeneizá-los e integrá-los. A arquitetura tem 4 camadas: coleta de dados; atribuição de semântica; serviço e aplicação. Foi realizado um estudo de caso com dados do Instituto Ambiental Paranaense. A coleta de dados foi feita por meio de dados disponibilizados pelo IAP em PDF e CSV. A atribuição de semântica foi feita por meio de uma ontologia operacional, construída a partir dos dados coletados (ou seja, bottom-up). A camada de serviço é baseada em consulta SPARQL em cima de um banco de triplas. Os desafios encontrados no trabalho foram relativos ao fluxo de dados e à proveniência dos mesmos.

Portal de Software Livre da SBC:

Foi organizada durante o congresso uma reunião sobre uma possível iniciativa da SBC de promover a colaboração dos membros da sociedade de Computação na produção de software e outros materiais úteis no contexto acadêmico. A sessão foi coordenada por Rodolfo Azevedo (UNICAMP).

Uma parte da iniciativa seria montar um diretório de softwares livres que possam ser úteis no contexto acadêmico. Foram listados vários softwares já disponíveis, como sistemas de gestão de projetos científicos, sistema de controle para PPGs, scriptLattes. Mencionei também o meu projeto, o Marvin, adicionando à lista. Em particular, o Fórum de Coordenadores de Programas de Pós-Graduação (PPG) em Computação solicitou que haja algum sistema de tag que identifique aqueles que são úteis para a gestão de PPGs. A iniciativa poderia cobrir outros tipos de material, como slides, tutoriais, vídeos, conjuntos de dados, softwares relacionados à pesquisas (que permitam a reprodutibilidade de resultados científicos), etc. Foram citadas iniciativas interessantes também neste aspecto em âmbito internacional.

Próximos passos: montar uma versão inicial do portal com os primeiros itens (citados na reunião e outros que forem reportados nos próximos dias) e começar a atrair pessoas que estejam interessadas em colaborar ou que estejam interessadas em usar o material disponibilizado.

 

Quarta-feira:

Workshop sobre Educação em Computação (WEI):

Luiz Otávio Ramos Gavaza apresentou o artigo Percepção de estudantes sobre motivação e aprendizagem em Teoria da Computação com PBL. Motivou o trabalho mencionando desafios na condução de disciplinas, como motivação dos estudantes, absorção do conhecimento, interdisciplinaridade intrínseca à Computação e, em particular, alto nível de abstração da Teoria da Computação. Normalmente nas instituições esta disciplina é dada de forma expositiva e não há avaliações de outras técnicas para a mesma. Propõem, então, aplicar PBL nesta disciplina e avaliá-la como uma nova forma de oferecer esta disciplina. A experiência foi feita no curso de Computação da UFBA com uma abordagem híbrida: 26 horas de PBL, 32 horas expositivas e 10 horas para outras avaliações, turma com 50 estudantes divididos em grupos de 5-10 participantes. Os estudantes contribuiram para a pesquisa com o preenchimento de questionários sobre a aplicação do PBL na disciplina. Apesar da dificuldade de motivar os alunos a contribuirem com a pesquisa (falta de cultura de pesquisa neste contexto), o resultado da aplicação do PBL foi avaliado como positivo. Os problemas utilizados estão disponíveis.

Ayala Lemos Ribeiro apresentou o artigo Análise da Motivação em um Estudo Integrado de Programação Baseado em PBL. O trabalho reporta experiência da disciplina de Estudo Integrado de Programação, parte do currículo de Engenharia da Computação da Universidade Estadual de Feira de Santana. A motivação do trabalho é a desmotivação, reprovação e evasão do curso na transição do primeiro para o segundo semestre, quando os alunos são apresentados à programação OO (Java), tendo aprendido programação estruturada (C) anteriormente. Na pesquisa, utilizaram o modelo ARCS (Atenção, Relevância, Confiança, Satisfação) (Keller, 1987) para avaliar a motivação dos alunos, usando como instrumento o IMMS (Instructional Materials Motivation Survey), aplicando-o a 25 alunos em uma oferta da disciplina em um semestre. As respostas dos alunos ao questionário foram analisados e concluiu-se que todas as categorias ARCS apresentaram resultados razoáveis, destacando-se a importância do domínio do problema (resultados negativos em um problema de domínio complexo) e da novidade (resultados positivos em um problema que envolvia desenvolvimento de interface gráfica). Todo o material está disponível em uma página Web na UEFS.

Leo Natan Paschoal apresentou o artigo Uma Experiência sobre a Aplicação de Aprendizagem Baseada em Projetos com Revisão por Pares no Ensino de Gestão de Sistemas de Informação. Motivado pelos desafios de lecionar Gestão de Sistemas de Informação, aplicaram a técnica de PBL em conjunto com a técnica de revisão por pares nesta disciplina (90 horas-aula) durante seu estágio de docência, como parte de sua formação de mestrado, oferecida a 31 alunos de Bacharelado em Sistemas de Informação, 9 alunos de Ciência da Computação e 3 da Engenharia de Computação, no ICMC/USP São Carlos. A disciplina também contou com aulas expositivas inicialmente para apresentação do conteúdo. A experiência está descrita de forma completa em um site Web, além do artigo em si, tendo tido uma avaliação positiva.

One thought on “Resumo da minha participação no 38º Congresso da Sociedade Brasileira de Computação (CSBC 2018)

Leave a Reply

Your email address will not be published. Required fields are marked *

*

code