Nosso blog

Computação na Sociedade e na Economia

No dia 27 de novembro participei deste evento na fundação Calouste Gulbenkian que selecionou um tema de extrema importância: "Computação na Sociedade e na Economia". Adianto que compartilho da opinião que a Computação é uma área nobre do ensino no mesmo nível de matemática, física e qualquer outra ciência e, além disso sabemos que a computação é uma área importante e onipresente na nossa vida diária. Porém, o que é exatamente a computação? Ao contrário do que se possa pensar, é muito mais do que a programação ou utilização de computadores. Nesta conferência, "sintetizada" abaixo, o termo computação é consequentemente, encarado de forma muito abrangente.


Pessoas atravessando a rua

É encarado, por um lado, como um modo de estruturar o pensamento e o raciocínio, permitindo adquirir um conjunto de técnicas e métodos para resolver problemas e fazer avançar o conhecimento. É, neste aspecto, uma competência fundamental que deveria fazer parte da educação básica de todos os nossos jovens.

É, também, encarado como um conjunto muito vasto de conhecimentos específicos que incluem a construção e programação de computadores, o desenvolvimento de algoritmos, a ciência de dados, a aprendizagem automática, o desenvolvimento de tecnologias de comunicação, a internet das coisas, os veículos autônomos e um número muito grande de outras áreas em que apenas a formação avançada e a pesquisa permitirão uma posição competitiva e de liderança.

A computação é também vista como uma tecnologia com fortes impactos sociais e econômicos. Sendo uma tecnologia fundamental para a criação de riqueza, conduz inevitavelmente a no­vas questões organizacionais e políticas, agudizando diferenças culturais e eco­nômicas e acentuando poderes visíveis e invisíveis.

Finalmente, a computação é também vista como um agente com potencial disruptivo de desmaterialização de pro­cessos e serviços, com um efeito deter­minante no acesso à informação, ao entretenimento, à cultura e à educação. Isso torna o acesso físico bem como a literacia digital (analfabetismo digital) algo que temos de asse­gurar às camadas mais vastas da população, independentemente de geografia, idade ou qualificação.

Esta conferência foi organizada em quatro sessões dedicadas a cada uma destas diferentes visões e juntou edu­cadores, cientistas, empresários e ci­dadãos, de forma a criar sinergias que permitiram desenvolver e aproveitar o potencial desta grande área. Pesquisadores da CISCO e Microsoft


Um novo amanhecer? Computação; Currículo; e confiança do professor
Conferencista: Simon Humphreys - National Coordinator for Computing At School (Reino Unido)


Em 2014, o governo da Inglaterra deu o passo ousado de introduzir a ciência da computação como parte do Currículo Nacional na Inglaterra para todos os alunos (de 4 a 16 anos) de todas as escolas. Nesta ocasião, o ICT (Information Communication Technology) foi renomeado para Computing e a ênfase mudou de "how to use" para "how to create".

A premissa da mudança foi encapsulada no propósito do assunto como: '' Uma educação de computação de alta qualidade prepara os alunos para usar o pensamento computacional e a criatividade para entender e mudar o mundo ... O núcleo da computação é a ciência da computação, na qual os alunos aprendem os princípios da informação e computação, como funcionam os sistemas digitais e como usar esse conhecimento através da programação. "Quatro anos depois, revisaremos a mudança, consideraremos como o novo currículo está se desenvolvendo para os alunos e professores e compartilharemos o trabalho de Computing At School nas escolas para apoio ao novo currículo e as lições genéricas que estamos aprendendo com a mudança de currículo", explica Simon Humphreys.

Preparando mentes jovens para o pensamento computacional
Conferencista: Srini Devadas - Professor no MIT Computer Science & Artificial Intelligence Lab (EUA)


Famosos cientistas da computação inventaram novos paradigmas de programação, linguagens, práticas de engenharia de software e algoritmos que resultaram na era da informação de hoje. Muitos desses inventores talentosos passaram seus anos de formação aprendendo a programar computadores que estavam disponíveis durante a juventude. Como podemos nos preparar e nutrir mentes jovens para seguir seus passos?

O pensamento computacional envolve modelar problemas no mundo real e expressá-los de maneira que os computadores executem suas soluções. Isto tem sido considerado um pré-requisito para ser um cientista da computação ou programador de sucesso, ou usar a tecnologia da computação de maneira simples. Mas, para Srini Devadas (professor do MIT), o pensamento computacional é uma habilidade de nível superior em comparação com as habilidades mais rudimentares de leitura, compreensão e análise, e deve ser tratada dessa maneira.

Srini Devadas argumenta que aprender e afiar habilidades analíticas, como a execução de análises e argumentos lógicos, é um pré-requisito para o pensamento computacional. Além disso, é importante aprender a precisão na análise e na implicação do estágio inicial. Uma forma de aprender a precisão analítica é escrever argumentos ou soluções para os problemas de modo que eles possam ser verificados pelo computador, o que, por sua vez, fornece feedback que é crucial para o aprendizado.


Quando os computadores decidem:
Entendendo a incerteza em sistemas controlados por dados
Conferencista: Lynda Hardman - Diretora e Pesquisadora na Utrech University (Países Baixos)


O termo "AI", ou inteligência artificial, tornou-se um termo familiar na mídia. Nações em todo o mundo estão investindo nele, as empresas estão prevendo ganhar enormes quantias de dinheiro com isso, algumas estão preocupadas com as consequências de nossa privacidade e até de nossa humanidade, outras estão lucrando com histórias de destruição social.

Mas o que exatamente nós estamos enfrentando?
Um "AI" é um programa de computador, criado por um humano, então qual é a diferença entre um programa de computador "normal" e "um AI"?

Enquanto no campo acadêmico da IA existem várias abordagens técnicas diferentes, o termo hoje em dia tende a se referir à IA baseada em dados: dados de treinamento são fornecidos a um programa de computador, um sistema de aprendizado de máquina (machine learning), que cria um modelo baseado em dados. O modelo é incorporado em outro programa de computador que pode ser usado em novos dados de entrada, por exemplo, e tomar decisões.

Exemplos de modelos aprendidos são classificadores que podem distinguir entre células saudáveis ou cancerosas, ou decidir se um produto em uma linha de produção está danificado.
Exemplo do estilo de uma arte Mondrian/Iluminismo. Sabemos que um conceito é diferente de uma palavra. Enquanto o computador não compreende o que é Iluminismo, ele já sabe que é o mesmo estilo de arte e então vai fazer perguntas do tipo quais artistas têm o Iluminsmo como o seu estilo artístico.

Um classificador é baseado em boas estatísticas "antiquadas", mas aplicado a enormes conjuntos de dados na velocidade da luz.

Ao aplicar classificadores aprendidos no mundo real, precisamos estar cientes de várias coisas, incluindo quem fornece os dados, como os dados são analisados e quais são as consequências do uso do modelo aprendido em sua área de aplicação.

Os políticos, os tomadores de decisão e o público geral precisam estar cientes das vantagens e limitações dos classificadores, tanto para aumentar os benefícios econômicos quanto para reduzir o potencial uso indevido. Através da educação básica de como os classificadores funcionam, podemos aumentar a aplicação bem-sucedida da tecnologia e, ao mesmo tempo, reduzir os potenciais efeitos negativos.

Um classificador é tão confiável quanto seus dados de entrada, mas às vezes até os especialistas não concordam, ou talvez não consigam, se um exemplo pertence a uma ou outra categoria. Isso não é necessariamente um problema, desde que possamos informar ao usuário final quão confiável é o classificador.
Ao treinar um classificador, às vezes queremos que o sistema erre do lado da cautela (por exemplo, ao tentar identificar células cancerosas) ou talvez seja mais tolerante economizar dinheiro, no caso de não jogar fora muitos produtos danificados. Os usuários precisam entender que podem ajustar as taxas de erro do classificador de acordo com as necessidades de sua aplicação.

Aprendizado de máquina é uma especialidade da IA. Um classificador vai decidir a que grupo o elemento pertence: por exemplo, ao grupo das frutas.

Às vezes, o processo de treinamento ocorre em vários estágios, em que a saída de um estágio é usada como entrada para outro. Assim como nas redes neuronais uma camada de neurônios passa o conhecimento para a camada de cima. A questão é, então, como "erros" ou inconsistências na saída de um estágio afetam os resultados em um estágio posterior.

Enquanto aqueles que treinam classificadores tentam selecionar exemplos que representem os dados que serão usados no campo, é possível que diferentes proporções de classes estejam presentes no campo. Isso também tem consequências para interpretar os resultados do classificador.

Temos que fazer uma verificação da vida real. E aí sim saberemos se o classificador está correto ou não. Algumas recomendações:

TÉCNICAS: definir padrões; os dados não podem ser discriminatórios.

ÉTICA: está na linha da frente dessas decisões. Promover algo sensível ao valor.

LEGAL: é um programa de computador, mas alguém tem que ser responsável pelos problemas.

ECONÔMICA: perda e novos empregos. Temos que saber quais serão. Há um desfasamento dos recursos. Os EUA e a China estão usando e resolvendo os seus problemas. Eles não estão muito interessados, num primeiro momento, em ter protocolos mais abertos. Embora exista sempre o discurso do "consórcio" a fim de definir padrões, o ritmo da inovação é mais rápido do que as legislações. Todo o valor econômico derivado desses dados está nas mãos de poucas empresas. Isso é uma preocupação da distribuição econômica. Mas, hoje estamos preparados para pagar R$ 9,90 por mês ao invés de não pagar por um aplicativo (Facebook, Waze, ...)? Talvez, aí sim, pudéssemos exigir que o produto não seja nós, não seja nossos dados. Outra alternativa seria combinar blockchain com dados pessoais (identidade digital) que só podem ser utilizados para uma maneira específica. Precisamos proteger a nossa identidade digital.

SOCIEDADE: compreensão do público sobre estas inovações. As empresas vão saber tudo sobre você. Por conta dos vídeos que você assiste, votos, pelo que você paga, ... acha que devemos parar este processo? "Não sabemos" o que estão fazendo com os dados que estão sendo acessados pelo nosso celular e computador. O RGPD (Regulamento Geral sobre a Proteção de Dados) é um passo. Mas, existe o passo seguinte. Experiência sobre as pesquisas que vão fazer com os nossos dados. Mas, as empresas de pesquisa acham que são delas e não temos como parar este movimento. Como descobrir tudo que o Google sabe de você - e como apagar seu rastro.

EDUCACIONAL: educação universitária e técnica a nível profissional; Tem que colocar a IA nos ensinos de computação das universidades. As pessoas têm que entender porque é importante gerir a sua identidade digital. Tem que ir para além da conscientização. Elas têm que aprender sobre cibersegurança, por exemplo. Então, tem que ser ensinado nas escolas. Senão, teremos ameaça à democracia. É um elemento de educação e pesquisa: como fazer a manutenção da paz digital?
4Rs = Reading, wRiting, aRithmetic and infoRmating.
Os professores geralmente se concentravam nos "Três Rs". São leitura, escrita e aritmética . Esses três princípios básicos eram a base da educação. No entanto, à medida que a tecnologia avança, mais e mais escolas estão minando esses princípios básicos porque os estudantes precisam saber mais para trabalhar com computadores, software e outras tecnologias. A sugestão da palestrante foi adicionar o quarto "R". Para os que só defendem os 3Rs, se um aluno puder ler e escrever, ele poderá concluir um projeto de pesquisa e aprender a digitar. Se um aluno entende os fundamentos da aritmética, ele pode aprender a programar algoritmos complexos ou estudar ciência.

A Ásia ficou muito preocupada com o DeepMind AlphaGo System. Foi o caso AlphaGo versus Lee Sedol, também chamado de Google DeepMind Challenge Match. Foi uma disputa de 5 jogos entre um supercomputador da Google (AlphaGo), contra o sul-coreano Lee Sedol no milenar jogo de tabuleiro Go, entre os dias 9 e 15 março de 2016 no Four Seasons Hotel da cidade sul-coreana de Seul. O resultado final foi 4-1 para o AlphaGo.


O valor da literacia digital
Conferencista: Pedro Guedes de Oliveira e Sofia Marques da Silva - Pedro Guedes é Coordenador Geral do INCoDe 2030 e Sofia Marques é PhD em Ciência da Educação (Portugal)


A noção de alfabetização digital é frequentemente pouco clara ou ampla. Alguns falam até mesmo de "literacias digitais", "novas literacias", ou mesmo multiliteracias. Para Perdro Guedes "a sociedade está a deixar um conjunto de pessoas como analfabetos". Pode ser útil distinguir entre uma definição conceitual e uma operacional padronizada, a primeira como uma extensão do conceito de alfabetização para a compreensão da informação fornecida em formato digital, permitindo que os indivíduos se envolvam na vida social através do uso da mídia, enquanto a segunda é a capacidade de executar tarefas ou demonstrar habilidades, usando ordens específicas de pensamento cognitivo para usar informações digitais.

No mundo de hoje, temos, em geral, o uso de ambos os conceitos, seja para exercer plenamente a cidadania e a participação em uma comunidade global, seja para um melhor desempenho no contexto de uma atividade profissional.

Nesta apresentação foi enfatizada a importância da alfabetização digital, tanto como uma competência técnica e científica que valorizará o valor individual e coletivo profissional na Sociedade do Conhecimento, quanto uma competência básica para toda a sociedade com profundidades que podem variar substancialmente, ainda tendo que assegurar, em todos os casos, um valor mínimo essencial.

Atualmente, em praticamente qualquer profissão, a capacidade de usar software e operar dispositivos digitais é uma exigência básica. No entanto, muitas vezes mais do que isso é necessário, ou seja, "uma grande variedade de habilidades cognitivas, motoras, sociológicas e emocionais [...] complexas, por exemplo,"ler" instruções de exibições gráficas em interfaces de usuário; usar a reprodução digital para criar materiais novos e significativos a partir dos existentes construindo conhecimento a partir de uma navegação não-linear, hipertextual, avaliando a qualidade e a validade da informação e tendo uma compreensão madura e realista das "regras" que prevalecem no ciberespaço. Sem tais competências, a capacidade de obter um bom emprego cai significativamente".

No entanto, em outras profissões, um conhecimento mais avançado em ciência da computação e engenharia é necessário, seja para trabalhar em desenvolvimento de software ou em indústrias e serviços que o exijam para propósitos como planejamento avançado, robotização, simulação digital de processos e produtos, informações. recuperação, aprendizado de máquina e outros métodos de IA.

Essas profissões certamente estarão entre aquelas que trarão maior valor agregado, bem-estar, sustentabilidade e por último, mas não menos importante, a capacidade de manter sob controle o ambiente onde vivemos.

As tecnologias digitais permeiam aspectos significativos de nossas vidas e a alfabetização digital é necessária para executar tarefas bem diferentes, da educação à educação.

Como diz Eshet-Alkalai, a alfabetização digital é uma "habilidade de sobrevivência na era digital". Assegurar que toda a população, em sua diversidade e diferentes qualificações, tenha acesso a um conjunto de habilidades que lhes permitam comunicar e entender criticamente a informação é uma questão de justiça social. 12 ideias para o futuro da Europa.

À medida que os requisitos de alfabetização digital mudam para acompanhar as mudanças nas tecnologias da informação, as pessoas precisam adquirir novas habilidades para participar da economia global do conhecimento. E se isso pode ser mais fácil para as gerações jovens que se consideram criadoras digitais, enquanto outras estão presas na convergência de mídias antigas e novas e outras, ainda assim, devido à idade, gênero, geografia, etnia ou origens sociais e culturais estão em uma situação pior para beneficiar de tecnologias digitais e suas oportunidades. É por isso que é "importante assegurar que todos os jovens e adultos tenham a oportunidade de adquirir as competências necessárias em educação e formação inicial, ensino superior, formação profissional contínua, educação de adultos ou diferentes formas de aprendizagem não formal e informal".

Estar familiarizado e usar tecnologias digitais diariamente não significa necessariamente usá-lo habilmente. Há um debate sobre as habilidades necessárias para o século 21, influenciando abordagens de treinamento e educação, pedagogias e currículos que promovam competências em design thinking, programação e solução criativa de problemas como meio de aumentar as oportunidades para o pleno exercício da cidadania e ter oportunidades equitativas para a crescente demanda de perfis técnicos.

Mas, mesmo os jovens são afetados por desigualdades persistentes e ser "nativo digital" não é realmente uma condição transversal. Nem todas as crianças e jovens têm conhecimento e habilidade digital, isto é, tem exclusão digital também com os jovens. Invisible learning.

Marco Aurélio Freitas é Sócio-Fundador da Go2web

comentários via Disqus