regulamentação

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Pela lei, alunos não poderão usar celulares nem no recreio ou no intervalo das aulas - Foto: pvproductions/Freepik/Creative Commons

Até onde escolas sem celulares resolvem problemas da superexposição às telas?

By | Educação, Tecnologia | No Comments

Desde o dia 13, alunos não podem mais usar celulares e tablets pessoais nas escolas brasileiras de Ensino Fundamental e Ensino Médio. A lei 15.100/2025, que visa “salvaguardar a saúde mental, física e psíquica das crianças e adolescentes”, também é positiva frente às enormes perdas pedagógicas que esses equipamentos produzem. Mas ela não resolve o problema da superexposição dos mais jovens às telas, pois isso acontece principalmente em casa.

É um desafio complexo, pois vivemos em um mundo profundamente digitalizado, desde tenra idade. A pesquisa TIC Kids Online Brasil 2024, publicada em outubro pelo Cetic.br, órgão de pesquisas do CGI.br (Comitê Gestor da Internet no Brasil), indicou que 93% dos brasileiros entre 9 e 17 anos usam a Internet, quase sempre pelo celular. Praticamente todas as crianças ficam online em casa, e cerca de metade fazem isso na escola. E o primeiro contato se dá até os 6 anos para 23% e entre 7 e 9 anos para 26%, contrariando especialistas, que indicam que isso só comece na adolescência.

A lei reforça a autoridade do professor, que hoje tem que lutar contra as distrações do celular na sala de aula. Mas pais e mães precisam trabalhar com as escolas para combater os efeitos das telas sobre seus filhos, que vão muito além de piora no desempenho escolar. Elas podem causar sérios problemas de saúde mental, sono ruim, dificuldade de sociabilização, exposição a assédios, distúrbios alimentares e até de postura.

A tarefa cresce porque, por outro lado, os mais jovens precisam ser educados a usarem esses equipamentos de maneira segura e positiva. A proteção às crianças e aos adolescentes não pode ser confundida com alienação tecnológica.


Veja esse artigo em vídeo:


Tanto é assim que a lei permite que esses equipamentos sejam usados em atividades pedagógicas sob orientação do professor. Eles também podem ser usados por alunos que dependam deles por necessidades de saúde, acessibilidade ou inclusão.

A regra determina que não sejam usados nem no recreio ou nos intervalos entre aulas. Estudo realizado em 2023 pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) indicou que o “dreno de atenção” dos smartphones é tão grande, que os alunos podem levar até 20 minutos para se concentrar novamente depois de usarem o celular em atividades não-acadêmicas. Mas o documento lembra que a tecnologia deve fazer parte da formação do indivíduo.

“É muito importante entender que olhar para os riscos de forma alguma exclui a necessidade de apropriação de tecnologias na educação”, afirma Ana Lucia de Souza Lopes, doutora em Educação e especialista em Educação e Tecnologias, e coordenadora na Universidade Presbiteriana Mackenzie. Para ela, “é muito simplista pensar dessa maneira, pois estamos diante de um grande desafio que precisa ser enfrentado para encontrar o equilíbrio”.

Portanto, a lei não propõe que o problema seja “varrido para baixo do tapete”. “A simples proibição do uso de celulares, sem o devido contexto, pode gerar desafios, como resistência ou ansiedade, especialmente em crianças e jovens que já apresentam sinais de dependência tecnológica”, explica Maria Eduarda Menezes, coordenadora de edtech da Beacon School. “Por isso, mais do que proibir, é essencial adotar uma abordagem educativa e dialógica”, acrescenta.

Não se pode achar que a escola dará conta disso sozinha, mas ela desempenha um papel essencial, por ser um lugar que prioriza o cuidado com o ser humano. Ela pode também instruir pais e mães a como lidar com essa questão, pois o uso equilibrado da tecnologia que começa na escola deve continuar em casa. Pouco adianta restringir o acesso ao celular e liberar outras telas, como o videogame e a televisão. Os responsáveis também devem avaliar se o celular é realmente necessário para os filhos ou se o oferecem apenas por pressões sociais ou modismos.

 

Combate ao “vício”

Se os adultos sofrem um impulso às vezes incontrolável de olhar informações no seu celular, isso é ainda mais forte em adolescentes. E não raro elas dominam a tecnologia melhor que seus pais, mas não sabem usá-la para aprender.

“É importante incluir letramento digital e cidadania digital nos currículos das escolas, pois permitem que os alunos compreendam como as tecnologias funcionam, saibam utilizá-las de maneira ética e responsável e desenvolvam habilidades para navegar com segurança no ambiente online”, explica Menezes.

Lopes explica que a escola deve oferecer aos estudantes estruturas de convivência e desenvolvimento que ampliem seus repertórios além das telas. “Ou, ao chegar da escola, os estudantes irão diretamente para a tela para compensar as horas de ‘privação’, agravando o quadro”, acrescenta.

Nada disso é simples, e a maioria dos professores não está preparada para incorporar essas demandas em suas aulas. Sua formação deve ser atualizada para conhecerem os riscos e desafios de lidar com a tecnologia digital, mas também para a enxergarem além de uma mera ferramenta, descobrindo como aproveitar seu potencial e compreender o papel que ocupa em nossas vidas. Para os docentes já formados, as escolas e o governo devem oferecer capacitação contínua.

Esse papel aparece em um alerta que alguns especialistas fazem sobre uma brecha na lei, que permite que os celulares sejam usados em aula para “garantir os direitos fundamentais”, sem explicar quais seriam. Eles temem que alguns alunos usem isso para manter a prática de filmar professores que digam algo com o que não concordem, em uma reprovável tentativa de exposição e até criminalização dos docentes. Vale dizer que isso afronta o direito à imagem garantido pela Constituição e pela Lei Geral de Proteção de Dados. Por isso, o governo deve explicar melhor o que são tais direitos, no processo de regulamentação da lei, que deve acontecer em 30 dias.

De qualquer forma, ela é muito bem-vinda, e deve auxiliar na solução de graves problemas causados pelo uso descontrolado desses dispositivos na escola. Abre também uma porta para se construir uma boa educação digital na escola e em casa.

Smartphones não podem ser vistos como meros brinquedos ou –pior ainda– uma “chupeta digital” para acalmar os mais jovens. Crianças e adolescentes merecem o apoio de pais, mães e educadores para se apropriarem de todo esse poder digital de maneira segura e construtiva. Essa é uma tarefa de toda a sociedade.

 

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Quem diz o que pode e o que não pode na Internet

By | Tecnologia | No Comments

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para “Lei de Decência nas Comunicações”), trecho dessa lei americana de 1996 chamado de “as 26 palavras que criaram a Internet”.

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.


Veja esse artigo em vídeo:


Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), “nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas”. Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. “Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade”, explica.

“A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções”, adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. “Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão”, acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de “PL das Fake News”, que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. “O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19”, diz o advogado. “Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19”, conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

“Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica”, sugere Freitas. “Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários”, afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Roberta Metsola, presidente do Parlamento Europeu, que acaba de aprovar a Lei da Inteligência Artificial - Foto: PE/Creative Commons

Europa regulamenta a IA protegendo a sociedade e sem ameaçar a inovação

By | Tecnologia | No Comments

O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.

Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.

Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.

O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.

Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.


Veja esse artigo em vídeo:


A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.

“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.

A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.

A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.

A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.

 

Evitando Estados policialescos

Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.

Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.

A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.

O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.

É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.

Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Por que os taxistas nunca vencerão o Uber (e o que você pode tirar disso)

By | Jornalismo, Tecnologia | 5 Comments
Taxistas protestam contra a regulamentação do Uber em São Paulo – Foto: Rovena Rosa/Agência Brasil

Taxistas protestam contra a regulamentação do Uber em São Paulo

No dia 11, o prefeito Fernando Haddad regulamentou os aplicativos de transporte, como o Uber, em São Paulo. Isso desencadeou uma nova onda de protestos violentos dos taxistas, que acusam a empresa de concorrência desleal. Mas é uma luta que eles jamais vencerão, pois o Uber redefiniu o transporte de pessoas, “commoditizando” o serviço dos taxistas. E esse é um fenômeno social e econômico que pode atingir qualquer negócio ou categoria profissional.

Mas o que é essa “commoditização” de produtos e serviços? Isso acontece quando novas empresas, novas tecnologias ou novos modelos de negócios começam a oferecer a mesma coisa de maneira inovadora, acrescentando uma camada inédita de valor sobre algo que já existe. Nesse processo, o produto ou o serviço original continua lá e até pode ser essencial no novo formato, mas o público deixa de ver valor naquilo, passando a pagar apenas pela novidade.


Vídeo relacionado:


É o que o Uber fez com os táxis. Trocando em miúdos, os passageiros passaram a querer mais que o simples transporte em quaisquer condições, oferecido pelos taxistas. Para esses consumidores, o verdadeiro valor é ter esse serviço em um carro novo, limpo e confortável, com um motorista educado, treinado e bem vestido, com serviço de bordo. É por tudo isso que cada vez mais pessoas estão dispostas a pagar. E é isso que o Uber oferece, e os taxistas não conseguem –ou não querem– entender e fazer.

É claro que o que os taxistas e o Uber vendem é transporte de passageiros. Mas o Uber tirou o valor disso, que virou apenas o básico, aquilo que o público nem vê, por mais que seja a essência do serviço: foi “commoditizado”. O valor foi transferido para a camada de serviços extra.

O que os taxistas oferecem não vale mais. É por isso que não vencerão o Uber.

 

“Commoditizando” tudo

Mas isso pode afetar qualquer um, inclusive você, seja lá o que você faça. Isso porque, quando menos se espera, alguém pode chegar oferecendo a mesma coisa, só que de uma maneira que faça mais sentido para o seu público.

Qualquer jornalista já sentiu isso na pele. Com a popularização das redes sociais e a explosão de oferta de conteúdo de qualquer tipo, muitos colegas chegam a achar que a profissão encontrou o seu fim, com uma massa enorme e crescente de desempregados. Eles não estão sozinhos: veículos de comunicação tradicionais quebram um após o outro no mundo todo, incapazes de fazer frente à fuga de público e de anunciantes.

Assim como os taxistas, esses profissionais e essas empresas ficam em um “mimimi” eterno, reclamando que são eles que sabem fazer esse trabalho direito, que são eles que produzem o conteúdo de qualidade, e que isso custa muito caro! E que não é justo que novos veículos digitais cheguem e acabem com o seu monopólio da notícia, que durava mais de um século.

Oras, mas esses novos veículos, como a Vice, vão muito bem, e o que eles oferecem, na base, é conteúdo jornalístico. Mas eles tiveram sucesso em criar aquela “camada de valor extra”. Ou seja, o conteúdo jornalístico está mesmo “commoditizado”, mas ele serve para viabilizar esses novos títulos e profissionais.

Outro exemplo que gosto muito de citar é o da indústria fonográfica. Há uns 20 anos, ela era bilionária, com lucros calcados principalmente sobre a venda de CDs. Surgiram então os serviços de compartilhamento de MP3, como o Napster, que mostraram ao público que aquele modelo da indústria já havia caducado. Eventualmente isso acabou perdendo força, com as gravadoras processando os serviços e até seus clientes (o que demonstra como estavam dissociadas desse novo mundo).

Mas então a Apple lançou o iTunes, oferecendo a possibilidade de compra digital de cada faixa por uma fração do valor do álbum, e jogou a pá de cal no modelo de negócios de CDs. Só que esse modelo também já está perdendo força, sendo substituído pelo do Spotify, onde se paga um valor fixo por mês e se consome à vontade do seu gigantesco acervo de músicas online.

A música foi “commoditizada”: sorte do Spotify! Azar dos vendedores de CDs…

Agora pense com carinho: o seu produto ou serviço já está sendo “commoditizado” por alguém ou isso ainda vai acontecer?

 

Como escapar da “commoditização”

A Apple também poderia ficar rangendo os dentes, como as gravadoras, os jornais, revistas ou os taxistas. Mas, ao invés disso, ela reinventou seu serviço! O iTunes ainda existe, mas a empresa já lançou a Apple Music, exatamente nos mesmos moldes do Spotify. Porque, como diz o filósofo, “quem fica parado é poste!”

Esse deveria ser o mantra de todos os gestores, de qualquer negócio. Mais cedo ou mais tarde, isso que eles fazem tão bem e que parece essencial à sociedade perderá o valor. Se continuarem insistindo, serão substituídos por alguém com uma visão mais moderna dos negócios e do mundo.

Então voltemos ao caso dos taxistas, para entender como sobreviver à “commoditização”.

Não é o Uber que ameaça os taxistas, e por vários motivos. Primeiramente porque existe espaço para todos. Como a Prefeitura de São Paulo não emite novos alvarás para táxis comuns desde 1996, há um déficit estimado de 20 mil carros para transporte particular na cidade. O Uber pode triplicar a sua frota atual em São Paulo, que isso mal fará cócegas nessa demanda reprimida.

No final das contas, a verdadeira ameaça aos taxistas são o seu sindicato, a máfia dos alvarás e os próprios taxistas! O primeiro porque promove o ódio entre os motoristas e incentiva essa baderna que temos visto nas cidades. O resultado disso é um sentimento de rejeição ao serviço de táxi como um todo entre a população, seja pelos recorrentes transtornos causados por aquela parcela dos motoristas, seja pela repulsa à violência injustificável que alguns criminosos praticam contra motoristas e até passageiros do Uber.

Sobre a máfia dos alvarás (que chega a cobrar R$ 150 mil por algo que é uma concessão municipal), ela é uma facção do crime organizado que lesa a população e o poder público por manipular essas autorizações para obter lucros milionários. Os próprios taxistas são os principais prejudicados por esses bandidos, pois, para que consigam trabalhar, precisam comprar ou alugar essa licença, pagando valores astronômicos.

Portanto, se os taxistas realmente quiserem sobreviver à “commoditização”, não deveriam se organizar contra Uber, muito menos do jeito que estão fazendo. A solução dos seus problemas passa por ficar livres justamente desse sindicato, que os manipula, e dessa máfia, que os explora ao extremo. Os dois são dignos representantes do pior que existe na sociedade brasileira. Além disso, os taxistas precisam repensar o seu serviço: se o que eles oferecem não é mais o que as pessoas estão dispostas a pagar, é hora de se reinventar. E o Uber, ao invés de algoz, pode ser o modelo a ser seguido.

Não há como resistir à evolução do mercado. Ranger os dentes, distribuir pancada ou desqualificar novos concorrentes não resolverá o problema de nenhum negócio. A única solução é melhorar: ficar parado é o mesmo que piorar.


Vamos falar sobre a linguagem certa para público certo na Social Media Week? Esse é o segredo do sucesso nas redes sociais. É só entrar nesta página e clicar no botão verde de CURTIR abaixo da minha foto.


Artigos relacionados: